MCRL | totumat.com

R: Formulario del Modelo Clásico de Regresión Lineal

A continuación se presentan las fórmulas usadas para desarrollar la teoría del Modelo Clásico de Regresión Lineal (MCRL), acompañadas por su sintaxis en R de forma respectiva.

También pudiera interesarte

Medias

Media de la variable X:

\dfrac{\sum X_i}{n}

m.X <- sum(X)/length(X)
# o también
m.X <- mean(X)

Media de la variable Y:

\dfrac{\sum Y_i}{n}

m.Y <- sum(Y)/length(Y)
# o también
m.Y <- mean(Y)

Estimadores

Pendiente

\hat{\beta}_2 = \dfrac{\sum x_i y_i}{\sum x_i^2}

beta2 <- sum((X - m.X)*(Y - m.Y))/sum((X - m.X)^2)

Intercepto

\hat{\beta}_1 = \overline{Y} - \hat{\beta}_2 \overline{X}

beta1 <- m.Y - beta2*m.X

Residuos

\hat{u}_i = Y_i - \hat{Y}_i

res <- Y - Y.e

\sum \hat{u}_i^2 = \sum( Y_i - \hat{\beta}_1 - \hat{\beta}_2 X_i)^2

SCR <- sum(res^2)

\sum \hat{u}_i^2 = \sum y_i^2 - \dfrac{(\sum x_i y_i)^2}{\sum x_i^2}

SCR <- sum((Y-Y.e)^2) - (sum((X-m.X)*(Y-m.Y)))^2/sum((X-m.X)^2)
Anuncios

Varianza y Error Estándar

var(\hat{\beta}_2) = \dfrac{\sigma^2}{\sum x_i^2}

ee(\hat{\beta}_2) = \dfrac{\sigma}{ \sqrt{\sum x_i^2} }

var.beta1 <- sigma2.e*sum( X^2 )/(length(X) * sum( (X-m.X)^2 ))
ee.beta1 <- sqrt(var.beta1)

var(\hat{\beta}_1) = \dfrac{ \sum X_i^2 }{n \sum x_i^2} \cdot \sigma^2

ee(\hat{\beta}_1) = \sqrt{ \dfrac{ \sum X_i^2 }{n \sum x_i^2} } \cdot \sigma

var.beta1 <- sigma2.e*sum( X^2 )/(length(X) * sum( (X-m.X)^2 ))
ee.beta1 <- sqrt(var.beta1)

\hat{\sigma}^2 = \dfrac{\sum \hat{u}_i^2}{n-2}

sigma2.e <- SCR/(lenght(X)-2)

\hat{\sigma} = \sqrt{\dfrac{\sum \hat{u}_i^2}{n-2}}

ee.e <- sqrt(sigma2.e)
Anuncios

Covarianza

cov(\hat{\beta}_1,\hat{\beta}_2) = - \overline{X} var(\hat{\beta}_2)

cov.b1b2 <- -m.X (sigma2.e/sum((X-m.X)^2))

Bondad de Ajuste

r^2 = \dfrac{SCE}{SCT} = \dfrac{\sum (\hat{y}_i - \overline{Y})^2}{\sum (Y_i - \overline{Y})^2}

r2 <- sum((Y.e - m.Y)^2)/sum((Y - m.Y)^2)

r^2 = 1 - \dfrac{SCR}{SCT} = 1 - \dfrac{ \sum \hat{u}_i^2}{\sum (Y_i - \overline{Y})^2}

r2 <- 1 - sum((Y - Y.e)^2)/sum((Y - m.Y)^2)

r^2 = \dfrac{(\sum x_i y_i)^2}{\sum x_i^2 \sum y_i^2}

r2 <- (sum((X-m.X)*(Y-m.Y))^2/(sum((X - m.X)^2)*sum((Y - m.Y)^2))

r = \dfrac{\sum x_i y_i}{\sqrt{\sum x_i^2 \sum y_i^2}}

r <- sum((X-m.X)*(Y-m.Y))/sqrt(sum((X - m.X)^2)*sum((Y - m.Y)^2))

r^2 = \dfrac{(\sum y_i \hat{y}_i)^2}{(\sum y_i^2) (\sum \hat{y}^2)}

r2 <- (sum(Y-m.Y)*(Y-Y.e))^2/(sum((Y - m.Y)^2)*sum((Y - Y.e)^2))
Anuncios

Estadísticos

Estadístico F

F = \dfrac{\hat{\beta}_2^2 \sum x_i^2}{ \hat{\sigma}^2 }

F.c <- beta2^2 * sum((X-m.X)^2)/sigma2.e
#p-value de F.c
pf(F.c,1,length(X)-2,lower.tail = F)

Estadístico t

# Dos colas
qt(alpha/2,df=length(X)-2,lower.tail = FALSE)

# Una cola
qt(alpha,df=length(X)-2,lower.tail = FALSE)

Estadístico chi cuadrado \mathbf{\chi}^2

# Cola izquierda
qchisq(alpha/2,df=length(X)-2,lower.tail = FALSE)

# Cola derecha
qchisq(1-alpha/2,df=df=length(X)-2,lower.tail = FALSE)
Anuncios

Intervalos de Confianza

\hat{\beta}_2 \pm t_{\alpha/2} ee(\hat{\beta}_2)

li.beta2 <- beta2 - qt(alpha/2, df=length(escolaridad)-2,lower.tail=F)*ee.beta2
ls.beta2 <- beta2 + qt(alpha/2, df=length(escolaridad)-2,lower.tail=F)*ee.beta2

\hat{\beta}_1 \pm t_{\alpha/2} ee(\hat{\beta}_1)

li.beta1 <- beta1 - qt(alpha/2, df=length(escolaridad)-2,lower.tail=F)*ee.beta1
ls.beta1 <- beta1 + qt(alpha/2, df=length(escolaridad)-2,lower.tail=F)*ee.beta1

P \left[ (n-2) \dfrac{\hat{\sigma}^2}{\chi^2_{\alpha/2}} \leq \sigma^2 \leq (n-2) \dfrac{\hat{\sigma}^2}{\chi^2_{1-\alpha/2}} \right] = 1-\alpha

li.sigma2 <- (length(escolaridad)-2)*sigma2.e/qchisq(alpha/2,df=length(escolaridad)-2,lower.tail=F)
ls.sigma2 <- (length(escolaridad)-2)*sigma2.e/qchisq(1-alpha/2,df=length(escolaridad)-2,lower.tail=F)
Anuncios

Predicción

\hat{Y}_o = \hat{\beta}_1 + \hat{\beta}_2 X_0

latex Y.0 <- beta1 + beta2*X.0

Varianza de la Predicción Media

var(\hat{Y}_0) = \sigma^2 \left[ \dfrac{1}{n} + \dfrac{(X_0 - \overline{X})^2}{\sum x_i^2} \right]

ee(\hat{Y}_0) = \sigma\sqrt{\dfrac{1}{n} + \dfrac{(X_0 - \overline{X})^2}{\sum x_i^2} }

varm.Y.0 <- sigma2.e*(1/length(X)+(X.0-m.X)^2/sum((X-m.X)^2))
eem.C.0 <- sqrt(varm.C.0)

Intervalo de Confianza de la Predicción Media

P \big[ \hat{\beta}_1 + \hat{\beta}_2 X_0 - t_{\alpha/2} ee(\hat{Y}_0) \leq \beta_1 + \beta_2 X_0 \leq \hat{\beta}_1 + \hat{\beta}_2 X_0 + t_{\alpha/2} ee(\hat{Y}_0) \big] = 1 - \alpha

li.C.0 <- beta1 + beta2*X.0 - qt(0.025,df=length(X)-2,lower.tail = FALSE)*eem.C.0
ls.C.0 <- beta1 + beta2*X.0 + qt(0.025,df=length(X)-2,lower.tail = FALSE)*eem.C.0

Varianza de la Predicción Individual

var(Y_0 - \hat{Y}_0) = E[Y_0 - \hat{Y}_0]^2 = \sigma^2 \left[ 1 + \dfrac{1}{n} + \dfrac{(X_0 - \overline{X})^2}{\sum x_i^2} \right]

ee(\hat{Y}_0) = \sigma\sqrt{1+\dfrac{1}{n} + \dfrac{(X_0 - \overline{X})^2}{\sum x_i^2} }

vari.Y.0 <- sigma2.e*(1+1/length(X)+(X.0-m.X)^2/sum((X-m.X)^2))
eei.C.0 <- sqrt(vari.C.0)

Intervalo de Confianza de la Predicción Media

P \big[ \hat{\beta}_1 + \hat{\beta}_2 X_0 - t_{\alpha/2} ee(\hat{Y}_0) \leq \beta_1 + \beta_2 X_0 \leq \hat{\beta}_1 + \hat{\beta}_2 X_0 + t_{\alpha/2} ee(\hat{Y}_0) \big] = 1 - \alpha

li.C.0 <- beta1 + beta2*X - qt(0.025,df=length(X)-2,lower.tail = FALSE)*eei.C.0
ls.C.0 <- beta1 + beta2*X + qt(0.025,df=length(X)-2,lower.tail = FALSE)*eei.C.0

Un comentario en “R: Formulario del Modelo Clásico de Regresión Lineal

¿Tienes alguna duda? Compártela en los comentarios.

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.