MCRL | totumat.com

R: Formulario del Modelo Clásico de Regresión Lineal

A continuación se presentan las fórmulas usadas para desarrollar la teoría del Modelo Clásico de Regresión Lineal (MCRL), acompañadas por su sintaxis en R de forma respectiva.

También pudiera interesarte

Anuncios

Medias

Media de la variable X:

\dfrac{\sum X_i}{n}

m.X <- sum(X)/length(X)
# o también
m.X <- mean(X)

Media de la variable Y:

\dfrac{\sum Y_i}{n}

m.Y <- sum(Y)/length(Y)
# o también
m.Y <- mean(Y)

Estimadores

Pendiente

\hat{\beta}_2 = \dfrac{\sum x_i y_i}{\sum x_i^2}

beta2 <- sum((X - m.X)*(Y - m.Y))/sum((X - m.X)^2)

Intercepto

\hat{\beta}_1 = \overline{Y} - \hat{\beta}_2 \overline{X}

beta1 <- m.Y - beta2*m.X

Residuos

\hat{u}_i = Y_i - \hat{Y}_i

res <- Y - Y.e

\sum \hat{u}_i^2 = \sum( Y_i - \hat{\beta}_1 - \hat{\beta}_2 X_i)^2

SCR <- sum(res^2)

\sum \hat{u}_i^2 = \sum y_i^2 - \dfrac{(\sum x_i y_i)^2}{\sum x_i^2}

SCR <- sum((Y-Y.e)^2) - (sum((X-m.X)*(Y-m.Y)))^2/sum((X-m.X)^2)
Anuncios

Varianza y Error Estándar

var(\hat{\beta}_2) = \dfrac{\sigma^2}{\sum x_i^2}

ee(\hat{\beta}_2) = \dfrac{\sigma}{ \sqrt{\sum x_i^2} }

var.beta1 <- sigma2.e*sum( X^2 )/(length(X) * sum( (X-m.X)^2 ))
ee.beta1 <- sqrt(var.beta1)

var(\hat{\beta}_1) = \dfrac{ \sum X_i^2 }{n \sum x_i^2} \cdot \sigma^2

ee(\hat{\beta}_1) = \sqrt{ \dfrac{ \sum X_i^2 }{n \sum x_i^2} } \cdot \sigma

var.beta1 <- sigma2.e*sum( X^2 )/(length(X) * sum( (X-m.X)^2 ))
ee.beta1 <- sqrt(var.beta1)

\hat{\sigma}^2 = \dfrac{\sum \hat{u}_i^2}{n-2}

sigma2.e <- SCR/(lenght(X)-2)

\hat{\sigma} = \sqrt{\dfrac{\sum \hat{u}_i^2}{n-2}}

ee.e <- sqrt(sigma2.e)
Anuncios

Covarianza

cov(\hat{\beta}_1,\hat{\beta}_2) = - \overline{X} var(\hat{\beta}_2)

cov.b1b2 <- -m.X (sigma2.e/sum((X-m.X)^2))

Bondad de Ajuste

r^2 = \dfrac{SCE}{SCT} = \dfrac{\sum (\hat{y}_i - \overline{Y})^2}{\sum (Y_i - \overline{Y})^2}

r2 <- sum((Y.e - m.Y)^2)/sum((Y - m.Y)^2)

r^2 = 1 - \dfrac{SCR}{SCT} = 1 - \dfrac{ \sum \hat{u}_i^2}{\sum (Y_i - \overline{Y})^2}

r2 <- 1 - sum((Y - Y.e)^2)/sum((Y - m.Y)^2)

r^2 = \dfrac{(\sum x_i y_i)^2}{\sum x_i^2 \sum y_i^2}

r2 <- (sum((X-m.X)*(Y-m.Y))^2/(sum((X - m.X)^2)*sum((Y - m.Y)^2))

r = \dfrac{\sum x_i y_i}{\sqrt{\sum x_i^2 \sum y_i^2}}

r <- sum((X-m.X)*(Y-m.Y))/sqrt(sum((X - m.X)^2)*sum((Y - m.Y)^2))

r^2 = \dfrac{(\sum y_i \hat{y}_i)^2}{(\sum y_i^2) (\sum \hat{y}^2)}

r2 <- (sum(Y-m.Y)*(Y-Y.e))^2/(sum((Y - m.Y)^2)*sum((Y - Y.e)^2))
Anuncios

Estadísticos

Estadístico F

F = \dfrac{\hat{\beta}_2^2 \sum x_i^2}{ \hat{\sigma}^2 }

F.c <- beta2^2 * sum((X-m.X)^2)/sigma2.e
#p-value de F.c
pf(F.c,1,length(X)-2,lower.tail = F)

Estadístico t

# Dos colas
qt(alpha/2,df=length(X)-2,lower.tail = FALSE)

# Una cola
qt(alpha,df=length(X)-2,lower.tail = FALSE)

Estadístico chi cuadrado \mathbf{\chi}^2

# Cola izquierda
qchisq(alpha/2,df=length(X)-2,lower.tail = FALSE)

# Cola derecha
qchisq(1-alpha/2,df=df=length(X)-2,lower.tail = FALSE)
Anuncios

Intervalos de Confianza

\hat{\beta}_2 \pm t_{\alpha/2} ee(\hat{\beta}_2)

li.beta2 <- beta2 - qt(alpha/2, df=length(escolaridad)-2,lower.tail=F)*ee.beta2
ls.beta2 <- beta2 + qt(alpha/2, df=length(escolaridad)-2,lower.tail=F)*ee.beta2

\hat{\beta}_1 \pm t_{\alpha/2} ee(\hat{\beta}_1)

li.beta1 <- beta1 - qt(alpha/2, df=length(escolaridad)-2,lower.tail=F)*ee.beta1
ls.beta1 <- beta1 + qt(alpha/2, df=length(escolaridad)-2,lower.tail=F)*ee.beta1

P \left[ (n-2) \dfrac{\hat{\sigma}^2}{\chi^2_{\alpha/2}} \leq \sigma^2 \leq (n-2) \dfrac{\hat{\sigma}^2}{\chi^2_{1-\alpha/2}} \right] = 1-\alpha

li.sigma2 <- (length(escolaridad)-2)*sigma2.e/qchisq(alpha/2,df=length(escolaridad)-2,lower.tail=F)
ls.sigma2 <- (length(escolaridad)-2)*sigma2.e/qchisq(1-alpha/2,df=length(escolaridad)-2,lower.tail=F)
Anuncios

Predicción

\hat{Y}_o = \hat{\beta}_1 + \hat{\beta}_2 X_0

latex Y.0 <- beta1 + beta2*X.0

Varianza de la Predicción Media

var(\hat{Y}_0) = \sigma^2 \left[ \dfrac{1}{n} + \dfrac{(X_0 - \overline{X})^2}{\sum x_i^2} \right]

ee(\hat{Y}_0) = \sigma\sqrt{\dfrac{1}{n} + \dfrac{(X_0 - \overline{X})^2}{\sum x_i^2} }

varm.Y.0 <- sigma2.e*(1/length(X)+(X.0-m.X)^2/sum((X-m.X)^2))
eem.C.0 <- sqrt(varm.C.0)

Intervalo de Confianza de la Predicción Media

P \big[ \hat{\beta}_1 + \hat{\beta}_2 X_0 - t_{\alpha/2} ee(\hat{Y}_0) \leq \beta_1 + \beta_2 X_0 \leq \hat{\beta}_1 + \hat{\beta}_2 X_0 + t_{\alpha/2} ee(\hat{Y}_0) \big] = 1 - \alpha

li.C.0 <- beta1 + beta2*X.0 - qt(0.025,df=length(X)-2,lower.tail = FALSE)*eem.C.0
ls.C.0 <- beta1 + beta2*X.0 + qt(0.025,df=length(X)-2,lower.tail = FALSE)*eem.C.0

Varianza de la Predicción Individual

var(Y_0 - \hat{Y}_0) = E[Y_0 - \hat{Y}_0]^2 = \sigma^2 \left[ 1 + \dfrac{1}{n} + \dfrac{(X_0 - \overline{X})^2}{\sum x_i^2} \right]

ee(\hat{Y}_0) = \sigma\sqrt{1+\dfrac{1}{n} + \dfrac{(X_0 - \overline{X})^2}{\sum x_i^2} }

vari.Y.0 <- sigma2.e*(1+1/length(X)+(X.0-m.X)^2/sum((X-m.X)^2))
eei.C.0 <- sqrt(vari.C.0)

Intervalo de Confianza de la Predicción Media

P \big[ \hat{\beta}_1 + \hat{\beta}_2 X_0 - t_{\alpha/2} ee(\hat{Y}_0) \leq \beta_1 + \beta_2 X_0 \leq \hat{\beta}_1 + \hat{\beta}_2 X_0 + t_{\alpha/2} ee(\hat{Y}_0) \big] = 1 - \alpha

li.C.0 <- beta1 + beta2*X - qt(0.025,df=length(X)-2,lower.tail = FALSE)*eei.C.0
ls.C.0 <- beta1 + beta2*X + qt(0.025,df=length(X)-2,lower.tail = FALSE)*eei.C.0

Anuncio publicitario

Un comentario en “R: Formulario del Modelo Clásico de Regresión Lineal

¿Tienes alguna duda? Compártela en los comentarios.

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.