Ejercicios Propuestos

Ejercicios Propuestos – Inecuaciones Polinómicas (Tabla de Signos)

Anuncios

Calcule la solución de la ecuación polinómica planteada (igualando toda la expresión a cero, agrupando todos los elementos en el lado izquierdo de la igualdad) y posteriormente factorice la expresión polinómica resultante para usar una Tabla de Análisis de Signos. Escriba los conjuntos solución y además, represente la solución gráficamente en la recta real.

  1. x^{2} - 9 x + 25 < x + 1
  2. x^{2} + 9 x + 3 \leq x - 4
  3. x^{2} - 3 x - 41 > x - 9
  4. x^{2} + 2 x - 4 \geq x + 2

  1. - 7 x^{2} - 23 x - 30 < - 3 x^{2} + 21 x + 90
  2. 6 x^{2} + 105 x + 450 \leq 9 x^{2} + 135 x + 450
  3. x^{2} - 17 x + 82 > 2 x^{2} - 18 x + 40
  4. - 4 x^{2} - 52 x - 288 \geq 4 x^{2} - 4 x - 224

  1. - 9 x^{3} + 3 x^{2} + 360 x + 636 < - 8 x^{3} + 8 x^{2} + 368 x + 640
  2. 3 x^{3} - 180 x^{2} - 529 x - 1534 \leq 8 x^{3} - 80 x^{2} + 136 x - 64
  3. 2 x^{3} - x^{2} - 142 x - 75 > 3 x^{3} + 12 x^{2} - 111 x - 120
  4. x^{3} - 117 x^{2} + 422 x + 3600 \geq 9 x^{3} - 117 x^{2} - 90 x + 3600

  1. 9 x^{4} - 12 x^{3} - 81 x^{2} + 2628 x - 3360 < 3 x^{4} + 42 x^{3} + 183 x^{2} + 252 x
  2. 12 x^{4} + 62 x^{3} - 194 x^{2} - 570 x + 2250 \leq 7 x^{4} + 77 x^{3} + 21 x^{2} - 945 x
  3. 3 x^{4} - 20 x^{3} - 122 x^{2} + 90 x + 5040 > 10 x^{4} - 90 x^{3} - 570 x^{2} + 4570 x + 5040
  4. 7 x^{4} - 6 x^{3} - 556 x^{2} + 1392 x + 1920 \geq x^{4} - 16 x^{2}

Anuncios

R: Práctica de Análisis de Regresión con Dos Variables

Análisis de Regresión con Dos Variables

A continuación encontrarán el script que se ha desarrollado durante las clases de Econometría 1 para el tema de Análisis de Regresión con Dos Variables. Puede copiar y pegar este script en un editor de R para correr las instrucciones junto a las notas de clases.

#----Econometría 1 - Prof. Anthonny Arias----#

#--Limpiamos nuestro espacio de trabajo--#

rm(); rm(list=ls())
cat("\014")

# Definimos la variable escolaridad y su media.
# Para esto, usamos la instrucción c() para definir vector.
# Y usamos la instrucción mean() para definir la media.

escolaridad <- c(6,7,8,9,10,11,12,13,14,15,16,17,18)
m.escolaridad <- mean(escolaridad)

# Definimos la variable salario y su media.

salario <- c(4.4567,5.77,5.9787,7.3317,7.3182,6.5844,7.8182,7.8351,11.0223,10.6738,10.8361,13.615,13.531)
m.salario <- mean(salario)

# Hacemos un gráfico de dispersión de estas dos variables.

plot(escolaridad,salario)

# Una vez obtenidos estos valores, podemos calcular los estimadores beta1 y beta2.

beta2 <- sum( (escolaridad-m.escolaridad)*(salario-m.salario) )/sum( (escolaridad-m.escolaridad)^2 )
beta2

beta1 <- m.salario - beta2*m.escolaridad
beta1

# Calculamos los valores estimados del salario.

salario.e <- beta1 + beta2*escolaridad
salario.e

# Calculamos los residuos.

residuos <- salario - salario.e
residuos

# Calculamos la var.e.

var.e <- sum( (residuos)^2 )/(length(salario)-2)

var.e
# Caculamos el error estándar, aplicando la raíz cuadrada a la var.e.

error.s <- sqrt(var.e)
error.s

# Calculamos la var.e de beta2

v.beta2 <- var.e/sum( (escolaridad-m.escolaridad)^2 )
v.beta2

# Calculamos el error estándar de beta2

es.beta2 <- sqrt(v.beta2)
es.beta2

# Para calcular el intervalo de confianza de beta2, consideramos t=1.7959

li.beta2 <- beta2 - qt(0.975,df=length(escolaridad)-2)*es.beta2
li.beta2

ls.beta2 <- beta2 + qt(0.975,df=length(escolaridad)-2)*es.beta2
ls.beta2

# Calculamos la var.e de beta1.

v.beta1 <- var.e*sum( escolaridad^2 )/(length(escolaridad) * sum( (escolaridad-m.escolaridad)^2 ))
v.beta1

# Calculamos el error estándar de beta1

es.beta1 <- sqrt(v.beta1)
es.beta1

# Para calcular el intervalo de confianza de beta1, consideramos t=1.7959

li.beta1 <- beta1 - qt(0.975,df=length(escolaridad)-2)*es.beta1
li.beta1

ls.beta1 <- beta1 + qt(0.975,df=length(escolaridad)-2)*es.beta1
ls.beta1

# Para hacer la prueba de hipótesis bilateral, determinamos el t-calculado.
t.c <- (beta2-0.70)/es.beta2
t.c # Como t.c está fuera del intervalo (-2.201,2.201) entonces rechazamos la hipótesis nula.
qt(0.025,df=length(escolaridad)-2)
qt(0.975,df=length(escolaridad)-2)


# Para hacer la prueba de hipótesis unilateral, determinamos el t-calculado.
t.c <- (beta2-0.50)/es.beta2
t.c # Como t.c está fuera del intervalo (-2.201,2.201) entonces rechazamos la hipótesis nula.
qt(0.95,df=length(escolaridad)-2)

# Calculamos ahora, el intervalo de confianza para chi-cuadrado
li.var.e <- (length(escolaridad)-2)*var.e/qchisq(0.975,df=11)
li.var.e

ls.var.e <- (length(escolaridad)-2)*var.e/qchisq(0.025,df=11)
ls.var.e

# Como la hipótesis nula indica que la varianza es igual a 0.6, entonces no rechazamos esta hipótesis.

# Podemos también llevar a cabo esta prueba con el estadístico chi-cuadrado. Para esto, calculamos el estadístico chi-cuadrado.

chi.c <- (length(escolaridad)-2)*var.e/0.6
chi.c

li.chi <- qchisq(0.025,df=df=length(escolaridad)-2)
li.chi
ls.chi <- qchisq(0.975,df=df=length(escolaridad)-2)
ls.chi

# Éste está dentro del intervalo [ qchisq(0.025,df=df=length(escolaridad)-2) ; qchisq(0.025,df=df=length(escolaridad)-2) ], por lo tanto, no se rechaza H0.

# Calculamos la suma de los cuadrados explicada.

SCE.escolaridad <- beta2^2*sum( (escolaridad-m.escolaridad)^2 )
SCP.escolaridad <- SCE.escolaridad/1
SCP.escolaridad

# Calculamos la suma de los cuadrados de los residuos.

SCR.residuos <- sum(residuos^2)
SCP.residuos <- SCR.residuos/(length(escolaridad)-2)
SCP.residuos

# Calculamos la suma de los cuadrados totales.

SCT.salarios <- sum( (salario-m.salario)^2 )
SCP.salarios <- SCT.salarios/(length(salario)-1)
SCP.salarios

# Calculamos ahora el valor F (F calculado).

F.c <- SCP.escolaridad/SCP.residuos
F.c

# Calculamos el p-value (valor-p) para este F calculado.

pf(F.c,1,length(escolaridad)-2,lower.tail = F)

# Verificamos que se cumple el teorema

t.c <- (beta2-0)/es.beta2
t.c
t.c^2
F.c

# Predicción de la Media

escolaridad.0 <- 20
salario.0 <- beta1 + beta2*escolaridad.0
salario.0

# Calculamos la varianza de la predicción.

varm.salario.0 <- var.e*(1/length(escolaridad)+(escolaridad.0-m.escolaridad)^2/sum((escolaridad-m.escolaridad)^2))
varm.salario.0

# Calculamos ahora el error estándar.

eem.salario.0<- sqrt(varm.salario.0)
eem.salario.0

# Calculamos el intervalo de confianza para salario.0

li.salario.0 <- beta1 + beta2*escolaridad.0 - qt(0.025,df=length(escolaridad)-2,lower.tail = FALSE)*eem.salario.0
li.salario.0

ls.salario.0 <- beta1 + beta2*escolaridad.0 + qt(0.025,df=length(escolaridad)-2,lower.tail = FALSE)*eem.salario.0
ls.salario.0

# Predicción Individual

# Calculamos la varianza de la predicción.

vari.salario.0 <- var.e*(1+1/length(escolaridad)+(escolaridad.0-m.escolaridad)^2/sum((escolaridad-m.escolaridad)^2))
vari.salario.0

# Calculamos ahora el error estándar.

eei.salario.0<- sqrt(vari.salario.0)
eei.salario.0

# Calculamos el intervalo de confianza para salario.0

li.salario.0 <- beta1 + beta2*escolaridad.0 - qt(0.025,df=length(escolaridad)-2,lower.tail = FALSE)*eei.salario.0
li.salario.0

ls.salario.0 <- beta1 + beta2*escolaridad.0 + qt(0.025,df=length(escolaridad)-2,lower.tail = FALSE)*eei.salario.0
ls.salario.0

#----Análisis de Residuos----#

#--Análisis de Correlación--#

# Gráfico de dispersión para los residuos.

plot(residuos)

# Hacemos la gráfica de la función de autocorrelación.
# Si todaslas barras están por debajo de las líneas azules, esto indica que no hay autocorrelación.
# https://www.reddit.com/r/AskStatistics/comments/5kiix2/interpret_acfpacf_dataplots_in_r/

acf(residuos)

# Hacemos la prueba de Durbin–Watson, que establece como hipótesis nula que el coeficiente de correlación es igual a cero.
# El estadístico de Durbin–Watson igual a dos indica que no hay autocorrelación.
# https://en.wikipedia.org/wiki/Durbin%E2%80%93Watson_statistic

library("lmtest")
dwtest(salario ~ escolaridad)

#--Pruebas de Normalidad--#

# Generamos el histograma de los residuos.

hist(residuos)

plot(density(residuos))

# Gráfica de probabilidad normal

qqnorm(residuos, pch = 1, frame = TRUE)
qqline(residuos, col = "steelblue", lwd = 2)

# También se puede llevar a cabo usando el siguiente comando
library("car")
qqPlot(residuos,col.lines="steelblue")

# Prueba de Anderson-Darling.

library(nortest)
ad.test(residuos)

# Prueba de normalidad de Jarque-Bera (JB)
# https://lancebachmeier.com/computing/j-b-test.html
# Esta plantea como hipótesis nula el coeficiente de asimetría igual cero y la curtosis igual a tres.

library(tseries)
jarque.bera.test(residuos)

# Prueba de normalidad de Shapiro-Wilk
# https://stat.ethz.ch/R-manual/R-devel/library/stats/html/shapiro.test.html
# Esta prueba plantea como hipótesis nula que los datos están normalmente distribuídos.

shapiro.test(residuos)
Ejercicios Propuestos

Ejercicios Propuestos – Inecuaciones Cuadráticas

Anuncios

Proceda paso a paso, explicando detalladamente cada paso con sus propias palabras. Calcule los valores de x que satisfacen las siguientes ecuaciones, escriba los conjuntos solución y además, represente la solución gráficamente en la recta real.

  1. \left(x - 6\right) \left(x - 3\right) \geq 0
  2. \left(x - 3\right) \left(x - 2\right) > 0
  3. \left(x + 1\right) \left(x + 5\right) < 0
  4. \left(x + 1\right) \left(x + 6\right) \leq 0

  1. - 8 \left(x - 5\right) \left(x - 1\right) < 0
  2. 9 \left(x + 5\right) \left(x + 6\right) \geq 0
  3. 3 \left(x - 7\right) \left(x + 2\right) \leq 0
  4. -7 \left(x - 7\right) \left(x + 1\right) > 0

  1. x^{2} - x - 30 < 0
  2. x^{2} + 9 x + 18 > 0
  3. x^{2} - 81 \geq 0
  4. x^{2} + 5 x - 24 \leq 0

  1. 7 x^{2} - 7 x + 42 < 0
  2. - 8 x^{2} - 56 x + 240 > 0
  3. - 4 x^{2} + 28 x - 48 \leq 0
  4. 7 x^{2} + 21 x - 280 \geq 0

Anuncios
Ejercicios Propuestos

Ejercicios Propuestos – Inecuaciones Lineales

Anuncios

Proceda paso a paso, explicando detalladamente cada paso con sus propias palabras. Calcule los valores de x que satisfacen las siguientes ecuaciones, escriba los conjuntos solución y además, represente la solución gráficamente en la recta real.

  1. x + 6 < 5
  2. x + 1 > 7
  3. x + 3 \leq 8
  4. x + 2 \geq 4

  1. 11 - x \geq 54
  2. 25 - x > 12
  3. 41 - x < 96
  4. 32 - x \leq 71

  1. 2x + 6 < 15
  2. 8x + 1 > 27
  3. 6x + 3 \geq 88
  4. 10x + 2 \leq 74
  1. 32 - 5x < -71
  2. 41 - 6x > -96
  3. 25 - 7x \leq -12
  4. 11 - 8x \geq -54
  1. 8x - 2 < 5x + 4
  2. 2x - 3 \geq 8 - 2x
  3. 3x - 7 > -x + 1
  4. 9x - 6 \leq 5 + 3x
  1. 25 < x + 102 < 300
  2. 45 \leq x + 65 < 78
  3. 12 < x + 20 \leq 39
  4. 78 \leq x + 45 \leq 255

  1. 78 > x + 45 > -255
  2. 12 \geq x + 20 > -39
  3. 45 > x + 65 \geq -78
  4. 25 \geq x + 102 \geq -300

  1. 45 < 2x + 10 < 50
  2. 10 < 6x + 2 \leq 21
  3. 25 \leq 3x + 5 < 30
  4. 8 \leq 9x + 45 \leq 67

  1. -78 > -2x + 45 > -255
  2. -12 > -5x + 20 \geq -39
  3. -45 \geq -7x + 65 > -78
  4. -25 \geq -3x + 102 \geq -300

  1. 45 \leq 4 - 3x \leq 50
  2. 10 > 5 + 5x \geq 21
  3. 25 < 7 + 2x < 30
  4. 8 < 10 - 6x \leq 67

Anuncios
Ejercicios Propuestos

Ejercicios Propuestos – Optimización (en varias variables)

Anuncios

Calcule los puntos críticos de las siguientes funciones y determine si estos representan máximos, mínimos o puntos de silla. Utilice el Criterio de la Segunda Derivada, recordando que debe usar la función auxiliar

D(x,y) = f_{xx}(x,y) \cdot f_{yy}(x,y) - [f_{xy}(x,y)]^2

  1. f(x,y) = 0.04x^2 + 63x + 73y + 950
  2. f(x,y) = 2x^2 - 15x + 10y + 4.5xy
  3. f(x,y) = 0.8x^2 + 5x - 7y + 10xy+898
  4. f(x,y) = 20x - 2y^2 + 30y - 32xy-575

  1. f(x,y) = 0.3x^2 + 3.5y^2 + 455
  2. f(x,y) = 1.8x^2 - 0.8y^2 + 2.34xy
  3. f(x,y) = -5x^2 + 9y^2 + 18.1xy+21
  4. f(x,y) = -2x^2 - 2.7y^2 - 3.7xy-525

  1. f(x,y) = 0.2x^2 + 22x + 35y^2 + 763
  2. f(x,y) = 16x^2 - 10x + 5y^2 + 6xy
  3. f(x,y) = 5x^2 + 9y^2 + 10y + 0.11xy+724
  4. f(x,y) = 2x^2 + 20x + 30y^2 - 3.22xy-815

  1. f(x,y) = 0.1x^2 + 5x + 0.2y^2 + 3y + 57
  2. f(x,y) = -0.5x^2 + 22x + 0.65y^2 + 30y + 6.1xy
  3. f(x,y) = x^2 + 10x - 1.5y^2 + 12y + 7xy+619
  4. f(x,y) = -x^2 + 5x - 5y^2 + 2.5y - 0.97xy-313

Soluciones

Ejercicio 8