CAMBIO ESTRUCTURAL
andreadnndApuntes11 de Marzo de 2021
4.129 Palabras (17 Páginas)144 Visitas
TEMA 1. CAMBIO ESTRUCTURAL
Cambio estructural en los parámetros: éstos cambian o varían muy significativamente. Si hay un shock puntual se suele corregir sólo con el tiempo.
En EVIEWS: Pinchar en la EQ> resids> si hay errores en el modelo se ve en la parte de residuos: la Y real y la estimada se separan y coincide con que la línea del residuo sale de la zona de tolerancia.
Causas:
- Inevitable cierto grado de cambio. El mundo es dinámico, todo cambia
- Alteración exógena. Ej. Impuestos nuevos, etc.
- Error en la especificación. En Eviews🡪 mirar la columna t-Statistic (>2) y la prob. (>0.05). View> Coefficient Diagnostics>Omitted/Redundant variables test> se pone el nombre de la variable que pensamos que es irrelevante> en el test de variables irrelevantes nos muestra que si quitamos esa variable, el modelo no cambia. H0= variable no significativa
En el caso de comprobar variables omitidas: hacer la ecuación sin esa variable>Eq>Estimate y ver si el modelo empeora.
- Omisión de variables relevantes. Si quito una variable relevante: R2 baja y los residuos suben.
- Inclusión de variables irrelevantes
- Forma funcional incorrecta: debemos mirar qué función es la que mejor se adapta a la evolución de la Y y la relación de ésta con las X. @PCH*100🡪 en tasas: suele haber más error y variables no significativas
- Modelos transversales: compara elementos muy diferentes entre sí. Ej. Países
Consecuencias:
- Las propiedades de los parámetros se pierden (mirar T-student🡪 coeficiente/std error)
- Contrastes de las T más exigentes: La varianza de la B0 es pequeña, mejor 🡪 T alta; Std. error (indica la volatilidad)
- Mala predicción
¿Cómo se detecta?
- Test de Chow 🡪 [pic 1]
En Eviews: abrir EQ> View> Stability Diagnostics> Chow> meter period> sale el estadístico experimental, comparar con F tablas y ver si acepto H0 (permanencia estructural) o no. Queremos Fexp pequeñas, por debajo del valor de tablas.
- Críticas:
- Con la fórmula no se sabe dónde está el punto de ruptura
- Solo funciona cuando el punto de ruptura está centrado, si no🡪 Chow Forecast (cuando una muestra es muy pequeña y no se puede usar)
- ESTIMACIONES RECURSIVAS🡪 EQ>VIEW>Stability Diagnostics>Recursive estimates (los 3 primeros se hacen)
- Recursive Residuals: ruidos de los residuos: Gráfica normal de los residuos. Cuando la línea azul sale del margen rojo y permanece un tiempo fuera: cambio estructural alerta
- CUSUM: dentro del margen: H0 (permanencia)
- CUSUM SQ: más representativo.
¿Cómo se corrige?
- Reduciendo la muestra (siempre que sea suficiente): Ajustar la muestra (sample): poner las fechas
- Introduciendo ficticias: 0 (no hay efecto) 1 (si hay efecto: problema)🡪 meter una dummie: si sirve, el gráfico se corrige y la T-student funciona: En Eviews: object>new object> serie> f1_graf1 (x ej)>Edit y das valores 0 a todos menos a las fechas donde había problemas, que pongo 1. Abro de nuevo EQ> Estimate> y escribir la ficticia junto con el resto de nombres. Mirar: R2 ajustado, la T-std y el gráfico para ver si el ruido desaparece o no
- Trampa de las ficticias: supone que sobreparametrizo el modelo para conseguir que la línea de residuos quede en la zona de tolerancia, distorsiona los coeficientes del resto de parámetros y disminuyo los grados de libertad.
TEMA 2. MULTICOLINEALIDAD
Multicolinealidad: Excesiva relación de los datos de las variables de un modelo.
- Exacta: mismos datos de las variables, van hacia la misma dirección
- Aproximada: datos parecidos, más frecuente.
Un modelo está bien especificado cuando hay escasa correlación entre las X pero alta correlación entre éstas y la endógena
- Eviews: hacer un grupo con la endógena y las X. View>Graph>selecciono multiple graph (cada variable tiene su propia escala), esto sirve para ver si la evolución de cada X se parece a la de la Y. Nos interesa la matriz de correlación: View>Covariance Analysis> pulso opción de Correlation>por encima del 0,7: alerta.
- Hacer regresiones parciales: comparar la R2 de la ecuación inicial con las R2 de cada modelo parcial (hacer diferentes ecuaciones poniendo en cada una de ellas una X diferente que explique las demás X). Se excluye la Y.
TEMA 3. HOMOCEDASTICIDAD Y HETEROCEDASTICIDAD
Homocedasticidad: varianza de la perturbación aleatoria pequeña y constante. La varianza de los errores no se altera a lo largo del modelo, de todas las observaciones. En una gráfica, los puntos están juntos y pequeños. Se suele mirar en el gráfico resids (Eviews)
Heterocedasticidad: varianza de la perturbación aleatoria no constante. Modelos variables. La distribución del modelo y de sus errores en cada momento del tiempo va cambiando, no es constante.
- EVIEWS: Con la ecuación del modelo> Estimate> Seleccionar Method LS> Seleccionar Resid> View> Graph
Lo bueno de los modelos es que sean homocedásticos (Ho) 🡪 supone que la varianza de los errores sea pequeña (queremos minimizar el error) y que varíen poco (nº constantes en el tiempo).
Cuando incorporamos variables X, heterocedasticas en su distribución, los errores serán tb heterocedásticos (Histograma de frecuencias).
Causas frecuentes:
- Variables explicativas cuyo recorrido tenga una gran dispersión respecto a su propia media. Ocurre más en modelos transversales. Gran volatilidad de los datos respecto a su media (no es representativa). Si tengo variables X volátiles🡪 precursoras de errores en el modelo. Queremos variables predecibles, poco volátiles: conducen a situaciones bondadosas. Ej. En un modelo bursátil (la bolsa): muchas oscilaciones, variaciones. Ningún promedio es representativo. Nube de puntos aleatoria.
- Omisión de variables relevantes en el modelo especificado. También es un problema de especificación.
- Cambio de estructura: Hay dos comportamientos de la muestra, por un shock (crisis, cambio de un modelo, etc.). Hace que cambien los errores🡪 serán variables y más grandes, cambian a partir de la ocurrencia del suceso.
- Empleo de variables no relativizadas. (La variable usada la pones en contexto con la endógena). Ej. PC con hogares. Habitantes por km2🡪 puede darse poblaciones con mucha densidad o poca densidad.
EFECTOS de la heterocedasticidad: Salen fórmulas difíciles de seguir.
3 situaciones si tengo heterocedasticidad y no la corrijo:
- Incorrecta estimación de los parámetros beta (k):
- Calcular parám. beta en homocedasticidad: Método MCO y propiedades ELIO + Consistencia
[pic 2]
- Cálculo incorrecto de las varianzas y parámetros ineficientes. Varianzas aumentan (son más ineficientes)
- Calcular Coef. Beta en heterocedasticidad, pero corregido para reconvertirlo en homocedasticidad.
- Invalidación de los contrastes de significatividad. El ratio de la T-student 🡪 amplio el denominador y el ratio baja. Aunque la variable pueda ser buena, puede tener un mal ratio. Debe ser >2🡪 La heterocedasticidad hace que el ratio baje, más complejo.
- No es viable calcular los Coef. Beta con fiabilidad en heterocedasticidad: Método MCG (mínimos cuadrados generalizados) 🡪 intenta llenar un vacío. Aparece la matriz SIGMA (de los errores)🡪 si tengo errores no constantes, necesito representar una varianza constante.
[pic 3]
El sigma -1: Representa las varianzas cambiantes de los residuos.
Si el modelo tiene heterocedasticidad, no puedo aplicar MCO sin corregir o no aplicar MCG.
¿Cómo se contrasta la heterocedasticidad?
Contrastes gráficos/ no paramétricos:
- Gráficos del error🡪 La línea horizontal no debe hacer forma de embudo (creciente o decreciente)
- Histograma (JB=0; prob >0,05). Los histogramas solo muestran la homocedasticidad de una variable. En Eviews, seleccionar una variable (doble click)> Descriptive Statistics & Test> Histogram and Stats
Los datos que aparecen al lado:
- Std. Dev.= desv. Típica, indica la volatilidad. Si tanto la varianza como la desv. Típica son altas, hay un rango amplio, no es bueno, es más difícil de estimar. (ej. La bolsa).
- Simetria: se debe cumplir que sea 0. En el eje principal (0) hay el mismo nº de datos hacia la derecha e izquierda. Ej. -0,45. Hay cierta asimetría en los datos
- Curtosis: apuntamiento 🡪 Ej. 1,61. Debería ser 3, baja curtosis.
Una función de densidad me indica cuántas veces se repite el dato en la muestra. Lo ideal sería una distribución de campana de Gauss.
Contraste Jarque Bera (JB)= 0 🡪 Distribución ideal, normal de mis datos. Cuánto más grande, menos normal (Ej. 10,32). No hay límite. La probabilidad, al menos, tiene que superar 0,05 para decir que tenemos una distribución parecida a una normal.
...