ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Modelo de Series de tiempo (Econometría)


Enviado por   •  6 de Junio de 2017  •  Trabajos  •  3.670 Palabras (15 Páginas)  •  168 Visitas

Página 1 de 15

Trabajo

Series de Tiempo


Modelo de Series de tiempo

Modelos de Series de Tiempo Estacionarias

Definiciones

En este Capítulo presentaremos ciertas definiciones que nos servirán para el posterior desarrollo de los temas. Sea Z(w, t) un proceso estocástico con w en algún espacio muestral, en este trabajo consideraremos t  Z. Sean t1, . . . , tn  Z y llamemos Ztj = Z(w, tj ) con 1 ≤ j ≤ n variables aleatorias provenientes de un proceso estocástico Z(w, t). Definimos su función de distribución como:

[pic 1]

Un proceso se dice de primer orden estacionario en distribución si:

[pic 2]

En general, se dice que es de orden n estacionario en distribución si:

[pic 3]

A partir de ahora denotaremos Z(w; t) indistintamente como Z(t) o Zt e introduciremos también los siguientes conceptos:

  1. Esperanza: [pic 4][pic 5]
  2. Varianza:
  3. Covarianza: [pic 6]
  4. Función de Correlación: [pic 7]

[pic 8][pic 9]

Para procesos estacionarios tendremos que  y dados tenemos que  dependerán solo de k. Un proceso se definirá como de Segundo Orden Débil o Covarianza Estacionaria si sus momentos de orden 1 y 2 (su esperanza y varianza) no dependen de t. En muchas ocasiones se usa el término estacionario para procesos que son de covarianza estacionaria. En el caso particular de un proceso gaussiano, como  su distribución queda determinada por se tiene que orden fuerte es lo mismo que orden débil. Pero en general un proceso puede ser fuertemente estacionario y no ser débilmente estacionario (como ejemplo podemos pensar en la distribución Cauchy).[pic 10][pic 11]

Funciones de Autocorrelación, Autocovarianza y de Autocorrelación Parcial

Dado un proceso estacionario constantes, se definen:[pic 12]

  • Función de Autocovarianza: [pic 13]
  • Función de Autocorrelación (ACF): [pic 14]

Para todo proceso estacionario se satisfacen las siguientes propiedades:

  1. Para todo [pic 15]
  2. Del hecho que tenemos que para todo k.[pic 16][pic 17]
  3. [pic 18]son simétricas con respecto a para todo k.[pic 19]
  4. [pic 20]son semidefinidas positivas. Es decir, valen las siguientes desigualdades:

[pic 21]           y            [pic 22] 

para todos [pic 23]

Definiremos también la Función de Autocorrelación Parcial (PACF) como la correlación condicional:

[pic 24]

Consideremos ahora la regresión con variable dependiente [pic 25]y covariables [pic 26]

Es decir:

[pic 27]

con [pic 28]los parámetros de la regresión y [pic 29]errores de media 0 y no correlacionados con [pic 30]. Supongamos sin pérdida de generalidad que [pic 31], luego multiplicando a ambos lados de la regresión por [pic 32]y tomando esperanza obtenemos:

[pic 33]

Usando la Regla de Cramer, podemos despejar los coeficientes [pic 34]en particular se obtiene fácilmente que [pic 35], la autocorrelación parcial entre [pic 36]. Por otro lado podemos determinar que la autocorrelación parcial entre [pic 37] se puede obtener como los coeficientes de la regresión asociada a [pic 38] de k pasos.

Un proceso estacionario particular es el denominado Ruido Blanco. Diremos que un proceso [pic 39] es de Ruido Blanco si es una sucesión de variables aleatorias donde [pic 40]

Estimación de [pic 41]

Las definiciones introducidas anteriormente son referidas a momentos poblacionales que no son observables. A continuación, resumiremos algunos posibles estimadores de los parámetros definidos anteriormente, obtenidos a partir de una realización del proceso en n instantes de tiempo.

Resulta natural considerar[pic 42], como un estimador de la media poblacional [pic 43]. Se puede probar fácilmente que el estimador resulta insesgado. Además podemos ver que si [pic 44] y por lo tanto el estimador resulta débilmente consistente.

Para estimar [pic 45] podemos considerar las siguientes alternativas

[pic 46]

Desarrollando [pic 47]podemos aproximar

[pic 48]

En ese caso,  [pic 49]

Donde si se desprecia el término [pic 50] , que representa el efecto de estimar la varianza, [pic 51] resulta un estimador con menor sesgo que [pic 52]. Pero [pic 53] al igual que [pic 54] es semidefinida positiva, sin embargo [pic 55] no necesariamente lo es. Es por ello que en general se considera [pic 56] para estimar [pic 57]

Como estimador de [pic 58] usaremos

[pic 59]

A partir de los datos de una serie temporal se puede estimar un número finito de autocorrelaciones. El grafico de las autocorrelaciones muestrales recibe el nombre de correlograma.

Para estimar la función de autocorrelación parcial [pic 60] usaremos la siguiente recursión definida por Durbin (1960),

[pic 61]

Representaciones Autoregresivas y de Promedio Movil

Acá analizaremos los modelos estacionarios que pueden clasificarse como autoregresivos (AR), de medias o promedios móviles (MA) o procesos mixtos que se denominan ARMA. En el análisis de datos reales, se encuentran muy raramente series generadas a partir de procesos estacionarios ya que generalmente las series presentan algún tipo de tendencia que no se corresponde con procesos de un modelo estacionario. Sin embargo esto no debe llevar a pensar que estos procesos no son interesante de estudiar. Como veremos más adelante, una gran cantidad de procesos no estacionarios pueden ser fácilmente transformados en estacionarios y a partir de esta transformación les son aplicables los métodos de identificación y estimación de los modelos estacionarios.

...

Descargar como (para miembros actualizados)  txt (21.1 Kb)   pdf (7.7 Mb)   docx (5.2 Mb)  
Leer 14 páginas más »
Disponible sólo en Clubensayos.com