ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Ejercios Econometricos Cap 3 Wooldridge


Enviado por   •  21 de Septiembre de 2014  •  1.552 Palabras (7 Páginas)  •  228 Visitas

Página 1 de 7

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

SEGUNDO CONTROL DE ECONOMETRIA I

Mag Rafael Bustamante Romaní

El análisis de regresión múltiple es más adecuado para un análisis ceteris paribus debido a que permite controlar de manera explícita muchos otros factores que afectan en forma simultánea a la variable dependiente.

VEDADERO

Un problema fundamental que se plantea a la hora de construir un modelo multivariante es qué factores X1, X2,…, Xk incluir en la ecuación, de tal manera que estimemos el mejor modelo posible a partir de los datos de nuestro estudio. Para ello lo primero que habría que definir es qué entendemos por "mejor modelo". Si buscamos un modelo predictivo será aquél que nos proporcione predicciones más fiables, más acertadas; mientras que si nuestro objetivo es construir un modelo explicativo, buscaremos que las estimaciones de los coeficientes de la ecuación sean precisas, ya que a partir de ellas vamos a efectuar nuestras deducciones. Cumplidos esos objetivos es claro que otra característica deseable de nuestro modelo es que sea lo más sencillo posible.

También se puede mostrar que R2 es igual al cuadrado del coeficiente de correlación entre las reales y los valores ajustados .

Es verdadero y lo podemos comprobar, dado que:

Un hecho importante acerca de R2 es que nunca disminuye ni aumenta cuando se agrega otra variable independiente a la regresión.

El tamaño muestralno es la unica magnitus que influye en el valor R2. El número de variables explicativas consideradas en el modelo tambien condiciona el valor de este coeficiente, ya que R2 es una funcion no creciente del números de variables exógenas o regresoras presentes en el modelo, de forma que a medida que aumentan el número de variables regresoras R2 aumenta. Su justificacion es inmediata con tan sólo recordar su definición.

Según esto, R2 mide la capacidad explicativa de la variable X sobre la variable Y. Al introducir en el modelo otra variable Y. Al introducir en el modelo otra variable regresora a nivel explicativo será mayórentre las dos que sólo con la primera o, en todo caso, no diminuirá, pues la primera continua como explicativa.

El hecho de que la R2 nunca disminuya cuando se agrega cualquier variable a la regresión hace de R2 un instrumento poco confiable para decidir si agregar una o varias variables al modelo.

El factor que debe determinar si una variable explicativa pertenece a un modelo es si esa variable explicativa tiene un efecto parcial no nulo en y en la población. Además, usando el R2 adecuadamente, podremos contrastar si un grupo de variables es importante para explicar Y.

Una seria desventaja de la regresión a través del origen es que, si en el modelo poblacional el intercepto es diferente de cero, entonces los estimadores de MCO de los parámetros de la pendiente estarán sesgados.

VERDADERO

En raros casos, se impone la restricción de que, cuando x =0, el valor esperado de y sea cero. Hay ciertas relaciones para las que esto es razonable. Por ejemplo, si el ingreso (x) es cero, entonces la recaudación de impuestos al ingreso (y) deberá ser cero. Además hay ocasiones en las que un modelo que originalmente tiene un intercepto distinto de cero se transforma en un modelo sin intercepto.

Formalmente, ahora se elige un estimador de la pendiente, al que se le llamara β1˜, y una línea de la forma.

....(1)

donde las tildes sobre β1˜ y y˜ se emplean para distinguir este problema del mas común en el que se estima un intercepto y una pendiente. A (1) se le llama regresión a través del origen debido a que la recta de la ecuación (1) pasa a través del punto x=0, y˜=0. Para obtener la estimación de la pendiente de la ecuación (1), también se emplea el método de mínimos cuadrados ordinarios, el cual en este caso minimiza la suma de los cuadrados de los residuales:

Empleando cálculo de una sola variable, se puede mostrar que β1˜debe ser solución de la condición de primer orden:

En esta ecuación se puede despejar β1˜

Siempre que no todas las xi sean cero, caso que se descarta aquí.

Observe la diferencia entre β1˜ y la estimación de la pendiente cuando también se estima el intercepto (en lugar de igualarlo a cero). Estas dos estimaciones son iguales si y solo si, x ̄=0.

[Vea la ecuación (1) de β1˜. Obtener una estimación de β1 cuando se usa la regresión a través del origen, no suele usarse en la práctica por buenas razones: si el intercepto β0 ≠ 0, entonces β1˜es un estimador sesgado de β1.

El costo de estimar el intercepto cuando es realmente cero es que las varianzas de los estimadores de pendiente de MCO son mayores.

En la muestra (y por tanto en la población), ninguna de las variables independientes es constante y no hay ninguna relación lineal exacta entre las variables independientes.

VERDADERO

Supuesto RLM.3 (No hay colinealidad perfecta)

El supuesto RLM.3 es más complicado que su contraparte para la regresión simple, porque ahora hay que considerar la relación entre todas las variables independientes. Si una variable independiente es una combinación lineal exacta de las otras variables independientes, entonces se dice que el modelo sufre de colinealidad perfecta y que no puede ser estimado por el método de MCO.

Es importante observar que el supuesto RLM.3 si permite que las variables independientes estén correlacionadas; lo único que no permite es que estén perfectamente correlacionadas. Si no se permitiera ninguna correlación

...

Descargar como (para miembros actualizados)  txt (9.9 Kb)  
Leer 6 páginas más »
Disponible sólo en Clubensayos.com