ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Naturaleza de las variables dictónomas

DanisolangeApuntes2 de Junio de 2022

2.268 Palabras (10 Páginas)105 Visitas

Página 1 de 10

Cap 9

Variables a escala nominal

  • Variables indicadoras
  • Variables categóricas
  • Variables cualitativas
  • Variables dictónoma

Naturaleza de las variables dictónomas

La variable dependiente o regresada, tiene influencia de variables a escala nominal, (sexo, raza, color) las variables cualitativas influyen en la variable dependiente y se debe incluir en las explicativas o regresora.

Estas variables indican una cualidad o atributo = Nominal

Forma de cuantificar estas variables; mediante variables artificiales que toman los valores de 1 y 0. 1= Presencia de aquel atributo.  0=No tiene aquel atributo.

Variable dictónoma; Es un recurso para clarificar datos en categorías mutuamente excluyentes, como masculino y femenino.

 Un modelo con variables exclusivamente dictónomas se llama: “modelo de análisis de varianza” (ANOVA).

Precaución con variables dictónomas: 

Colinealidad Perfecta: Existe una relación lineal exacta entre las variables. Si una variable cualitativa tiene “n” categorías, solo hay que agregar “n-1” variables dictónomas. Si no se respeta esta regla se provocara una “Trampa de la variable dictónoma”. Por lo cual se tendrá una perfecta colinealidad, por lo que será imposible estimar el modelo.

Para cada regresora cualitativa el número de variables dictónomas introducidas deben ser una menos las categorías de esa variable.

-Categoría a la cual no se le asigna variable dictónoma se conoce como “categoría base de comparación”, “control de referencia” u “omitida”.

El valor del intercepto B1, representa el valor medio de la categoría comparación.

Los coeficientes asociados a las variables dicótomas se conocen como coeficientes de intercepto diferencial: Indica la medida en la que el valor de la categoría que recibe el valor de 1 difiere del coeficiente de intercepto de comparación.

Si la variable cualitativa, tiene más de una categoría, la elección es del investigador.

Forma de eludir la trampa de la variable dictónoma: Solo si se introduce el intercepto en dicho modelo.

Métodos para introducir una variable dictónoma:

1. Agregar una variable dictónoma para cada categoría y omitir el termino de intercepto.

2. Incluir el término del intercepto y añadir (n-1) variable, donde “n”, es el número de categorías, de la variable dictónomas.

Modelo ANCOVA = Modelo de análisis de covarianzas: Modelo de regresión que contiene diversas variables explicativas, cuantitativas y otras cualitativas.

Variable dictónomas alternativa a la prueba de Chow, 4 posibilidades de análisis:

  1. Regresión coincidente = El intercepto y coeficientes de los intercepto de las pendientes son iguales en ambas regresiones.
  2. Regresiones paralelas = Solo los intercepto en ambas regresiones son diferentes pero las pendientes son las mismas.
  3. Regresiones concurrentes: Los intercepto en ambas regresiones son iguales, pero las pendientes distintas.
  4. Regresiones disimulas: Ambos intercepto y pendientes en las dos regresiones son distintas.

La prueba de Chow indica solo si dos o más regresiones son distintas, pero no el origen de la diferencia.

Uso de las variables dictónomas en el análisis estacional

 El proceso de eliminar una estacionalidad de una serie de tiempo se conoce como: “desestacionalización o ajuste estacional” y la serie de tiempo así obtenida se denomina “seria de tiempo desestacionalizada”.

Método para desestacionalizar una serie de tiempo: Método de las variables dictónomas.

Cap 10

Naturaleza de la multicolinealidad
La multicolinealidad se refiere a una situación en la cual
existe una relación lineal exacta o aproximadamente exacta entre ellas variables x.

Si la multicolinealidad es perfecta los coeficientes re de regresión de las variables x son indeterminados y sus errores estándar infinitos.

Si la multicolinealidad es menos que perfecta, los coeficientes de regresión, aunque sean determinados, poseen grandes errores estándar (en relación con los coeficientes mixtos) lo cual significa que los coeficientes no pueden ser estimados con una gran precisión o exactitud.

Factores por los que seda la mulcolinealidad:

  1. El método de recolección de información: La obtención de muestras de un intervalo limitado de valores tomados por las regresoras.
  2. Restricciones en el modelo o en la población objeto de muestreo: Una regresión del consumo de electricidad sobre el ingreso (x2) del tamaño de vivienda (x3) hay una restricción física en la población. Familias con mayor ingreso viven en casas más grandes que las de menores ingresos.
  3. Especificación del modelo: La adición de términos polinomiales a un modelo de regresión, en especial cuando el rango de la variable x es pequeño.
  4. Un modelo sobre determinado: Cuando el modelo tiene más variables explicativas que el número de observaciones.
  5. Series de tiempo: Las regresiones del modelo comparten una tendencia en común, es decir, que todas aumenten o disminuyen a lo largo del tiempo.

Estimación en presencia de multicolinealidad perfecta: En el caso de multicolinealidad perfecta no puede obtenerse una solución única para los coeficientes de regresión individual. Pero observe que se puede obtener una solución única para combinaciones lineales de estos coeficientes. La combinación lineal (B2+λ*B3). Se estima de forma única con α dado el valor de λ.

Así mismo observe que en el caso de multicolinealidad perfecta, las varianzas y los errores estándar de B2 y B3 son infinitos individualmente.

Consecuencias teóricas de la multicolinealidad:

 Micro numerosidad exacta: Surge cuando “n” del tamaño de la muestra es 0, en cuyo caso es imposible cualquier clase de estimación.

Casi micro numerosidad: igual que la multicolinealidad surge cuando el número de observaciones excede el número de parámetros que se va a estimar.

Consecuencias:

1. En el caso de casi multicolinealidad como; los estimadores de MCO son insesgados, esto significa que no dice nada sobre las propiedades de los estimadores de una muestra diaria.

 2. La colinealidad no destruye la propiedad de varianza mínima, es decir; son coeficientes.

 3. Multicolinealidad es un fenómeno muestral en el sentido de que, aunque las variables “x” no estén, linealmente relacionadas en la población, pueden estarlo en la muestra articular disponible.

Consecuencias prácticas de la multicolinealidad:

1. Aunque estimadores de MCO sean MELI tienen varianza y covarianzas grandes que dificultan la estimación precisa.

2. Debido a 1, los intervalos de confianza son masa amplios por lo que se acepta más fácil la hipótesis nula cero.

3. Debido a 1 la razón T de 1 o más coeficientes tiende a no ser significativa.

  1. .Aunque la razón t no sea significativa, la bondad del ajuste puede ser muy alto.

 5.Estimadores de MCO y sus errores son sensibles a los cambios en los datos.

Varianza y covarianzas grandes aumentan la colinealidad y aumentan las varianzas de estimadores que en el limite son infinitas.

Factor inflacionario de varianzas (FIV) es la velocidad con que aumentan varianzas y covarianzas y su inverso es la tolerancia (TOL).

Intervalos de confianza más grandes: Debido a errores estándar más grandes son compatibles con un diverso conjunto de hipótesis, y hay mayor probabilidad de aceptar hipótesis nula.

Razones T no significativas: Los errores estándar aumentan drásticamente, disminuyen los valores T por lo que se acepta con mayor facilidad la hipótesis nula.

Bondad del ajuste alta pocas razones T : Coeficientes parciales dependientes son no significativos.

Detección de la multicolinealidad (advertencia de KMETA)

  • Multicolinealidad es cuestión de grado y no de clase, es importante diferenciar los grados y no su presencia o ausencia.
  • Multicolinealidad es una característica de la muestra y no de la población.
  • No hay un método claro para detectarlo, solo reglas practicas informales y formales:
  1. Una bondad del ajuste elevada pero pocas razones T significativas: Si la bondad del ajuste es alta la prueba F rechaza H1=0.
  2. Alta correlación entre parejas de regresoras: Si el coeficiente de correlación es alto, como la multicolinealidad es un problema grave.
  3. Examen de correlaciones parciales: en vez de observar correlaciones de orden 0.
  4. Regresiones auxiliares: a la regresión principal de y sobre los x.
  5. Valores propios e índice de la condición (calculados con stata): Se deriva números de condición K, donde si la 100 <k<1000 existe colinealidad moderada a fuerte y si k es < a 1000 existe colinealidad grave.
  6. Tolerancia y factor de inflación de la varianza: si FIV es > 10 la variable es muy colineal.
  7. Diagrama de dispersión: como se relacionan las diversas variables de un modelo de regresión.

Medidas correctivas: que hacer si la multicolinealidad es grave – No hacer nada: multicolinealidad es problema de deficiencia de datos y en ocasiones no hay opción respecto  de los datos disponibles para el análisis empírico.

...

Descargar como (para miembros actualizados) txt (15 Kb) pdf (112 Kb) docx (15 Kb)
Leer 9 páginas más »
Disponible sólo en Clubensayos.com