ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Pasos en SPSS Capitulo 7 y 8


Enviado por   •  16 de Junio de 2019  •  Tutoriales  •  2.627 Palabras (11 Páginas)  •  155 Visitas

Página 1 de 11

CAPITULO 7

Descomposición de matrices de covarianzas

  1.  Hacer click en “Analizar”, seleccionar “Estadísticos descriptivos” y “Descriptivos”.
  2.  Seleccionamos las variables
  3. Clic en opciones para seleccionar la media y hacer clic en continuar
  4. Clic en aceptar
  5. Seleccionar Analizar, hacer clic en correlaciones y bivariados
  6. Seleccionar todas las variables
  7. Hacer clic en opciones y activar “productos cruzados y covarianzas para que junto con la matriz de correlaciones, muestre las covarianzas

ESTADISTICO DE LAMBDA

ANALISIS EX POST

  1. Ingresar la base de datos en SPSS
  2. Analizar – modelo lineal- clic en multivariante
  3. Clasificar las variables
  4. CONTRASTE, elegir la opción Desviación y clic en CAMBIAR y continuar   
  5. POST HOC, trasladar el factor a pruebas post hoc para y Habilitar TUKEY y TUKET-B, clic en continuar
  6. OPCIONES, habilitar estadísticos descriptivos, MATRICES SSCP, MATRICES SSCP de Residuos, Prueba de Homogeneidad y Falta de Ajuste y dar clic en continuar.
  7. Aceptar

ANÁLISIS DE LA VARIANZA Y PRUEBAS POST HOC

  1. RECOGEMOS DATOS; INTERPRETAMOS VARIABLES; INSERTAMOS VARIABLES; CLIC EN ANALIZAR
  2. Clic en comparar medias
  3. Clic en ANOVA de un factor
  4. INSERTAR VARIABLES DEPENDIENTES, FACTOR.
  5. CLIC APARTADO OPCIONES; EN ESTADISTICOS HABILITAMOS DESCRIPTIVOS Y HABILITAMOS GRÁFICO DE LAS MEDIAS;CONTINUAR Y ACEPTAR
  6. RESULTADOS; HOJA DE RESULTADOS; DESCRIPTIVOS

Ho: Los resultados de la campaña de MERCANOVA han sido idénticos en los tres tipos de supermercados para las ventas del producto de Coca Cola.

H1: Los resultados de la campaña no son iguales en los tres tipos de supermercados

  1. Clic en analizar
  2. Clic en comprar medias
  3. Clic en anova de un factor
  4. INSERTAMOS VARIABLES DEPENDIENTES Y FACTOR
  5. CLIC POST HOC; HABILITAMOS TURKEY Y TURKEY-B; CONTINUAR
  6. HOJA DE RESULTADOS; PRUEBAS POST HOC; COMPARACIONES MULTIPLES
  7. HOJA DE RESULTADOS; SUBCONJUNTOS HOMOGENEOS
  8. GRAFICOS: Mostrar etiquetas de gráficos

ANALISIS MULTIVARIANTE DE DOS FACTORES

  1. CARGAR LA BASE DE DATOS
  2. DEFINIR LAS VARIABLES DEPENDIENTES E INDEPENDIENTES
  3.  CLIC EN LA PESTAÑA “ANALIZAR”
  4.  CLIC EN “MODELO LINEAL GENERAL”
  5. CLIC EN MULTIVARIANTE
  6. DEFINIR LAS VARIABLES DEPENDIENTES EN EL RECUADRO
  7. DEFINIR LAS VARIABLES INDEPENDIENTES PARA EL RECUADRO DE FACTORES FIJOS
  8. CLIC EN “OPCIONES”
  9. ACTIVAR ESTADÍSTICOS DESCRIPTIVOS Y PRUEBAS DE HOMOGENEIDAD
  10. ACEPTAR

ESTADISTICO DE LAMBADA DE WILKS (DOS FACTORES)

CAPITULO 8

Estadístico AIC

  • En el estadístico AIC esta penalizado la introducción de nuevas variables explicativas. En la F4 las variables explicativas (k) está en el numerador, por tanto si aumenta su AIC, posteriormente empeora el ajuste de bondad
  • El estadístico AIC puede aplicarse a modelos sin términos independientes, no provoca ningún problema en la interpretación
  • El estadístico AIC no es de carácter relativo a diferencia del coeficiente de determinación, por ello no se puede decir si el resultado es alto o bajo. Este se usa al compararlos con modelos alternativos
  • El estadístico AIC se puede aplicar para comparar modelos en los que la variable endógena sea distinta (Y ln(Y)). 

AIC con los datos de SPSS

  • Para calcular AIC se necesita k (2 variables explicativas), la constante y VALCON ; T (20 numero de casos) y  que es la suma de los cuadrados de los residuos. [pic 1]

Interpretación: Por cada millón de pesetas que aumente el valor contable del banco, el valor de sus acciones en Bolsa aumentará 1,219 millones de pesetas en el momento de referencia de los datos

Interpretación de los coeficientes de regresión en el modelo de regresión simple

Donde las variables Y y X no han sido objeto de ninguna transformación (logarítmica por ejemplo)

El coeficiente  mide el incremento que se producirá en la variable Y al incrementarse en una unidad la variable X [pic 2]

El coeficiente  es el valor que predice el modelo  cuando X toma el valor 0. En muchas ocasiones este término no tiene un significado económico claro. [pic 3][pic 4]

Pasos para hallar R cuadrado y R cuadrado corregido

  • Analizar – Regresión – Lineales
  • Seleccionamos variables dependientes e independientes  
  • Clic en ESTADÍSTICOS y habilitamos “Ajuste del modelo”
  • Clic en CONTINUAR y ACEPTAR
  • Resultados

Los valores de los coeficientes de determinación son relativamente elevados para modelos estimados con datos de corte transversal como en el presente caso de los Bancos de España

Los coeficientes de determinación se derivan directamente de la salida de SPSS, pero no es así con el estadístico AIC.

  • Interpretación: Por cada millón de pesetas que aumente el valor contable del banco, el valor de sus acciones en Bolsa aumentará 1,219 millones de pesetas en el momento de referencia de los datos

MULTICOLINEALIDAD

Base de Datos “explicar absentismo laboral en la empresa Buenosaires”

  1. “ANALIZAR” luego en “REGRESION” y seleccionamos “LINEALES”
  2. Se despliega un cuadro, en el cual seleccionamos las variables independiente siendo en este caso “edad, antigüedad y salario” y seleccionamos la variable dependiente “Absen”
  1. Hacemos clic en “ESTADISTICOS” y se nos despliega una cuadro en el cual vamos activar el recuadro “DIAGNOSTICOS DE COLINEALIDAD”  y damos clic en continuar y luego en aceptar
  2. Luego podemos observar los resultados en la hoja de resultados en el cual debemos analizar los siguientes cuadros

Analizamos los coeficientes estandarizados Beta en el cual se analiza en valor absoluto y podemos decir que el salario tiene mayor influencia sobre la variable endógena

- En las estadísticas de colinealidad podemos mencionar que no existe un problema de multicolinealidad ya que la TOLERANCIA no es <0,10 .

ELIMINACION DE VARIABLES

UTILIZACIÓN DE RATIOS

Ingresamos nuestra base de datos

Primero ponderamos los casos

  1. Pestaña “Datos”, clic en “Ponderar Casos”
  2. Seleccionamos la opción “Ponderar casos mediante” y seleccionamos la variable
  3. Nos dirigimos a la pestaña “Analizar”, “Estadísticos Descriptivos”, y damos clic en “Tablas Cruzadas”.
  4. Se abrirá un recuadro en el cual moveremos las variables en filas y columnas:
  5. Damos clic en el botón “Casillas” y activamos “Fila” y damos clic en Continuar
  6. Damos clic en el botón “Estadísticos”, activamos “Riesgo” y damos clic en Continuar. ACEPTAR

En la hoja de Resultados nos aparecerá lo siguiente:

Observamos que el 15,8% de los fumadores posee cáncer y el 84,2% de los fumadores no lo posee

El 1% de los NO fumadores desarrolla cáncer y el 99% de los No fumadores no tiene cáncer.

En la estimación de riesgo concluimos que, en la primera fila por ejemplo vemos que las probabilidades de desarrollar cáncer son de 18,56 veces más en fumadores que en NO fumadores.

CONTRASTES DE SIGNIFICACIÓN EN EL MODELO DE REGRESIÓN.

  1. Se ingresan las variables al SPSS, se añade valores a la codificación de la “variable parte del árbol”.
  2. Se ingresan los datos de cada una de vas variables.
  3. En el menú, vamos a “Analizar”, luego a “Regresión lineal”, introducimos la variable “Asimetría” como variable dependiente y las variables independientes.
  4. en la opción “opciones” activamos el apartado de (usar la probabilidad F) y activamos la opción de (incluir la constante en la ecuación).
  5. Clic en continuar y aceptar
  6. Resultados

Los P valores asociados a cada contraste de nulidad (sig). Nos indican que la única variable significativa (al 5%) es la parte del árbol, con un p valor =0,046. Para el resto de coeficientes, no se puede rechazar la hipótesis de nulidad a este nivel de significación. Por lo tanto parece que éstas variables no explican a la variable dependiente (asimetría)

Contraste de un parámetro individual

  1. Ingresamos los datos al SPSS
  2. Seleccionamos analizar, regresión y  por último lineales
  3. Pasamos la variable dependiente al recuadro “Dependientes”, y las variables independientes al recuadro “Independientes”, dejamos el método por defecto “Intro” y aceptamos.
  4. En los resultados obtendremos la prueba global que corresponde a la tabla ANOVA y la tabla coeficientes que corresponde a la prueba individual
  5. Si la hipótesis nula es verdadera, eso implica que todos los coeficientes de regresión son cero y, por lógica, no son útiles para estimar la variable dependiente (costo de calefacción). De ser así, habría que buscar algunas otras variables independientes, o tomar una aproximación distinta, para predecir el costo de calefacción de la casa.

8.11Contrastes de las Hipótesis del Modelo

Normalidad y Homoscedasticidad  

Normalidad

Estadístico de Bera y Jarque

Ingresamos los datos al SPSS (n = 60)

  1. Analizar – Regresión- Lineal
  2. Seleccionamos una variable (numérica) dependiente e independiente, en este caso «peso» y «estatura»
  3. Clic en ‘’Guardar’’, en la ventana Residuos seleccionamos el casillero ‘’No estandarizados’’ y Clic en continuar. Finalmente, clic en Aceptar
  4. Nos muestra los resultados de la hoja del modelo
  5. Clic en Analizar
    -Estadísticos Descriptivos
    -Descriptivos
  6. Trasladar en ‘’Variables’’ valores no estandarizados RES_1
  7. Clic ‘’Opciones’’ y activamos los casilleros Asimetría y Curtosis, clic en Continuar y finalmente Aceptar
  8. Analizamos los resultados obtenidos

Ho: Acepta la normalidad en términos de error.

Ha: Se rechaza la normalidad en términos de error.

El estadístico de Bera y Jarque nos arroja un resultado de 3,10; comparado con la distribución chi-cuadrado (2gl) nos arroja un resultado que se mantiene constante de 5,992. Por lo tanto, se mantiene dentro de la zona de aceptación y se acepta la Ho.

Heteroscedasticidad

Goldfield y Quandt

  1. Ingresamos los datos al SPSS
  2. Grafico
  3. Generador de grafico
  4. Seleccionar dispersión/puntos
  5. Seleccionamos la variable ingreso en el eje “x”, y gasto en el eje “y”.
  6. Aceptar
  7. Resultados
  8. ANALIZAR – REGRESION – LINEAL
  9. Seleccionamos nuestra variable dependiente e independiente
  10. Damos click en estadísticos
  11. Habilitamos “Cambio en R cuadrado”, Descriptivos y Correlaciones
  12. Damos click en graficos
  13. Seleccionamos “ZPRED” para el eje “X” Y “ZRESID” para el eje “y”
  14. Habilitamos histograma y grafico de probabilidad normal.
  15. Click en aceptar

CONTRASTE DE WHITE

        Analizar

        Regresión

        Lineales

        Ingresamos una variable dependiente

        Una variable independiente

        Guardar

o        Residuos clic en no estandarizados

o        Incluir matriz de covarianzas

        Aceptar

Vamos a tener una nueva variable para con esa poder trabajar al transformar

        Transformar

        Calcular variable

        Ingresamos la variable de resultado a la expresión matemática

        Debemos ver que nos salga el valor de esta forma

        Aceptar

Se crea una nueva variable de resultados a la cual llamaremos ResCuad para calcular esta nueva variable

Nuevamente a:

        Transformar

        Calcular variable

        Ingresamos la nueva variable incluido **2

        Nos sale una nueva variable con el nombre de VALCONCuad

        Aceptar

Con todas las nuevas variables calculamos

        Analizar

        Regresión

        Lineales

        En dependientes ingreso ResCuad

        En bloque 1 de 1 ingresos la de valor constante y VALCONCuad

        Aceptar

Nos va a salir una nueva variable pero ahora con un solo valor

        Transformar

        Calcular variable

        Ingresamos el nuevo valor y aumentamos *34

        Acaptar

Luego calculamos el nuevo resultado Q

        Transformar

        Calcular variable

        En grupo de funciones hacemos clic en CDF y CDF no centrad

        En funciones y variables especiales clic en Cdf. Chisq

        Subimos la nueva formula

        Ingresamos el nuevo valor Q

        Aceptar

PROCEDIMIENTO STEPWISE (PASOS SUCESIVOS)

  1. Analizar
  2. Regresión
  3. Lineal
  4. Ingresar variable dependiente y las variables independientes
  5. Escoger el método: ESCALONADO
  6. Botón ESTADÍSTICOS y habilitar:
  • Estimaciones
  • Ajuste del modelo
  • Cambio en R cuadrado

El primer modelo explica una proporción de 0.577, y el segundo de 0.882, lo que implica una mejora de 0.305 puntos

El error típico de estimación se reduce

La significación de F es la probabilidad según las expectativas de la Hipótesis nula es menor del 0.0001, lo que nos lleva a rechazar tal hipótesis y suponer que existe un efecto real de dichas variables sobre la calificación académica

PROCEDIMIENTO FORWARD (HACIA ADELANTE)

  • Es equivalente al anterior excepto en el sentido que no existe ninguna reevaluación
  • Se van incluyendo, por tanto en el modelo las variables según su importancia.
  • Coincide con el anterior cuando no hay que extraer ninguna de las variables introducidas

  1. Analizar
  2. Regresión
  3. Lineal
  4. Ingresar variable dependiente y las variables independientes
  5. Escoger el método: ESCALONADO
  6. Botón ESTADÍSTICOS y habilitar:
  • Estimaciones
  • Ajuste del modelo
  • Cambio en R cuadrado

PROCEDIMIENTO BACKWARD (HACIA ATRAS)

  • Se comienza incluyendo todas las variables en el modelo de regresión
  • Se van eliminando regresores progresivamente de menor a mayor contribución específica
  • Hasta que ésta sea lo suficientemente significativa como para no poder ser eliminada

  1. Analizar
  2. Regresión
  3. Lineal
  4. Ingresar variable dependiente y las variables independientes
  5. Escoger el método: ESCALONADO
  6. Botón ESTADÍSTICOS y habilitar:
  • Estimaciones
  • Ajuste del modelo
  • Cambio en R cuadrado

...

Descargar como (para miembros actualizados)  txt (14.3 Kb)   pdf (136.9 Kb)   docx (559.4 Kb)  
Leer 10 páginas más »
Disponible sólo en Clubensayos.com