| CAPITULO 7 | 
| Descomposición de matrices de covarianzas  Hacer click en “Analizar”, seleccionar “Estadísticos descriptivos” y “Descriptivos”. Seleccionamos las variablesClic en opciones para seleccionar la media y hacer clic en continuarClic en aceptarSeleccionar Analizar, hacer clic en correlaciones y bivariadosSeleccionar todas las variablesHacer clic en opciones y activar “productos cruzados y covarianzas para que junto con la matriz de correlaciones, muestre las covarianzas
 
 
 | 
| ESTADISTICO DE LAMBDA 
 | 
| ANALISIS EX POST Ingresar la base de datos en SPSSAnalizar – modelo lineal- clic en multivarianteClasificar las variables CONTRASTE, elegir la opción Desviación y clic en CAMBIAR y continuar   POST HOC, trasladar el factor a pruebas post hoc para y Habilitar TUKEY y TUKET-B, clic en continuarOPCIONES, habilitar estadísticos descriptivos, MATRICES SSCP, MATRICES SSCP de Residuos, Prueba de Homogeneidad y Falta de Ajuste y dar clic en continuar. Aceptar 
 | 
| ANÁLISIS DE LA VARIANZA Y PRUEBAS POST HOC RECOGEMOS DATOS; INTERPRETAMOS VARIABLES; INSERTAMOS VARIABLES; CLIC EN ANALIZARClic en comparar medias Clic en ANOVA de un factor INSERTAR VARIABLES DEPENDIENTES, FACTOR.CLIC APARTADO OPCIONES; EN ESTADISTICOS HABILITAMOS DESCRIPTIVOS Y HABILITAMOS GRÁFICO DE LAS MEDIAS;CONTINUAR Y ACEPTARRESULTADOS; HOJA DE RESULTADOS; DESCRIPTIVOS
 Ho: Los resultados de la campaña de MERCANOVA han sido idénticos en los tres tipos de supermercados para las ventas del producto de Coca Cola. H1: Los resultados de la campaña no son iguales en los tres tipos de supermercados 
 Clic en analizarClic en comprar medias Clic en anova de un factor INSERTAMOS VARIABLES DEPENDIENTES Y FACTORCLIC POST HOC; HABILITAMOS TURKEY Y TURKEY-B; CONTINUARHOJA DE RESULTADOS; PRUEBAS POST HOC; COMPARACIONES MULTIPLESHOJA DE RESULTADOS; SUBCONJUNTOS HOMOGENEOSGRAFICOS: Mostrar etiquetas de gráficos
 
 | 
| ANALISIS MULTIVARIANTE DE DOS FACTORES CARGAR LA BASE DE DATOSDEFINIR LAS VARIABLES DEPENDIENTES E INDEPENDIENTES CLIC EN LA PESTAÑA “ANALIZAR”  CLIC EN “MODELO LINEAL GENERAL”CLIC EN MULTIVARIANTEDEFINIR LAS VARIABLES DEPENDIENTES EN EL RECUADRODEFINIR LAS VARIABLES INDEPENDIENTES PARA EL RECUADRO DE FACTORES FIJOSCLIC EN “OPCIONES”ACTIVAR ESTADÍSTICOS DESCRIPTIVOS Y PRUEBAS DE HOMOGENEIDADACEPTAR
 | 
| ESTADISTICO DE LAMBADA DE WILKS (DOS FACTORES) 
 | 
| CAPITULO 8 | 
| Estadístico AIC 
 En el estadístico AIC esta penalizado la introducción de nuevas variables explicativas. En la F4 las variables explicativas (k) está en el numerador, por tanto si aumenta su AIC, posteriormente empeora el ajuste de bondad El estadístico AIC puede aplicarse a modelos sin términos independientes, no provoca ningún problema en la interpretación El estadístico AIC no es de carácter relativo a diferencia del coeficiente de determinación, por ello no se puede decir si el resultado es alto o bajo. Este se usa al compararlos con modelos alternativosEl estadístico AIC se puede aplicar para comparar modelos en los que la variable endógena sea distinta (Y ln(Y)).  
 AIC con los datos de SPSS Para calcular AIC se necesita k (2 variables explicativas), la constante y VALCON ; T (20 numero de casos) y  que es la suma de los cuadrados de los residuos. [pic 1]
 
 Interpretación: Por cada millón de pesetas que aumente el valor contable del banco, el valor de sus acciones en Bolsa aumentará 1,219 millones de pesetas en el momento de referencia de los datos  Interpretación de los coeficientes de regresión en el modelo de regresión simple 
 Donde las variables Y y X no han sido objeto de ninguna transformación (logarítmica por ejemplo)  El coeficiente  mide el incremento que se producirá en la variable Y al incrementarse en una unidad la variable X [pic 2] El coeficiente  es el valor que predice el modelo  cuando X toma el valor 0. En muchas ocasiones este término no tiene un significado económico claro. [pic 3][pic 4] 
 Pasos para hallar R cuadrado y R cuadrado corregido Analizar – Regresión – Lineales Seleccionamos variables dependientes e independientes   Clic en ESTADÍSTICOS y habilitamos “Ajuste del modelo” Clic en CONTINUAR y ACEPTAR Resultados 
 Los valores de los coeficientes de determinación son relativamente elevados para modelos estimados con datos de corte transversal como en el presente caso de los Bancos de España  Los coeficientes de determinación se derivan directamente de la salida de SPSS, pero no es así con el estadístico AIC.  
 Interpretación: Por cada millón de pesetas que aumente el valor contable del banco, el valor de sus acciones en Bolsa aumentará 1,219 millones de pesetas en el momento de referencia de los datos 
 | 
| MULTICOLINEALIDAD 
 Base de Datos “explicar absentismo laboral en la empresa Buenosaires” “ANALIZAR” luego en “REGRESION” y seleccionamos “LINEALES”Se despliega un cuadro, en el cual seleccionamos las variables independiente siendo en este caso “edad, antigüedad y salario” y seleccionamos la variable dependiente “Absen”
 Hacemos clic en “ESTADISTICOS” y se nos despliega una cuadro en el cual vamos activar el recuadro “DIAGNOSTICOS DE COLINEALIDAD”  y damos clic en continuar y luego en aceptar Luego podemos observar los resultados en la hoja de resultados en el cual debemos analizar los siguientes cuadros
 Analizamos los coeficientes estandarizados Beta en el cual se analiza en valor absoluto y podemos decir que el salario tiene mayor influencia sobre la variable endógena  - En las estadísticas de colinealidad podemos mencionar que no existe un problema de multicolinealidad ya que la TOLERANCIA no es <0,10 .  
 | 
| ELIMINACION DE VARIABLES  UTILIZACIÓN DE RATIOS Ingresamos nuestra base de datos  Primero ponderamos los casos Pestaña “Datos”, clic en “Ponderar Casos”Seleccionamos la opción “Ponderar casos mediante” y seleccionamos la variableNos dirigimos a la pestaña “Analizar”, “Estadísticos Descriptivos”, y damos clic en “Tablas Cruzadas”.Se abrirá un recuadro en el cual moveremos las variables en filas y columnas:Damos clic en el botón “Casillas” y activamos “Fila” y damos clic en ContinuarDamos clic en el botón “Estadísticos”, activamos “Riesgo” y damos clic en Continuar. ACEPTAR
 En la hoja de Resultados nos aparecerá lo siguiente: Observamos que el 15,8% de los fumadores posee cáncer y el 84,2% de los fumadores no lo posee El 1% de los NO fumadores desarrolla cáncer y el 99% de los No fumadores no tiene cáncer. En la estimación de riesgo concluimos que, en la primera fila por ejemplo vemos que las probabilidades de desarrollar cáncer son de 18,56 veces más en fumadores que en NO fumadores. 
 | 
| CONTRASTES DE SIGNIFICACIÓN EN EL MODELO DE REGRESIÓN. 
 Se ingresan las variables al SPSS, se añade valores a la codificación de la “variable parte del árbol”.Se ingresan los datos de cada una de vas variables.En el menú, vamos a “Analizar”, luego a “Regresión lineal”, introducimos la variable “Asimetría” como variable dependiente y las variables independientes.en la opción “opciones” activamos el apartado de (usar la probabilidad F) y activamos la opción de (incluir la constante en la ecuación).Clic en continuar y aceptar Resultados
 Los P valores asociados a cada contraste de nulidad (sig). Nos indican que la única variable significativa (al 5%) es la parte del árbol, con un p valor =0,046. Para el resto de coeficientes, no se puede rechazar la hipótesis de nulidad a este nivel de significación. Por lo tanto parece que éstas variables no explican a la variable dependiente (asimetría) | 
| Contraste de un parámetro individual Ingresamos los datos al SPSSSeleccionamos analizar, regresión y  por último linealesPasamos la variable dependiente al recuadro “Dependientes”, y las variables independientes al recuadro “Independientes”, dejamos el método por defecto “Intro” y aceptamos.En los resultados obtendremos la prueba global que corresponde a la tabla ANOVA y la tabla coeficientes que corresponde a la prueba individualSi la hipótesis nula es verdadera, eso implica que todos los coeficientes de regresión son cero y, por lógica, no son útiles para estimar la variable dependiente (costo de calefacción). De ser así, habría que buscar algunas otras variables independientes, o tomar una aproximación distinta, para predecir el costo de calefacción de la casa.
 
 
 | 
| 8.11Contrastes de las Hipótesis del Modelo 
 Normalidad y Homoscedasticidad   Normalidad  Estadístico de Bera y Jarque 
 Ingresamos los datos al SPSS (n = 60) 
 Analizar – Regresión- LinealSeleccionamos una variable (numérica) dependiente e independiente, en este caso «peso» y «estatura»Clic en ‘’Guardar’’, en la ventana Residuos seleccionamos el casillero ‘’No estandarizados’’ y Clic en continuar. Finalmente, clic en AceptarNos muestra los resultados de la hoja del modelo Clic en Analizar-Estadísticos Descriptivos
 -Descriptivos
Trasladar en ‘’Variables’’ valores no estandarizados RES_1Clic ‘’Opciones’’ y activamos los casilleros Asimetría y Curtosis, clic en Continuar y finalmente AceptarAnalizamos los resultados obtenidos 
 
 Ho: Acepta la normalidad en términos de error. Ha: Se rechaza la normalidad en términos de error. 
 El estadístico de Bera y Jarque nos arroja un resultado de 3,10; comparado con la distribución chi-cuadrado (2gl) nos arroja un resultado que se mantiene constante de 5,992. Por lo tanto, se mantiene dentro de la zona de aceptación y se acepta la Ho. 
 | 
| Heteroscedasticidad 
 Goldfield y Quandt Ingresamos los datos al SPSS GraficoGenerador de grafico Seleccionar dispersión/puntosSeleccionamos la variable ingreso en el eje “x”, y gasto en el eje “y”.Aceptar Resultados ANALIZAR – REGRESION – LINEAL Seleccionamos nuestra variable dependiente e independiente Damos click en estadísticosHabilitamos “Cambio en R cuadrado”, Descriptivos y Correlaciones Damos click en graficosSeleccionamos “ZPRED” para el eje “X” Y “ZRESID” para el eje “y”Habilitamos histograma y grafico de probabilidad normal.Click en aceptar
 
 
 | 
| CONTRASTE DE WHITE         Analizar          Regresión          Lineales          Ingresamos una variable dependiente          Una variable independiente          Guardar o        Residuos clic en no estandarizados  o        Incluir matriz de covarianzas          Aceptar  Vamos a tener una nueva variable para con esa poder trabajar al transformar         Transformar          Calcular variable          Ingresamos la variable de resultado a la expresión matemática         Debemos ver que nos salga el valor de esta forma  
         Aceptar  Se crea una nueva variable de resultados a la cual llamaremos ResCuad para calcular esta nueva variable  Nuevamente a:         Transformar          Calcular variable         Ingresamos la nueva variable incluido **2          Nos sale una nueva variable con el nombre de VALCONCuad         Aceptar  Con todas las nuevas variables calculamos          Analizar          Regresión          Lineales          En dependientes ingreso ResCuad          En bloque 1 de 1 ingresos la de valor constante y VALCONCuad          Aceptar  Nos va a salir una nueva variable pero ahora con un solo valor          Transformar          Calcular variable          Ingresamos el nuevo valor y aumentamos *34          Acaptar Luego calculamos el nuevo resultado Q         Transformar          Calcular variable          En grupo de funciones hacemos clic en CDF y CDF no centrad          En funciones y variables especiales clic en Cdf. Chisq         Subimos la nueva formula          Ingresamos el nuevo valor Q         Aceptar | 
| PROCEDIMIENTO STEPWISE (PASOS SUCESIVOS) 
 Analizar RegresiónLineal Ingresar variable dependiente y las variables independientesEscoger el método: ESCALONADOBotón ESTADÍSTICOS y habilitar: 
 EstimacionesAjuste del modeloCambio en R cuadrado
 El primer modelo explica una proporción de 0.577, y el segundo de 0.882, lo que implica una mejora de 0.305 puntos 
 El error típico de estimación se reduce 
 La significación de F es la probabilidad según las expectativas de la Hipótesis nula es menor del 0.0001, lo que nos lleva a rechazar tal hipótesis y suponer que existe un efecto real de dichas variables sobre la calificación académica 
 | 
| PROCEDIMIENTO FORWARD (HACIA ADELANTE) 
 Es equivalente al anterior excepto en el sentido que no existe ninguna reevaluaciónSe van incluyendo, por tanto en el modelo las variables según su importancia.Coincide con el anterior cuando no hay que extraer ninguna de las variables introducidas
 
 Analizar RegresiónLineal Ingresar variable dependiente y las variables independientesEscoger el método: ESCALONADOBotón ESTADÍSTICOS y habilitar: 
 EstimacionesAjuste del modeloCambio en R cuadrado
 | 
| PROCEDIMIENTO BACKWARD (HACIA ATRAS) 
 Se comienza incluyendo todas las variables en el modelo de regresiónSe van eliminando regresores progresivamente de menor a mayor contribución específicaHasta que ésta sea lo suficientemente significativa como para no poder ser eliminada
 
 Analizar RegresiónLineal Ingresar variable dependiente y las variables independientesEscoger el método: ESCALONADOBotón ESTADÍSTICOS y habilitar: 
 EstimacionesAjuste del modeloCambio en R cuadrado
 |