ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

PRUEBAS DE HIPÓTESIS CON DOS MUESTRAS Y VARIAS MUESTRAS DE DATOS NUMÉRICOS

xuxokoraje10 de Junio de 2014

3.473 Palabras (14 Páginas)1.528 Visitas

Página 1 de 14

4 PRUEBAS DE HIPÓTESIS CON DOS MUESTRAS Y VARIAS MUESTRAS DE DATOS NUMÉRICOS.

4.1 PRUEBA DE HIPOTESIS CON DOS MUESTRAS Y VARIAS MUESTRAS DE DATOS NUMÉRICOS. La prueba de hipótesis para dos muestras es casi semejante a la prueba de una sola muestra es decir que este capítulo se tomaran dos muestras aleatorias para determinar si proviene de una misma población o a su vez de poblaciones iguales. Así mismo puedo entender que en el caso de que se den las dos poblaciones iguales, se esperara que la media entre las dos medias muéstrales sea cero. En el caso que existan poblaciones independientes, estas son iguales a la suma de dos variables individuales. Por ende las muestras deben ser suficientemente grandes para que la distribución de las medias muéstrales siga una distribución normal. Así mismo constituyo que para realizar una comparación de poblaciones con muestras pequeñas es necesario tener en cuanta las siguientes suposiciones: las dos muestras provienen de poblaciones independientes, de igual manera las desviaciones estándar de las dos poblaciones son iguales, así mismo las poblaciones muestreadas siguen una distribución normal. Como consiguiente tenemos que el número de grados de libertad en la prueba es igual al número total de elementos muestreados, menos el número de muestras. Existen casos en que las muestras no son independiente sino son dependientes o que a su ves estas están relacionadas entre si Por tal razón puedo entender que existen dos tipos de muestras dependientes, 1.- las que se caracterizan por una medición, una intervención de cierto tipo y esta a su ves otra medición. 2.- existe una formación de pares de las observaciones correspondientes. La inferencia estadística se ocupa de la obtención de conclusiones en relación a un gran número de sucesos, en base a la observación de una muestra obtenida de ellos. Los métodos de la estadística inferencial señalan los procedimientos que se han de seguir para poder extraer conclusiones válidas y fiables, a partir de la evidencia que suministra las muestras. Dos son los problemas que trata de resolver la estadística inferencial en torno a las pruebas estadísticas: 1º determinar si es probable que un valor obtenido a partir de una muestra pertenece realmente a una población; 2º determinar, en términos de probabilidad, si las diferencias observadas entre dos muestras significan que las poblaciones de las que se han obtenido las muestras son realmente diferentes. A partir de ambas determinaciones se desarrollan los fundamentos de las pruebas de decisión estadísticas o pruebas de hipótesis (en inglés, test of hypothesis). Existen dos tipos de técnicas estadísticas inferenciales: las paramétricas y las aparamétricas. Las primeras establecen un buen número de restricciones sobre la naturaleza de la población de la que se obtiene los datos, siendo los <<parámetros>> los valores numéricos de la población. Las segundas, llamadas también de <<libre distribución>>, no exigen tantas restricciones sobre la naturaleza de la población, ya que atienden más a la ordenación de los datos que a su valor numérico.

4.2 distribuciones normal y t de estudent.

Distribución Normal DISTRIBUCION NORMAL La distribución normal es muy importante por lo siguiente:

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución. Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana. En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de campana". En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal Caracteres morfológicos de individuos (personas, animales, plantas,...) de una especie, p.ejm. tallas, pesos, envergaduras, diámetros, perímetros,... Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o de una misma cantidad de abono. Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen. Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un medio,... Errores cometidos al medir ciertas magnitudes. Valores estadísticos muestrales, por ejemplo : la media. Otras distribuciones como la binomial o la de Poisson son aproximaciones normales, ... Y en general cualquier característica que se obtenga como suma de muchos factores.

En probabilidad y estadística, la distribución t (de Student) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra.

4.3 pruebas de significancia Las pruebas de significancia estadística son un procedimiento que brinda un criterio objetivo para calificar las diferencias que se presentan al comparar los resultados de dos muestras, con el objetivo de explicar si dichas diferencias se mantienen dentro de los límites previstos por el diseño estadístico (un error y una confianza esperados) o si, por el contrario, la diferencia entre ellas resulta lo suficientemente grande como para inferir que ha ocurrido un cambio real en el indicador. Estas pruebas son importantes porque con frecuencia se tiende a analizar los datos de una encuesta por muestreo probabilístico como si fueran los datos provenientes de un censo. De ahí que muchas veces se asume la diferencia en el valor de un indicador, de un trimestre con respecto a otro, como si fuera una diferencia real cuando no necesariamente es así. En estadística, un resultado se denomina estadísticamente significativo cuando no es probable que haya sido debido al azar. Una "diferencia estadísticamente significativa" solamente significa que hay evidencias estadísticas de que hay una diferencia; no significa que la diferencia sea grande, importante, o significativa en el sentido estricto de la palabra. El nivel de significación de un test es un concepto estadístico asociado a la verificación de una hipótesis. En pocas palabras, se define como la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando ésta es verdadera (decisión conocida como error de tipo I, o "falso positivo"). La decisión se toma a menudo utilizando el valor P (o p-valor): si el valor P es inferior al nivel de significación, entonces la hipótesis nula es rechazada. Cuanto menor sea el valor P, más significativo será el resultado. En otros términos, el nivel de significatividad de un contraste de hipótesis es una probabilidad P tal que la probabilidad de tomar la decisión de rechazar la hipótesis nula - cuando ésta es verdadera - no es mayor que P.

4.4 comparación de dos muestras independientes: pruebas t para las diferencias entre dos medias.

Para comparar las medias de dos muestras procedentes de dos poblaciones normales e independientes, se utiliza el procedimiento Prueba T para muestras independientes, y para ello, se selecciona: A continuación se abre una ventana con los siguientes campos: Contrastar variables: donde se han de introducir las variables que se van a analizar, es decir, aquellas variables sobre las que se va a contrastar si hay o no, diferencias de grupos. Variable de agrupación: aquí se debe introducir la variable que se utiliza para definir los grupos de sujetos sobre los que se estudian las diferencias. Entonces el sistema activa el botón definir grupos y al presionarlo aparece una ventana donde se introducen los valores de la variable que definen los dos grupos de sujetos a comparar, o el valor de la variable que hará de corte para definir dichos grupos. Si el valor de la variable para un individuo es menor o igual que el valor especificado, el individuo pertenecerá al primer grupo, y en caso contrario, al segundo.

Opciones: presionando este botón se obtiene una ventana donde se especifica igual que en la sección anterior el nivel de confianza para el intervalo y la forma de tratar los valores missing. . Vamos a comprobar si existen diferencias significativas entre los tiempos medios de dedicación a la docencia, para los profesores asociados y los titulares de universidad de profesores2.sav. Para ello, seleccionamos el procedimiento prueba t para muestras independientes, y elegimos la variable tiemdoc para llevarla al campo contrastar variables. Seguidamente seleccionamos como variable agrupación la variable categoría, presionamos el botón definir grupos, y tecleamos un 1 en el primer grupo y un 3 en el segundo. por último pulsamos continuar y aceptar para ejecutar el procedimiento. Uno de los análisis estadísticos más comunes en la práctica es probablemente el utilizado para comparar dos grupos independientes de observaciones con respecto a una variable numérica. Como ejemplo, consideremos los datos que se muestran en la correspondientes a 75 individuos con sobrepeso sometidos a dos dietas alimenticias distintas, de modo que se desea comparar el peso de los individuos que iniciaron cada una

...

Descargar como (para miembros actualizados) txt (21 Kb)
Leer 13 páginas más »
Disponible sólo en Clubensayos.com