ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estadistica Inferencial


Enviado por   •  25 de Febrero de 2015  •  3.018 Palabras (13 Páginas)  •  224 Visitas

Página 1 de 13

4.1 Inferencia Estadística

La inferencia estadística es el conjunto de métodos y técnicas que permiten inducir, a partir de la información empírica proporcionada por una muestra, cual es el comportamiento de una determinada población con un riesgo de error medible en términos de probabilidad.

Los métodos paramétricos de la inferencia estadística se pueden dividir, básicamente, en dos: métodos de estimación de parámetros y métodos de contraste de hipótesis. Ambos métodos se basan en el conocimiento teórico de la distribución de probabilidad del estadístico muestral que se utiliza como estimador de un parámetro.

La estimación de parámetros consiste en asignar un valor concreto al parámetro o parámetros que caracterizan la distribución de probabilidad de la población. Cuando se estima un parámetro poblacional, aunque el estimador que se utiliza posea todas las propiedades deseables, se comete un error de estimación que es la diferencia entre la estimación y el verdadero valor del parámetro. El error de estimación es desconocido por lo cual es imposible saber en cada caso cual ha sido la magnitud o el signo del error; para valorar el grado de precisión asociado con una estimación puntual se parte de dicha estimación para construir un intervalo de confianza. En síntesis, un intervalo de confianza está formado por un conjunto de valores numéricos tal que la probabilidad de que éste contenga al verdadero valor del parámetro puede fijarse tan grande como se quiera. Esta probabilidad se denomina grado de confianza del intervalo, y la amplitud de éste constituye una medida del grado de precisión con el que se estima el parámetro.

Los métodos de contraste de hipótesis tienen como objetivo comprobar si determinado supuesto referido a un parámetro poblacional, o a parámetros análogos de dos o más poblaciones, es compatible con la evidencia empírica contenida en la muestra. Los supuestos que se establecen respecto a los parámetros se llaman hipótesis paramétricas. Para cualquier hipótesis paramétrica, el contraste se basa en establecer un criterio de decisión, que depende en cada caso de la naturaleza de la población, de la distribución de probabilidad del estimador de dicho parámetro y del control que se desea fijar a priori sobre la probabilidad de rechazar la hipótesis contrastada en el caso de ser ésta cierta.

En todo contraste intervienen dos hipótesis. La hipótesis nula (Ho) es aquella que recoge el supuesto de que el parámetro toma un valor determinado y es la que soporta la carga de la prueba. La decisión de rechazar la hipótesis nula, que en principio se considera cierta, está en función de que sea o no compatible con la evidencia empírica contenida en la muestra. El contraste clásico permite controlar a priori la probabilidad de cometer el error de rechazar la hipótesis nula siendo ésta cierta; dicha probabilidad se llama nivel de significación del contraste ( ) y suele fijarse en el 1%, 5% o 10%.

La proposición contraria a la hipótesis nula recibe el nombre de hipótesis alternativa (H1) y suele presentar un cierto grado de indefinición: si la hipótesis alternativa se formula simplemente como 'la hipótesis nula no es cierta', el contraste es bilateral o a dos colas; por el contrario cuando se indica el sentido de la diferencia, el contraste es unilateral o a una sola cola.

Cuando se realiza un contraste con el SPSS no se fija el nivel de significación deseado, el programa calcula el valor-p o significación asintótica, que es la probabilidad de que el estadístico de prueba tome un valor igual o superior al muestral bajo el supuesto de que la hipótesis nula es cierta. Por tanto, si el valor-p es menor o igual que el nivel de significación deseado se rechazará Ho.Un valor-p próximo a cero indica que se rechazará la Ho para cualquier nivel de significación.

4.5 Estimación por intervalos

Con la estimación puntual se estima el valor del parámetro poblacional desconocido, a partir de una muestra. Para cada muestra se tendrá un valor que estima el parámetro. Esta estimación no es muy útil si desconocemos el grado de aproximación de la estimación al parámetro. Es deseable conocer un método que nos permita saber dónde se encuentra el parámetro con un cierto grado de certeza. Este método va a ser la determinación de un intervalo donde estará el parámetro con un nivel de confianza.

El intervalo se construye a partir de una muestra, entonces, para cada muestra se tendrá un intervalo distinto. Llamaremos a al error que se permite al dar el intervalo y el nivel de confianza será 1- . Un intervalo tiene un nivel de confianza 1- cuando el 100• (1- ) % de los intervalos que se construyen para el parámetro lo contienen.

Es deseable para un intervalo de confianza que tenga la menor amplitud posible, esta amplitud dependerá de:

• El tamaño de la muestra, mientras mayor sea el tamaño mejor será la estimación, aunque se incurre en un aumento de costes

• Nivel de confianza, si se pide mayor nivel de confianza, el intervalo será mayor

Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:

Intervalo de confianza

El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con un determinado nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circunstancial.

Variabilidad del Parámetro

Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinde de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.

Error de la estimación

Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más observaciones deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = (θ2 - θ1)/2.

Límite

...

Descargar como (para miembros actualizados)  txt (17.8 Kb)  
Leer 12 páginas más »
Disponible sólo en Clubensayos.com