ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Analisis Bivariado


Enviado por   •  21 de Mayo de 2014  •  2.042 Palabras (9 Páginas)  •  386 Visitas

Página 1 de 9

Analisis bivariado

I. ANALISIS BIVARIADO.

El Análisis Bivariado Implica el análisis comparativos de dos variables una de las cuales modifica a la otra.

Al considerar dos variables, la construcción de las tablas de distribución de frecuencias Bivariadas, que llamaremos Tablas Bivariadas, se realizará considerando la siguiente estructura:

a) Llamaremos a cada una de las variables con, niveles o intervalos o clases para la variable X, y niveles o intervalos o clases para la variable Y.

b) La variable X se puede disponer en las filas y la variable Y en las columnas, registrándose para ellas la información conjunta, de los pares ordenados en el centro de la tabla.

II. REGRESIÓN LINEAL:

3.1. INTRODUCCIÓN:

El objeto de un análisis de regresión es investigar la relación estadística que existe entre una variable dependiente (Y) y una o más variables independientes (,...). Para poder realizar esta investigación, se debe postular una relación funcional entre las variables. Debido a su simplicidad analítica, la forma funcional que más se utiliza en la práctica es la relación lineal. Cuando solo existe una variable independiente, esto se reduce a una línea recta:

Donde los coeficientes b0 y b1 son parámetros que definen la posición e inclinación de la recta. (Nótese que hemos usado el símbolo especial para representar el valor de Y calculado por la recta. Como veremos, el valor real de Y rara vez coincide exactamente con el valorcalculado, por lo que es importante hacer esta distinción.)

El parámetro b0, conocido como la “ordenada en el origen,” nos indica cuánto es Y cuando X = 0. El parámetro b1, conocido como la “pendiente,” nos indica cuánto aumenta Y por cada aumento de una unidad en X. Nuestro problema consiste en obtener estimaciones de estos coeficientes a partir de una muestra de observaciones sobre las variables Y y X. En el análisis de regresión, estas estimaciones se obtienen por medio del método de mínimos cuadrados.

3.2. ESTIMACIÓN DE LA RECTA DE REGRESIÓN:

Para estimar los coeficientes por medio de mínimos cuadrados, se utilizan las siguientes fórmulas:

3.3. ANÁLISIS ESTADÍSTICO: REGRESIÓN LINEAL SIMPLE:

En el estudio de la relación funcional entre dos variables poblacionales, una variable X, llamada independiente, explicativa o de predicción y una variable Y, llamada dependiente o variable respuesta, presenta la siguiente notación:

Y = a + X +

Donde:

a :es el valor de la ordenada donde la línea de regresión se intercepta con el eje Y.

: es el coeficiente de regresión poblacional (pendiente de la línea recta)

: es el error

3.4. SUPOSICIONES DE LA REGRESIÓN LINEAL:

* Los valores de la variable independiente X son fijos, medidos sin error.

* La variable Y es aleatoria

* Para cada valor de X, existe una distribución normal de valores de Y (subpoblaciones Y)

* Las variancias de las subpoblaciones Y son todas iguales.

* Todas las medias de las subpoblaciones de Y están sobre la recta.

* Los valores de Y están normalmente distribuidos y son estadísticamente independientes.

3.5. ESTIMACIÓN DE LA ECUACIÓN DE REGRESIÓN MUESTRAL:

Consiste en determinar los valores de “a” y “” a partir de la muestra, es decir, encontrar los valores de a y b con los datos observados de la muestra. El método de estimación es el de Mínimos Cuadrados, mediante el cual se obtiene:

Luego, la ecuación de regresión muestral estimada es

Que se interpreta como:

a: - es el estimador de .

- Es el valor estimado de la variable Y cuando la variable X = 0

b: - es el estimador de , es el coeficiente de regresión

- Está expresado en las mismas unidades de Y por cada unidad de X. Indica el número de unidades en que varía Y cuando se produce un cambio, en una unidad, en X (pendiente de la recta de regresión).

- Un valor negativo de b sería interpretado como la magnitud del decremento en Y por cada unidad de aumento en X.

3.6. REGRESIÓN NO LINEAL:

En estadística, la regresión no lineal es un problema de inferencia para un modelo tipo:

Basado en datos multidimensionales x, y, donde f es alguna función no lineal respecto a algunos parámetros desconocidos θ. Como mínimo, se pretende obtener los valores de los parámetros asociados con la mejor curva de ajuste (habitualmente, con el método de los mínimos cuadrados). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadística tales como intervalos de confianza para los parámetros así como pruebas de bondad de ajuste.

El objetivo de la regresión no lineal se puede clarificar al considerar el caso de la regresión polinomial, la cual es mejor no tratar como un caso de regresión no lineal. Cuando la función f toma la forma:

f(x) = ax2 + bx + c

La función f es no lineal en función de x pero lineal en función de los parámetros desconocidos a, b, y c. Este es el sentido del término "lineal" en el contexto de la regresión estadística. Los procedimientos computacionales para la regresión polinomial son procedimientos de regresión lineal (múltiple), en este caso con dos variables predictoras x y x2. Sin embargo, en ocasiones se sugiere que la regresión no lineal es necesaria para ajustar polinomios. Las consecuencias prácticas de esta mala interpretación conducen a que un procedimiento de optimización no lineal sea usado cuando en realidad hay una solución disponible en términos de regresión lineal.

III. CORRELACIÓN LINEAL:

4.7. ANÁLISIS DE CORRELACIÓN

Es frecuente que estudiemos sobre una misma población los valores de

...

Descargar como (para miembros actualizados)  txt (13.1 Kb)  
Leer 8 páginas más »
Disponible sólo en Clubensayos.com