ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

PRONOSTICOS DE VENTAS


Enviado por   •  5 de Febrero de 2013  •  1.863 Palabras (8 Páginas)  •  536 Visitas

Página 1 de 8

Análisis de Regresión y Correlación

El análisis de regresión consiste en emplear métodos que permitan determinar la mejor

relación funcional entre dos o más variables concomitantes (o relacionadas). El análisis

de correlación estudia el grado de asociación de dos o más variables.

Analisis de Regresion

Una relacion funcional matemáticamente hablando, está dada por:

Y = f(x1,...,xn; θ1,...,θm)

donde:

Y : Variable respuesta (o dependiente)

xi : La i-ésima variable independiente (i=1,..,n)

θj : El j-ésimo parámetro en la función (j=1,..,m)

f : La función

Para elegir una relación funcional particular como la representativa de la población bajo

investigación, usualmente se procede:

1) Una consideración analítica del fenómeno que nos ocupa, y

2) Un examen de diagramas de dispersión.

Una vez decidido el tipo de función matemática que mejor se ajusta (o representa nuestro

concepto de la relación exacta que existe entre las variables) se presenta el problema de

elegir una expresión particular de esta familia de funciones; es decir, se ha postulado una

cierta función como término del verdadero estado en la población y ahora es necesario

estimar los parámetros de esta función (ajuste de curvas).

Como los valores de los parámetros no se pueden determinar sin errores por que los

valores observados de la variable dependiente no concuerdan con los valores esperados,

entonces la ecuación general replanteada, estadísticamente, sería:

Y = f(x1,...xn;θ1,...,θm) + ε

donde ε respresenta el error cometido en el intento de observar la característica en

estudio, en la cual muchos factores contribuyen al valor que asume ε.

Regresion Lineal Simple

Cuando la relación funcional entre las variables dependiente (Y) e independiente (X) es

una línea recta, se tiene una regresión lineal simple, dada por la ecuación

Y = ßo + ß1X + ε F. de Mendiburu

2

donde:

ßo : El valor de la ordenada donde la línea de regresión se intersecta al eje Y.

ß1 : El coeficiente de regresión poblacional (pendiente de la línea recta)

ε : El error.

Suposiciones de la regresión lineal

1. Los valores de la variable independiente X son "fijos".

2. La variable X se mide sin error (se desprecia el error de medición en X)

3. Existe una subpoblacion de valores Y normalmente distribuido para cada valor de

X.

4. Las variancias de las subpoblaciones de Y son todas iguales.

5. Todas las medias de las subpoblaciones de Y están sobre la misma recta.

6. Los valores de Y están nomalmente distribuidos y son estadísticamente

independientes.

Los supuestos del 3 al 6 equivalen a decir que los errores son aleatorios, que se

distribuyen normalmente con media cero y variancia σ².

Terminologia:

Promedios

n

y

y ∑ i

= ;

n

x

∑ xi

=

Sumas de cuadrados y productos de X e Y.

= ∑(y − y)

i

SCY

2

; = ∑(x −x) i

SCX

2

; SPXY = ∑(x − x)(y − y)

i

i

SCY tambien corresponde a la suma de cuadrados total = SC total

Estimación de parámetros

La función de regresión lineal simple es expresado como:

Y = ßo + ß1X + ε

la estimación de parámetros consiste en determinar los parámetros ßo y ß1 a partir de los

datos muestrales observados; es decir, deben hallarse valores como bo y b1 de la muestra,

que represente a ßo y ß1, respectivamente.

Empleando el método de los mínimos cuadrados, es decir minimizando la suma de

cuadrados de los errores, se determinan los valores de bo y b1, así: F. de Mendiburu

3

= ∑e = ∑(y − − x)

i

Q i β β

0 1

2

2

b y b x

o 1

=

...

Descargar como (para miembros actualizados)  txt (7.9 Kb)  
Leer 7 páginas más »
Disponible sólo en Clubensayos.com