ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Econometria


Enviado por   •  30 de Marzo de 2013  •  2.073 Palabras (9 Páginas)  •  398 Visitas

Página 1 de 9

Taller ECAES Estadística y Econometría

1. Definición de probabilidad

La probabilidad de un suceso es un número, comprendido entre 0 y 1, que indica las posibilidades que tiene de verificarse cuando se realiza un experimento aleatorio.

2. Definición de variable aleatoria

Se llama variable aleatoria a toda aplicación que asocia a cada elemento del espacio muestral de un experimento, un número real.

Las variables aleatorias las podemos clasificar en discretas, si pueda tomar un número finito o infinito numerable de valores o continuas si dado un intervalo (a,b) la variable puede tomar todos los valores comprendidos entre a y b.

• Variable aleatoria continua: Variable que toma un valor infinito de valores no numerables. Una variable aleatoria es continua si su conjunto de posibles valores es todo un intervalo de números; esto es, si para algún a < b, cualquier número x entre a y b es posible.

• Variable aleatoria discreta: una variable aleatoria es discreta si su conjunto de valores posibles es un conjunto discreto, toma un número finito de valores numerables.

3. Distribución de probabilidad

Una distribución de probabilidad la podemos concebir como una distribución teórica de frecuencia, es decir, es una distribución que describe como se espera que varíen los resultados. Dado que esta clase de distribuciones se ocupan de las expectativas son modelos de gran utilidad para hacer inferencias y tomar decisiones en condiciones de incertidumbre.

4. Media de una variable aleatoria

En el caso discreto representa la media ponderada de los posibles valores que puede tomar la variable aleatoria x.

En el caso continuo, representa el centro de la función de densidad. Para ambos casos es necesaria la condición de convergencia absoluta, es decir, que tenga un valor finito.

5. Varianza de una variable aleatoria

La varianza de una variable aleatoria es una característica numérica que proporciona una idea de la dispersión de la variable aleatoria respecto de su esperanza. Decimos que es un parámetro de dispersión.

Es, por tanto, el promedio teórico de las desviaciones cuadráticas de los diferentes valores que puede tomar la variable respecto de su valor medio teórico o esperanza.

6. Funciones de densidad de probabilidad conjunta

7. La función de densidad de probabilidad (FDP) o, simplemente, función de densidad, representada comúnmente como f(x), se utiliza con el propósito de conocer cómo se distribuyen las probabilidades de un suceso o evento, en relación al resultado del suceso.

La FDP es la derivada (ordinaria o en el sentido de las distribuciones) de la función de distribución de probabilidad F(x), o de manera inversa, la función de distribución es la integral de la función de densidad:

La función de densidad de una v.a determina a la concentración de probabilidad alrededor de los valores de una variable aleatoria continua.

8. Variables aleatorias independientes

Podemos decir que dos variables aleatorias son independientes si los valores que toma una de ellas no afectan a los de la otra ni a sus probabilidades.

En muchas ocasiones la independencia será evidente a partir del experimento, por ejemplo, es independiente el resultado del lanzamiento de un dado y el de una moneda, por tanto las variables Puntuación obtenida con el dado y Número de caras obtenidas al lanzar la moneda una vez serán variables independientes.

En otras ocasiones tenemos una dependencia clara, por ejemplo, al lanzar un dado consideremos las variables.

X = puntuación del dado

Y = variable indicadora de puntuación par

Es evidente que existe una clara dependencia, si sabemos que Y = 1, la variable X sólo puede tomar los valores 2, 4 o 6; si sabemos que X = 3, entonces, Y = 0 forzosamente.

Algunas veces podemos suponer la existencia de una cierta relación entre variables, aunque sea en forma algo abstracta y sin concretar. Por ejemplo si realizamos unas mediciones sobre unos individuos, las variables altura en cm y peso en Kg probablemente estarán relacionadas, los valores de una influirán en los valores de la otra. Intentar determinar la naturaleza exacta de la relación entre ambas es lo que en estadística conocemos como un problema de regresión.

Si queremos una definición algo más formal, basta con que recordemos que dos sucesos son independientes si la probabilidad de la intersección es igual al producto de probabilidades, aplicando esta definición a sucesos del tipo X ≤ a tenemos la definición siguiente:

Diremos que dos variables aleatorias X e Y son independientes si y sólo si

P(X ≤ a ∩ Y ≤ b) = P(X ≤ a) • P (Y ≤ b) = FX(a) • FY(b)

A la función F(x, y) = P(X ≤ a ∩ Y ≤ b) se la conoce como la función de distribución conjunta de X e Y.

Como consecuencia inmediata de la independencia de X e Y, se cumple lo siguiente:

P(a < X ≤ c ∩ b < Y ≤ d) = P(a < X ≤ c) • P (b < Y ≤ d

Covarianza y correlación de variables aleatorias

La covarianza entre dos v.a. X e Y se define como:

s xy= E[(x-m x)(y-m y)] = E[x.y] - m xm ySiendo E[x.y] el momento ordinario mixto de orden 1,1 ( a1,1):

E[xy]= caso continuo

E[xy]=S S xy P (xy) caso discreto

La covarianza nos informa de la covariación conjunta de las dos variables, frecuencias. Sólo hay que considerar aquí que la covariación hay que entenderla en términos de probabilidad y no de frecuencia: una covariación positiva sería el que a valores altos de una de las variables le corresponden "con mayor probabilidad" valores altos de la otra y a valores bajos valores bajos. (Una covariación

...

Descargar como (para miembros actualizados)  txt (12.1 Kb)  
Leer 8 páginas más »
Disponible sólo en Clubensayos.com