ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

VARIABLE CONTINUAS Y SU DISTRIBUCCIÓN DE PROBABILIDAD

NancyNaguini25 de Junio de 2015

2.879 Palabras (12 Páginas)243 Visitas

Página 1 de 12

VARIABLE CONTINUAS Y SU DISTRIBUCCIÓN DE PROBABILIDAD

1.1. PROBABILIDAD CLÁSICA, FRECUENCIAL Y SUBJETIVA

Los “usuarios” de la probabilidad no necesitan conocer con exactitud el concepto al que responde este término, del mismo modo que para ser un buen jugador de ajedrez o un excelente conductor no es necesario conocer la “filosofía” implícita en estas actividades, sino únicamente sus reglas de funcionamiento.

De hecho, a lo largo de su desarrollo histórico se ha generado una gran controversia no solucionada sobre el significado de la probabilidad.

1.1.1. Probabilidad clásica

La teoría clásica de la probabilidad, originada directamente en los juegos de azar, establece una definición conectada a su cuantificación. Este concepto, debido a Laplace establece:

Definición 1.1. La probabilidad de un suceso es el cociente del número de casos favorables al suceso entre el total de casos posibles, supuestos igualmente verosímiles.

Este concepto de probabilidad, que suele denominarse de Laplace, se remonta sin embargo al trabajo The Doctrine of Chances de De Moivre (1711) concebido como un manual para los interesados en juegos de azar. Por el contrario, Pierre Simon, marqués de Laplace (1749 1827) elaboró un total de 10 principios del cálculo de probabilidades, entre los que figura por primera vez la definición anterior, que no se han visto alterados desde su obra Théorie Analitique des Probabilités (1812).

El concepto clásico, que ha dominado hasta principios del presente siglo, ha sido objeto de diversas críticas debidas a su falta de rigor lógico (lo definido entra en la definición) y al supuesto de resultados igualmente verosímiles en el que se basa la teoría.

La justificación de esta hipótesis viene dada por el principio de indiferencia, que defiende la simetría u homogeneidad de resultados en la situación considerada, o bien por el principio de la razón insuficiente según el cual, si no existe razón que favorezca alguno de los resultados con respecto a los demás, admitiremos que todos tienen igual probabilidad. Sin embargo ninguno de estos principios soluciona las dificultades planteadas por la definición clásica, cuya aplicación práctica se limita a un ámbito muy reducido (experimentos con número finito de resultados equiprobables).

Pese a sus limitaciones el esquema clásico de probabilidad está muy arraigado, debido en gran medida a su conexión con los juegos de azar.

El uso indiscriminado del concepto clásico para cuantificar probabilidades puede llevarnos, en el caso de que los resultados posibles no sean equiprobables, a conclusiones sorprendentes e incluso absurdas. De hecho, según este método, asignaríamos probabilidades del 50 % a sucesos del tipo “llegar a ser premio Nobel”, “presenciar un terremoto” y en general a todos aquellos sucesos asociados a un experimento con dos resultados.

No siempre resulta sencillo definir resultados simétricos o equiprobables garantizando así la aplicabilidad de la definición clásica. Un ejemplo famoso es la discusión protagonizada por D‘Alembert, Fermat y Pascal en torno a un juego sencillo: el lanzamiento de dos monedas, sobre el que se formula la apuesta “sacar al menos una cara”.

Según el razonamiento seguido por D‘Alembert, la probabilidad de victoria sería 23, ya que de los tres resultados posibles (ninguna cara, una cara, dos caras) dos son favorables. Sin embargo, es necesario tener presente el principio de simetría inherente a la probabilidad clásica. Este principio exigiría describir los resultados del experimento mediante sucesos equiprobables: cara cruz, cara cara, cruz cara, cruz cruz y, dado que de estas cuatro posibilidades tres son favorables a la apuesta planteada, la probabilidad de éxito sería 34.

En otras ocasiones las inexactitudes son más difíciles de detectar. Supongamos una situación más compleja que las anteriores, en la que una empresa concede a sus trabajadores ciertos permisos situados en días que la empresa denomina “comodín”. Con el objeto de garantizar a todos sus trabajadores sea cual sea su horario y jornada laboral la posibilidad de disfrutar de este día, se acuerda que los "comodines" serán situados en meses seleccionados al azar pero siempre el día 13. Si un trabajador se pregunta cuál es la probabilidad de que el “comodín” coincida en un viernes, permitiéndoles así disfrutar de un largo fin de semana, parece legítimo en un principio el supuesto de equiprobabilidad y simetría que justifica un resultado P(Viernes) = 17, coincidente con el de cualquier otro día de la semana.

1.1.2. Probabilidad frecuencial

El enfoque frecuencial -también denominado frecuentista- de la probabilidad se sitúa en una perspectiva experimental.

Definición 1.2. Llamamos probabilidad frecuencial de un suceso al valor en torno al cual tiende a estabilizarse su frecuencia relativa. Esta idea de probabilidad sólo es válida bajo el supuesto de fenómenos aleatorios experimentales (reproducibles bajo idénticas condiciones un número suficientemente elevado de veces) y que verifiquen el principio de regularidad estadística, según el cual las frecuencias relativas tienden a estabilizarse en torno a un cierto valor.

Esta noción de probabilidad, introducida por Venn en 1866 y desarrollada matemáticamente en los años 1920 por Von Mises y Reichenbach, es de uso generalizado, debido en gran parte al sencillo método de cálculo de probabilidades que lleva asociado. De hecho, la axiomática Kol

Mogorov –que constituye una herramienta fundamental en el desarrollo del Cálculo de probabilidades está inspirada en el comportamiento asintótico de las frecuencias.

Una de las críticas a la concepción frecuencial va referida al supuesto de que es posible repetir indefinidamente el experimento bajo condiciones idénticas, que excluye de su ámbito de aplicación gran parte de los fenómenos sociales y económicos. En estos casos, la única posibilidad de aplicar el concepto frecuencial de probabilidad sería admitir la cláusula "ceteris paribus". Pese a las limitaciones teóricas que plantea, a menudo la probabilidad se aproxima directamente a través de la frecuencia relativa. De este modo, el resumen de la información pasada es utilizado como método de estimación de potencialidades futuras.

Así, un graduado universitario puede usar los resúmenes de información referidos a las últimas promociones para calcular su probabilidad de encontrar trabajo, de obtener una beca, etc.

El concepto frecuentista permite resolver adecuadamente el problema relativo a los días “comodín”, justificando que la probabilidad de que el comodín sea viernes es superior a la de cualquier otro día de la semana. En efecto, la determinación de las probabilidades de cada día de la semana exigiría conocer el número de repeticiones de cada resultado sobre el tiempo total de vigencia de nuestro calendario (años 1600-2000).

Si consideramos que de estos 400 años 97 son años bisiestos, el total de semanas resulta ser 20.871 y de ellas 4.800 fechas son día 13 de un mes. Aunque la enumeración es larga, puede observarse el día de la semana en que cada uno de ellos está situado, que resultan ser una cifra superior en el caso del viernes (688 días respecto a 684 para jueves y sábado, 685 para lunes y martes y 687 para domingo y miércoles). Una vez determinado este nuevo modelo, la probabilidad de viernes se situaría en 6684800 = 0,143.

1.1.3. Probabilidad subjetiva

Las limitaciones de los enfoques anteriores han sugerido métodos alternativos de determinación de la probabilidad, en los que ésta aparezca desvinculada de la experimentación. Así, frente a las definiciones objetivas de probabilidad, que incluyen las dos anteriores, las teorías subjetivas consideran la probabilidad como "grado de creencia", resultando así aplicables a un conjunto más amplio de situaciones.

La utilización de esta acepción de probabilidad es muy frecuente, ya que a menudo se nos plantea la necesidad de cuantificar numéricamente el nivel de "verosimilitud" asignado a un hecho. Esta variante subjetiva introduce como rasgo diferencial respecto a las objetivas la participación directa del individuo que -en función de su situación particular- actúa como "asignador" de probabilidades.

El punto de vista subjetivista fue compartido por algunos de los precursores de la teoría del cálculo de probabilidades como J. Bernoulli, Bayes o Laplace.

No obstante, es desde principios de este siglo cuando se le ha prestado mayor atención, siendo pionera la obra de Borel (1924) a la que siguieron, entre otras, las de

Ramsey (1926), De Finetti (1931, 1937) y Savage (1954).

Esta concepción logicista es debida,entre otros autores, a Keynes, Jeffreys, Koopman y Carnap, siendo su idea básica la extensión de los principios de la lógica matemática para establecer la probabilidad como medida en que una proposición (hipótesis) confirma a otra (experiencia).

Frente a las ventajas de este concepto de probabilidad, derivadas de su carácter formal, aparecen inconvenientes debidos a la dificultad de determinar probabilidades numéricas.

Así, en el trabajo original de Keynes (1921) las probabilidades están tan sólo parcialmente ordenadas y no siempre son medibles numéricamente, no garantizando por tanto una medida numérica de la credibilidad racional.

Existen otros conceptos de la probabilidad entre los que, por su originalidad, queremos destacar el de sorpresa potencial de Shackle.

El resultado numérico de la probabilidad subjetiva aparece directamente ligado al individuo que lleva a cabo su cuantificación,

...

Descargar como (para miembros actualizados) txt (19 Kb)
Leer 11 páginas más »
Disponible sólo en Clubensayos.com