ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estadistica


Enviado por   •  20 de Noviembre de 2014  •  5.533 Palabras (23 Páginas)  •  422 Visitas

Página 1 de 23

ACTIVIDAD PROPUESTA

Describa con sus propias palabras que entiende por:

Experimento: El experimento es la acción que pretende descubrir o saber si son ciertas las afirmaciones que alguien ha postulado, el experimento pretende comprobar alguna teoría e hipótesis o explicar algún fenómeno, en esto es de suma importancia el manejo de las variables que incurren en cada experimento, estas varían y se manipulan de acuerdo cada ciencia.

Suceso: Es algo que ocurre, lo más importante de este es que tiene trascendencia o impacto. Es algo que no se sabe si ocurrirá o no, depende del azar.

Evento. Es un hecho que se puede observar en determinado momento y circunstancia, y tiene un momento específico en un espacio y un tiempo.

Resultado: Es la consecuencia de algún hecho o acción.

“El teorema de la Suma” formulado finalmente por Thomas Bayes (1702-1761) se enuncia por la fórmula:

Interprételo con sus palabras. El teorema de la suma parte de operaciones básicas de los conjuntos como lo son la ( unión, intersección ) . Pueden haber dos reglas, una es en el caso que el evento sea excluyente y la segunda no excluyente. Cuando dos eventos no son mutuamente excluyentes , es posible que ambos se presenten al mismo tiempo, en ese caso se debe modificar la regla de la adición para evitar el conteo doble y por eso queda así:

A continuación presento un diagrama de flujo de la regla de la adición que aclara el cómo funciona.

SI

NO

NO

Proponga un ejemplo de aplicación: Ejemplo: En el salón de estadística a distancia II estas son las características de algunos de los alumnos:

ESTATURA DEL ALUMNO

COLOR GRANDE PEQUEÑO

BLANCO 15 20

MORENO 7 8

Sea el primer evento que A: Los alumnos grandes, entonces:

P(A)=22/50

Y sea el evento B : Los alumnos blancos, entonces:

P(B)=35/50

De otro lado, P (A∩B) es la probabilidad de que los alumnos grandes y al mismo tiempo de color o test blanco. Entonces

P (A∩B)= 15/50

El evento A U B es aquel en donde el alumno de estatura grande o blanco o ambos.

P ( A U B ) = P ( A ) + P(B)- P (A∩B)

P (A U B )= 22/50+35/50-15/50

P ( A U B)= 42/50

También está el evento M en donde el alumno no es ni grande y tampoco blanco en la tabla se indica el valor P (M)= 8/50

Explique el resultado. En el salón de estadística II hay 42/50 o 0,84 de los alumnos que pueden ser blancos y al mismo tiempo grandes o ambos, también en el salón de estadística II hay 8/50 de los alumnos que nos son ni grandes ni tampoco blancos.

Para cerrar el tema considero que algo practico de saber en las probabilidades es que cuando se aplica la regla de la adición de probabilidades se debe determinar si los eventos son excluyentes o no.

“El Teorema de la Multiplicación” enunciado en un principio por Abraham De Moivre (1667-1754) y divulgado por Bayes mediante la fórmula: .

Interprételo con sus palabras. Según el teorema de Bayes cuando se presentan dos eventos, puede ser que el resultado del primer evento afecte el resultado del otro o segundo evento, o puede no afectarlo, son embargo para determinar esto se basa en que los eventos pueden ser dependientes o independientes, igual que en el teorema de la suma. Por ende debemos tener claro dos conceptos de probabilidades:

Probabilidad marginal o incondicional que es la probabilidad simple de presentación de un evento.

Probabilidades conjuntas bajo condiciones de independencia estadística.

La probabilidad de dos o más eventos independientes que se presentan juntos o en sucesión es el producto de sus probabilidades marginales : P (A∩B ) = P (A) X P(B).

Probabilidades bajo condiciones de dependencia: La dependencia estadística existe cuando la probabilidad de que presente algún suceso depende o se ve afectada por la presentación de algún otro evento:

P ( A ∩ B)= P(B/A)X P (A) o P (B∩A)= P(A/B) X P(B).

Cuando se usa la regla de la multiplicación de debe determinar si los eventos son dependientes o independientes.

Entonces la probabilidad condicional bajo independencia estadística es P(B/A)=P(B)y cuando es probabilidad bajo independencia estadística es P(b/a)=P(B∩A) / P(A)

La probabilidad es un número que nunca puede tener valor negativo ni ser mayor que 1.

SI

NO

NO

Proponga un ejemplo de aplicación. Retomando el ejemplo de las características de los alumnos del salón de estadística II se calculara la probabilidad de que el alumno que se seleccione sea de color blanco dado que sea tomado de los de estatura grande.

ESTATURA DEL ALUMNO

COLOR GRANDE PEQUEÑO

BLANCO 15 20

MORENO 7 8

Sean los eventos A:El alumno es grande; B:El alumno es de color o test blanco

Se pide entonces:

P (B/A)= P(B∩A)/ P(A)

P (B∩A)= 15/50

P(A)= 22/50

P (B/A)= 15/50 = 0.3 =0.6818= 68,18%

22/50 0.44

Ahora se hará la probabilidad de que el alumno seleccionado sea de tamaño grande dado que su color o test se blanco, se puede observar que la probabilidad de arriba es diferente.

P (A/B)= P (A ∩ B)= 15/50 = 0.3 = 0.4285 =42.85%

P (B) 35/50 0.7

Explique el resultado. En este caso P(A) y P (A/B)son las probabilidades del mismo evento ( el alumno es de tamaño o estatura grande ) pero calculadas desde dos diferentes estados de conocimiento: La primera sin la condición de su color de piel y la segunda condicionado a el color de piel. P (B) y P (B/A) son las mismas probabilidades del mismo evento calculadas bajo dos estados diferentes de conocimiento: Sin condicionar su tamaño o estatura para la primera y la segunda condicionado a su estatura o tamaño del alumno fuera grande.

“La Ley de los Grandes Números” propuesta por Jabob Bernoulli.

Cómo se representa simbólicamente.

Interprétela con sus palabras. La ley de los grandes números nos ayuda a relacionar la probabilidad teórica con su respectiva frecuencia relativa de un experimento que se repite muchas veces. Establece el vínculo entre probabilidad teórica y probabilidad experimental. La ley de los grandes números nos dice que “Al repetir muchísimas veces un experimento la frecuencia relativa de un suceso se va acercando cada vez más a su probabilidad teórica”.

Para demostrar la ley de los grandes números se realiza una tabla de frecuencias se grafican los resultados y saca la media.

Proponga un ejemplo y explique el resultado.

Un Trabajador del DANE decide realizar una investigación sobre los salarios en una población de 15 empleados encontrando que el salario diario de esta pequeña población es de $7.127, un segundo compañero investigador, decide realizar la misma investigación pero toma un número menor de individuos, toma 10 arrojándole como resultado $ 4.590 de salario diario, y el tercer investigador toma una muestra más pequeña de solo 7 empleados arrojándole como respuesta o promedio $3.129. El primer investigador podría concluir con base en esa información que los individuos de la Población completa tienen altos ingresos, pero tal conclusión no puede ser generalizada al resto de la Población analizada, pues la Muestra Estadística no es representativa. La Ley de los Grandes Números en este caso aconseja incluir más individuos en el tamaño de la Muestra para así aproximarse al verdadero promedio del salario que ganan todos los individuos que conforman esta Población, promedio que se encuentra ubicado en $7.127 como ya se mencionó.

PRIMER INVESTIGADOR SEGUNDO INVESTIGADOR TERCER INVESTIGADOR

INDIVIDUO SALARIO DIARIO INDIVIDUO SALARIO DIARIO INDIVIDUO SALARIO DIARIO

1 900 1 900 1 900

2 1.000 2 1.000 2 1.000

3 2.000 3 2.000 3 2.000

4 3.000 4 3.000 4 3.000

5 4.000 5 4.000 5 4.000

6 5.000 6 5.000 6 5.000

7 6.000 7 6.000 7 6.000

8 7.000 8 7.000 Promedio 3.129

9 8.000 9 8.000

10 9.000 10 9.000

11 10.000 Promedio 4.590

12 11.000

13 12.000

14 13.000

15 15000

Promedio 7.127

“El Teorema Central del Límite” propuesto por Bernoulli,

Cómo se representa simbólicamente.

X ≈ N(µ,ᶞ2)

Interprételo con sus palabras. El teorema del límite central plantea que existe una población y unos elementos, se asume en este teorema que se conoce la media y su varianza. El teorema del límite central nos garantiza un patrón de comportamiento siempre y cuando se cumpla una condición de que n es suficientemente grande el patrón de distribución es normal. Para que n sea suficientemente grande debe ser n≥30.

El teorema central del límite me garantiza:

Sin importar las distribuciones de la población, el teorema me garantiza que las medias muéstrales tienen distribución normal.

Que la media de las distribuciones muéstrales coinciden con la media de la población.

Que la varianza de esa distribución de medias muéstrales esta relacionada con la varianza de la población.

A medida que aumentamos la muestra la variabilidad disminuye.

Proponga un ejemplo y explique el resultado: Una máquina que empaca dulces, empaca en cada una de sus bolsas un contenido medio de 130gr y un varianza de 100gr2 si se toma una muestra aleatoria de 40 bolsas ¿Cuál es la probabilidad de que la media muestral este entre 127 y 132?

DATOS

µ=130 gr

o=100gr

n= 40

P (127 ≤ X ≤ 132 ) = ?

Aplicamos la formula antes señalada:

X N (130, 100)= 2.5

40

P= (127-130 ≤ X -130 ≤ 132-130)

V 2.5 V 2.5 V2.5

P= -1.8974 ≤ X -130 ≤ 1.2649

P= (Z ≤ 1.2649) (Z ≤ -1.8974)

P= 0.8962 – 0.0294

P= 0.8668 X 100= 86.68%

Se puede concluir que la probabilidad de que X este entre 127 gr y 132 gr es del 86.68%.

El problema de la “ruina del jugador” propuesto por primera vez por Huygens, solucionado por De Moivre y Bernoulli independientemente en 1711, A. Cómo se representa simbólicamente. B. Interprételo con sus palabras. C. Proponga un ejemplo y explique el resultado R.

Según (Eye in the Sky Group en su pagina extraído el 12 de mayo de 2014 de http://www.eyeintheskygroup.com/Azar-Ciencia/Ventaja-Matematica-Juegos-de-Azar/Teoria-Ruina-del-Jugador-Comprobacion-Matematica.htm) la ruina del jugador comprende aquellos juegos de azar en que los participantes apuestan alguna cantidad de dinero para poder seguir jugando, es previsible que tarde o temprano alguno de los participantes terminará quedándose con el dinero de todos sus oponentes, o que a éstos se les irá agotando el dinero y ya no podrán seguir participando en el juego, casos en los cuales el juego puede considerarse terminado tanto para los unos como para los otros.

A. Puedo representar al jugador 1 como A el jugador 2 como B y así sucesivamente, la probabilidad de ruina de A como PA y probabilidad de ruina de B como PB, la cantidad de dinero para apostar de cada jugador es K para A es KA y para B es KB, por lo que tenemos la siguientes formulas básicas:

PA=KB/(KA+KB)=(1+KA/(KB )) .^(-1)

PB=KA/(KB+KA)=(1+KB/(KA )) .^(-1)

B. Lo que quiere decir esto es que en algún momento en un juego de azar llegara el momento de verdad en el que un jugador o varios pierdan todo lo que tienen para apostar frente a uno quien será el que gane todo, la probabilidad de que se quede en la ruina depende de la cantidad de dinero que se tenga frente al otro jugador, entre mas dinero se tenga para apostar, menor va a ser la probabilidad de quedar en ruina frente al otro; si se tienen cantidades iguales de dinero la probabilidad de quedar en la ruina sera repartida en cada jugador en partes iguales, es por eso que hoy en día se puede entender porque un casino o la casa, como suele llamarse tiene la menor probabilidad de perder por la gran cantidad de recursos que es mayor frente a los jugadores y a la larga terminara sobreviviendo sobre, los demás infortunados y ambiciosos jugadores “apunte propio”.

C. Ejemplo: Dos jugadores Roberto y Carlos están haciendo apuestas con una moneda al cara y sello de 100 pesos la apuesta, Roberto tiene 2.800 pesos y Carlos tiene 1.700 pesos. ¿Cuál es la probabilidad que Roberto y Carlos queden en la ruina?

Solución

A = Roberto y B= Carlos KA = 2800 Dinero de Roberto y KB = 1700 Dinero de Carlos

PA = Probabilidad de ruina de Roberto y PB = Probabilidad de ruina de Carlos

PA=KB/(KA+KB)=(1+KA/(KB )) .^(-1) PB=KA/(KB+KA)=(1+KB/(KA )) .^(-1)

PA=1700/(2800+1700)= 0,3777 PB=2800/(1700+2800)=0,6222

Por lo que tenemos como resultado que la probabilidad de Roberto de quedar en la ruina en este juego es del 37.77% mientras que Carlos tiene la probabilidad de quedar en la ruina en 62.22% representando un riesgo mayor para Carlos que para Roberto.

La paradoja de “San Petersburgo” propuesta por Bernoulli en 1713, A. Cómo se representa simbólicamente. B. Interprétela con sus palabras. C. Proponga un ejemplo y explique el resultado.

A. Según (Wikipedia en su pagina extraído el 12 de mayo de 2014 de http://es.wikipedia.org/wiki/Paradoja_de_San_Petersburgo) tenemos la siguiente formula la cual para hacerla mas general la modifique de la siguiente manera

∑_(n=1)^∞▒X^(n ) *Y^n= ∑_(n=1)^∞▒1= ∞

Donde X es el valor de lo que el jugador A va a pagar a un jugador B, Y es la probabilidad que caiga cierto resultado y n las veces que se va a jugar todo esto dentro del contexto de una sumatoria que va desde 1 hasta infinito.

B. La paradoja de San Petersburgo parte del punto en lo que se mencionaba como esperanza matemática, que la mejor opción al momento de las probabilidades era la ofrecía una mayor esperanza, pero esto paradoja prueba que la opción que es la mas sensata, no siempre es la mas correcta desde el punto de vista matemático, esta consistio en lanzar una moneda a manera de apuesta en donde A le ofrecía a B una cantidad de dinero por la probabilidad que cayera por un de los dos lados aquí en Colombia es al cara y sello, si caía en cara en el primer lanzamiento yo le daba por ejemplo 2 pesos ( esto fue utilizado con 2 ducados por Bernoulli) en el segundo le daba 2 pesos a la potencia de dos = 4 al tercero 2 a la 3 = 8 pesos, y así sucesivamente hasta infinito; el juego se acaba cuando cae sello, pero se debía tener en cuenta que la probabilidad de que caiga es 50 50, ½ , lo que conlleva a que ganar en el primer lanzamiento es de 1 a 1 pero ha medida de mas lanzamientos, la probabilidad de ganar mas pesitos es de 1 contra n veces, según lo que se quiera ganar, de ahí sale la pregunta ¿Cuánto esta dispuesto a apostar para este juego?

C. Tenemos una apuesta al cara y sello, donde Carlos le paga a Roberto 50 pesos por si cae cara la primera vez, 50 pesos a la dos veces si cae cara la segunda vez y luego a la tres veces, así sucesivamente, a penas caiga sello acaba el juego.

Tenemos entonces que:

∑_(n=1)^∞▒X^(n ) *Y^n= ∑_(n=1)^∞▒1= ∞

Lanzamiento 1: 501 * (1/2) 1 = 25

Lanzamiento 2: 502 * (1/2) 2 = 625 así sucesivamente.

Solución

Para 20 intentos donde la probabilidad es de ganar es casi 0, tenemos la siguiente tabla: tenemos que hayar la sumatoria de Ln de Xn, ; X es el premio n las veces, sumatoria de Ln de Xn por la probabilidad, por la cantidad se utilizo una tabla de Excel.

En donde en pesos en el valor del juego la utilidad es aproximadamente $ 7,8239639333 en donde en pesos seria igual al antilogaritmo de $7,8239639333 es (e 7,8239639333) que es equivalente a $2.500 pesos este es el valor aproximado para el jugador para esta utilidad, notese que ha medida que aumentan los lanzamientos la probabilidad de ganar es menor y la utilidad también se reduce.

“La Teoría de la Medida de Errores” iniciada por Galileo, estudiada por Bernoulli, Laplace, K. Gauss (1777-1855) y A. Legendre (1752-1833), A. Cómo se representa simbólicamente. B. Interprétela con sus palabras. C. Proponga un ejemplo y explique el resultado.

A. Es importante anotar que cada uno de los autores tienen diferentes ideas sobre la medida de errores, tomando la distribución descubierta por Poisson, que se llamo distribución de Cauchy según (en Wikipedia en su pagina extraído el 15 de mayo de 2014 de http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Cauchy) tenemos:

La distribución estándar de Cauchy:

f(x)=1/π(1+x^2 ) ,-∞<x<∞

B. quiere decir que cuando sumo una medida que es una variable, que tomo esta puede tener un error que viene a ser otra variable esta puede ser menor que la variable de medida o mayor, es decir la media + o – el error.

C. Profesor realmente en este, punto investigue pero no tuve claridad con el tema por lo que exponer un ejemplo seria contrario al aprendizaje ya que no tengo claro el concepto ni su aplicación.

Reseñe el concepto de variable aleatoria y describa quienes fueron los precursores de introducir el concepto en la teoría de probabilidad.

Una variable aleatoria es pues una función que asigna un número real a cada resultado en el espacio muestral de un experimento aleatorio. Ellas se denotan con una letra mayúscula tal como X. Se dice que X es aleatoria porque involucra la probabilidad de los resultados del espacio muestral, y se define X como una función porque trasforma todos los posibles resultados del espacio muestral en cantidades numéricas reales.

También se pueden definir variables aleatorias cuyos valores sean contables o no, y al ser una caracterización cuantitativa de los resultados de un espacio muestral, ellas pueden ser discretas o continuas.

Los conceptos de probabilidad e incertidumbre son tan viejos como la civilización misma.

Aproximadamente en 3500 a.C., los juegos de azar eran practicados con objetos de hueso y fueron ampliamente desarrollados en Egipto y otros lugares.

Dados cúbicos con marcas virtualmente idénticas a los dados modernos han sido encontrados en tumbas egipcias que datan del año 2000 a.C.

El concepto de probabilidad ha evolucionado en el transcurso del tiempo. A los algebristas del siglo XVI, Pacioli, Cardano y Tartaglia; se les deben las primeras consideraciones matemáticas profundas a propósito de los juegos de azar.

Fermat y Pascal, dieron en 1654 la primera definición de probabilidad. Se aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la probabilidad de conseguir un acontecimiento fuese igual al cociente entre el número de casos favorables y el de casos posibles.

Girolamo Cardano (1501 – 1576)

Médico, matemático y astrólogo italiano.

Era un jugador empedernido y su obra es mas bien un manual para jugadores.

Escribió el Libro de los juegos de azar, en 1565, aunque no publicado hasta 1663.

Trabajó con los conceptos de la definición clásica de la probabilidad.

Introdujo la idea de asignar una probabilidad “P” entre 0 y 1 a un suceso cuyo resultado se desconoce.

Galileo Galilei (1564 – 1642)

La principal contribución de Galileo a la teoría de la probabilidad fue la creación de la teoría de la medida de errores.

Sentó las bases para el nacimiento de la estadística.

Pierre de Fermat (1601 – 1665)

En su juventud , con su amigo el científico Blaise Pascal, realizó una serie de investigaciones sobre las propiedades de los números. De estos estudios, Fermat dedujo un importante método de cálculo de probabilidades.

También se interesó por la teoría de los números y realizó varios descubrimientos en este campo

Bleise Pascal (1623 – 1662)

Los matemáticos franceses Bleise Pascal y Pierre Fermat formulan la teoría de la probabilidad a partir de una serie de investigaciones sobre las propiedades de los números.

Esta teoría ha llegado a ser de gran importancia en los cálculos de la física teórica moderna así como en estadísticas actuariales, matemáticas y sociales.

Christiaan Huygens ( 1629 – 1695)

Su interés por la probabilidad nació en 1655 durante el transcurso de un viaje a París.

Físico – astrónomo – matemático, fue maestro de Leibniz (el padre del cálculo).

Publicó en 1656 el libro De ratiociniis in ludo aleae (razonamientos en juegos de azar), que fue el primer libro impreso sobre probabilidad, el cual constaba de un breve prefacio y 14 proposiciones.

Jacob Bernoulli (1654 – 1705)

En 1689 publicó un importante trabajo sobre series infinitas y su ley sobre los grandes números en teoría probabilística.

Fue un temprano precursor del uso de la teoría probabilística en medicina y meteorología en su trabajo Ars conjectandi (el arte de la conjetura) publicado de manera póstuma en 1713.Se puede decir que con sus trabajos, Bernoulii inicia el establecimiento de la combinatoria como una nueva e independiente rama de las matemáticas.

Abraham de Moivre (1667 – 1754)

Conocido por la fórmula de Moivre, la cual conecta números complejos y trigonometría , y por su trabajo en la distribución normal y probabilidad.

Fue elegido miembro de la Royal Society de Londres en 1697, y fue amigo de Isaac Newton y Edmund Halley.

De Moivre escribió un libro de probabilidad titulado The Doctrine Of Chances.

Thomas Bayes (1702 – 1761)

Teólogo, matemático y miembro de la Royal Society desde 1742, Bayes fue el primero en utilizar la probabilidad inductivamente y establecer una base matemática para la inferencia estadística.

En reconocimiento a su importante trabajo en probabilidad, su tumba fue restaurada en 1969 con donativos de estadísticos de todo el mundo.

Joseph Lagrange ( 1736 – 1813)

A finales del siglo 18; con su trabajo, Lagrange se volvió evidente que existen analogías entre los juegos de azar y fenómenos aleatorios en física, biología y ciencias sociales.

Fue el primero que estudió las permutaciones, además que inventó y maduró el cálculo de variaciones.

Pierre Laplace (1749 – 1827)

Publicó la Théorie analytique des probabilités en 1812, en la que se discuten aplicaciones prácticas de la dicha teoría:

Errores en observaciones.

Determinación de las masas de Júpiter, Saturno y Urano.

Métodos de triangulación para sobrevivencia.

Y problemas de geodesia, como la determinación del meridiano de Francia.

Desarrolla el concepto de distribución normal, descubierta por De Moivre

Complementó el trabajo comenzado por Gauss sobre la teoría errores.

Denise Poisson (1781 – 1840)

En 1837, en su obra Rocherches sur la probabilité des jugements (investigaciones sobre la probabilidad de opiniones) introduce lo que conocemos como la Distribución de Poisson de los grandes números, método aproximado usado para describir probables ocurrencias de eventos improbables en un número grande de ensayos inconexos.

10.Dentro de las aplicaciones de la teoría de probabilidad se encuentran la

Probabilidad geométrica: Es la probabilidad determinada comparando el área de una sección dada la total de una región disponible. Ejemplo, La probabilidad de que la lluvia caiga en una área verde es de:

(1×1)/(2×2), que es 1/4, o 25%

El control de calidad: Es una de las distribuciones de probabilidad más útiles (control de calidad, producción, investigación). Tiene que ver con el experimento aleatorio que produce en cada ensayo o prueba uno de dos resultados posibles mutuamente excluyentes: ocurrencia de un criterio o característica específico (llamado éxito) y no ocurrencia de éste (llamado fracaso). Los términos o calificativos de "éxito y fracaso" son solo etiquetas y su interpretación puede no corresponder con el resultado positivo o negativo de un experimento en la realidad. Ejemplo, Éxito podría ser hallar en un ensayo específico que la unidad es defectuosa al examinarla. Cada experimento aleatorio consiste en una serie de ensayos o pruebas repetidas realizadas en idénticas condiciones ( veces), o sea que cada uno de ellos es independiente de los demás.

Los procesos estocásticos: Un proceso estocástico es un concepto matemático que sirve para caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable, generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no. Cada variable o conjunto de variables sometidas a influencias o efectos aleatorios constituye un proceso estocástico. Ejemplos, Señales de telecomunicación, Señales biomédicas (electrocardiograma, encefalograma, etc.), Señales sísmicas

Las martingalas: La llamada “martingala”, supuesta fórmula para ganar siempre en los juegos de azar, consiste en ir aumentando la apuesta según un ritmo dado en caso de pérdida para compensar, con la futura ganancia, las cantidades perdidas hasta el momento. En una palabra, en ir aumentando la cantidad que arriesgamos.

El método de Montecarlo: El método Montecarlo es un método numérico que permite resolver problemas físicos y matemáticos mediante la simulación de variables aleatorias. Lo vamos a considerar aquí desde un punto de vista didáctico para resolver un problema del que conocemos tanto su solución analítica como numérica. El método Montecarlo fue bautizado así por su clara analogía con los juegos de ruleta de los casinos, el más célebre de los cuales es el de Montecarlo, casino cuya construcción fue propuesta en 1856 por el príncipe Carlos III de Mónaco, siendo inaugurado en 1861.

BIBLIOGRAFIA Y CIBERGRAFIA

Nelson Garcia.Teoría Ruina del Jugador, Eye In The Sky. (2013) Recuperado el 12 de mayo de 2014 de http://www.eyeintheskygroup.com/Azar-Ciencia/Ventaja-Matematica-Juegos-de-Azar/Teoria-Ruina-del-Jugador-Comprobacion-Matematica.htm

Paradoja de San Petersburgo, Wikipedia La enciclopedia Libre. (2013, 7 de Marzo) Recuperado el 12 de Mayo de 2014 de http://es.wikipedia.org/wiki/Paradoja_de_San_Petersburgo

Distribución de Cauchy, Wikipedia La enciclopedia Libre. (2014, 23 de Abril) Recuperado el 15 de Mayo de 2014 de http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Cauchy.

Canavosc., George (1986). Probabilidad y estadística. Mexico:Mc GRAW Hil.

CHRISTENSEN,Howard B. (1999). Estadistica paso a paso. Mexico:Editorial Trillas.

LIPSCHUTZ,Seymour. Teoría y problemas de probabilidad. Serie de compendios Schaum. Mexico:McGraw Hill.

MARTINEZ BENCARDINO, Ciro (2004). Estadística básica aplicada Santa Fe de Bogota: ECOE Ediciones.

MENDENHALL (1982). Introduccion a la probabilidad y la estadística . E.E.U.U: Iberoamericana.

http//thales.cica.es/rd/recursos/rd98/matemáticas/28/matematicas-28.html

http://server2.southlink.com.ar/vap/probabilidad.htm

http://es.wikipedia.org/wiki/probabilidad

http:www.aulafacil.com/cursoestadistica/cursoestadistica.htm

...

Descargar como  txt (28.1 Kb)  
Leer 22 páginas más »
txt