ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Probabilidad Y Estadística


Enviado por   •  10 de Diciembre de 2012  •  1.777 Palabras (8 Páginas)  •  531 Visitas

Página 1 de 8

Historia

Artículo principal: Azar.

El diccionario de la Real Academia Española define «azar» como una casualidad, un caso fortuito, y afirma que la expresión «al azar» significa «sin orden».1 La idea de Probabilidad está íntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar un juego de azar o analizar las encuestas. Pierre-Simon Laplace afirmó: "Es notable que una ciencia que comenzó con consideraciones sobre juegos de azar haya llegado a ser el objeto más importante del conocimiento humano". Comprender y estudiar el azar es indispensable, porque la probabilidad es un soporte necesario para tomar decisiones en cualquier ámbito.2

Según Amanda Dure, "Antes de la mitad del siglo XVII, término 'probable' (en latín probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias."3

Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal(1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) deAbraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática.

La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva , siendo cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:

1. es simétrica al eje ;

2. el eje es una asíntota, siendo la probabilidad del error igual a 0;

3. la superficie cerrada es 1, haciendo cierta la existencia de un error.

Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,

siendo y constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823),James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864),Glaisher (1872) y Giovanni Schiaparelli (1875).

Las graficas tienen por objeto representar las características esenciales de los resultados obtenidos en la tabulación y dentro de ellos tenemos:grafica de barras, histogramas, polígonos de frecuencia, ojiva o circulo grama o grafica de pastel.

GRAFICA DE BARRAS

Se emplea para representar las frecuencias relativas y absolutas de acontecimientos y se utiliza en dos ejes, uno vertical y otro horizontal, en el eje X u horizontal se representan los intervalos, clases o tipos de resultados o acontecimientos y en la línea vertical las frecuencias de acuerdo al número de veces de cada resultado dejando un espacio entre cada barra, por ejemplo:

En él en un salón de belleza que está en alcuco asisten a la semana personas de diferentes edades como se presenta en el siguiente cuadro:

HISTOGRAMAS

En estadística, un histograma es una representación gráfica de una variable en forma de barras, donde la superficie de cada barra es proporcional a la frecuencia de los valores representados. En el eje vertical se representan las frecuencias, y en el eje horizontal los valores de las variables, normalmente señalando las marcas de clase, es decir, la mitad del intervalo en el que están agrupados los datos. Tiene por diferencia a la grafica de barras que estas van juntas ya que no permite huecos.

CIRCULOGRAMA

Las Gráficas circulares denominadas también gráficas de pastel o gráficas del 100%, se utilizan para mostrar porcentajes y proporciones.

Ejemplo:

Al realizar un estudio sobre el color de gelatinas que vende don chuy se obtuvieron los siguientes datos:

al graficar estos datos obtenemos la siguiente grafica

MEDIA ARMÓNICA

...

Descargar como (para miembros actualizados)  txt (11.2 Kb)  
Leer 7 páginas más »
Disponible sólo en Clubensayos.com