ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Unefa

helmeyerSíntesis10 de Noviembre de 2014

2.981 Palabras (12 Páginas)274 Visitas

Página 1 de 12

distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.[cita requerida]

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:

• caracteres morfológicos de individuos como la estatura;

• caracteres fisiológicos como el efecto de un fármaco;

• caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos;

• caracteres psicológicos como el cociente intelectual;

• nivel de ruido en telecomunicaciones;

• errores cometidos al medir ciertas magnitudes;

• etc.

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".

la distribución log-normal es una distribución de probabilidad de una variable aleatoria cuyo logaritmo está normalmente distribuido. Es decir, si X es una variable aleatoria con una distribución normal, entonces exp(X) tiene una distribución log-normal.

La base de una función logarítmica no es importante, ya que loga X está distribuida normalmente si y sólo si logb X está distribuida normalmente, sólo se diferencian en un factor constante.

Log-normal también se escribe log normal o lognormal.

Una variable puede ser modelada como log-normal si puede ser considerada como un producto multiplicativo de muchos pequeños factores independientes. Un ejemplo típico es un retorno a largo plazo de una inversión: puede considerarse como un producto de muchos retornos diarios.

La distribución log-normal tiende a la función densidad de probabilidad

para , donde y son la media y la desviación estándar del logaritmo de variable. El valor esperado es

y la varianza es

.

En estadística la distribución exponencial es una distribución de probabilidad continua con un parámetro cuya función de densidad es:

Su función de distribución acumulada es:

Donde representa el número e.

El valor esperado y la varianza de una variable aleatoria X con distribución exponencial son:

La distribución exponencial es un caso particular de distribución gamma con k = 1. Además la suma de variables aleatorias que siguen una misma distribución exponencial es una variable aleatoria expresable en términos de la distribución gamma.

distribución de Gumbel (llamada así en honor de Emil Julius Gumbel (1891-1966) es utilizada para modelar la distribución del máximo (o el mínimo), por lo que se usa para calcular valores extremos. Por ejemplo, sería muy útil para representar la distribución del máximo nivel de un río a partir de los datos de níveles máximos durante 10 años. Es por esto que resulta muy útil para predecir terremotos, inundaciones o cualquier otro desastre natural que pueda ocurrir.

La aplicabilidad potencial de la distribución de Gumbel para representar los máximos se debe a la teoría de valores extremos que indica que es probable que sea útil si la muestra de datos tiene una distribución normal o exponencial.

análisis de frecuencias consiste en el aprovechamiento de estudios sobre la frecuencia de las letras o grupos de letras en los idiomas para poder establecer hipótesis para aprovecharlas para poder descifrar un texto cifrado sin tener la clave de descifrado (romper). Es un método típico para romper cifrados clásicos.

El análisis de frecuencias está basado en el hecho de que, dado un texto, ciertas letras o combinaciones de letras aparecen más a menudo que otras, existiendo distintas frecuencias para ellas. Es más, existe una distribución característica de las letras que es prácticamente la misma para la mayoría de ejemplos de ese lenguaje. Por ejemplo, en inglés la letra E es muy común, mientras que la X es muy rara. Igualmente, las combinaciones ST, NG, TH y QU son pares de letras comunes, mientras que NZ y QJ son raros. La frase mnemotécnica "ETAOIN SHRDLU" agrupa las doce letras más frecuentes en los textos ingleses. En español, las vocales son muy frecuentes, ocupando alrededor del 45 % del texto, siendo la E y la A las que aparecen en más ocasiones, mientras que la frecuencia sumada de F, Z, J, X, W y K no alcanza el 2 %. La regla mnemotécnica para el español sería "EAOSR NIDLC" o bien "EAOSN RILDUT".

Período de retorno

En varias áreas de la ingeniería, el período de retorno es el tiempo esperado o tiempo medio entre dos sucesos de baja probabilidad. Por ejemplo, en ingeniería hidráulica es el tiempo medio entre dos avenidas con caudales iguales o superiores a uno determinado, mientras que en ingeniería sísmica es el tiempo medio entre dos terremotos de magnitud mayor que un cierto valor.

También llamado período de recurrencia, el período de retorno es un concepto estadístico que intenta proporcionar una idea de hasta qué punto un suceso puede considerarse raro. Suele calcularse mediante distribuciones de variables extremales, sobre la base de series de valores extremos registrados dentro de periodos iguales y consecutivos; por ejemplo, en hidrología, se realiza el estudio a partir de tablas con la precipitación máxima recogida en 24 horas en un año, durante una serie de años consecutivos; en ingeniería marítima, tablas con los valores de la mayor altura de ola alcanzada en un año, igualmente a lo largo de una serie de años consecutivos. El ajuste de los datos y la predicción de valores extremos suele realizarse mediante las distribuciones de Gumbel, Log-Pearson, raíz cuadrada del tipo exponencial (sqrt-ETmax)1 y otras.2

El periodo de retorno suele ser un requisito fundamental para el diseño de obras de ingeniería, ya que permite establecer establece el valor mínimo de un determinado parámetro (precipitación de lluvia, altura de ola, velocidad del viento, intensidad de un sismo, etc.) que debe ser soportado por la obra para considerar que es suficientemente segura. Al mismo tiempo que se diseña para ese valor mínimo, se evita el diseño para valores superiores, evitando así un sobredimensionamiento excesivo. No obstante, algunos especialistas consideran que ciertos periodos de retorno son excesivamente conservadores, y que deberían rebajarse por dar lugar a obras demasiado costosas y seguras; se trata de una lucha entre la seguridad y la economía.

MANIPULACION DE DATOSSe hace para obtener información útil de los datos previamente ingresadosal sistema. La manipulación de datos abarca dos tipos de operaciones:1) operaciones para eliminar errores y actualizar conjuntos de datosactuales.2) operaciones que hacen uso de técnicas analíticas para dar respuesta apreguntas específicas formuladas por el usuario.El proceso de manipulación puede ser desde una simple sobre posición dedos o más mapas, hasta una extracción compleja de elementos de informacióndispares, de una gran variedad de fuentes.Los Sistemas de Información Geográfica (SIG), junto con el Diseño Asistidopor Computador (CAD) constituyen una parte integral del trabajo. Esto incluye larepresentación visual de los datos y la integración de las soluciones de manejo dedatos

error de medición se define como la diferencia entre el valor medido y el valor verdadero. Afectan a cualquier instrumento de medición y pueden deberse a distintas causas. Las que se pueden de alguna manera prever, calcular, eliminar mediante calibraciones y compensaciones, se denominan determinísticos o sistemáticos y se relacionan con la exactitud de las mediciones. Los que no se pueden prever, pues dependen de causas desconocidas, o estocásticas se denominan aleatorios y están relacionados con la precisión del instrumento.

MEDIDAS DE DISTANCIAS HORIZONTALES

Las medidas de distancias horizontales, pueden ser obtenidas de forma directa por referencia o de forma indirecta mediante cálculos, en general las medidas directas de longitudes, vienen dadas por un alineamiento previo

ALINEACION

Casi siempre, las obras y/o construcciones se alinean en estructuras con respecto a ciertas referencias que están dentro del área de la obra o bien se alinean

...

Descargar como (para miembros actualizados) txt (20 Kb)
Leer 11 páginas más »
Disponible sólo en Clubensayos.com