ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

ENTROPÍA - INCERTIDUMBRE - INFORMACIÓN


Enviado por   •  11 de Julio de 2015  •  700 Palabras (3 Páginas)  •  192 Visitas

Página 1 de 3

ENTROPÍA - INCERTIDUMBRE - INFORMACIÓN

La entropía es una medida de desorden tomada de la termodinámica, en donde ésta se relaciona con la probabilidad de ocurrencia de un arreglo molecular particular en un gas. Cuando se traspone a la cibernética y a la teoría general de sistemas, la entropía se refiere a la cantidad de variedad en un sistema, donde la variedad puede interpretarse como la cantidad de incertidumbre que prevalece en una situación de elección con muchas alternativas distinguibles.

La entropía, incertidumbre y desorden, son conceptos relacionados. Utilizamos el término dualismo o dualidad, para referirnos a los valores significativos que adquieren estas variables en los dos extremos de sus espectros respectivos. Un sistema muestra una alta o baja entropía (variedad, incertidumbre, desorden). Reducir la entropía de un sistema, es reducir la cantidad de incertidumbre que prevalece. La incertidumbre se disminuye al obtenerse información. La información, en el sentido de la teoría sobre la información, posee un significado especial que está ligado al número de alternativas en el sistema. Un ejemplo simple aclarará el punto. Si uno se enfrenta a elegir entre ocho alternativas, un cálculo simple mostrará que la entropía de la incertidumbre que existe es de tres dígitos binarios. Cuatro elecciones entre las ocho alternativas, reducirán la incertidumbre a dos dígitos binarios. Otras dos elecciones estrecharán la incertidumbre a dos alternativas y la entropía a un dígito binario. Con sólo dos alternativas restantes, una elección final elimina la incertidumbre y la entropía se reduce a cero. La cantidad de información proporcionada es la negativa de la entropía que se ha reducido. Se requieren tres dígitos binarios de información para eliminar la incertidumbre de ocho alternativas. Wiener y Shannon influyeron en el establecimiento de la equivalencia de la entropía (incertidumbre) con la cantidad de información, en el sentido de la teoría sobre la información. Estos conceptos sostienen un punto central en la teoría general de sistemas, similar al que sustentan los conceptos de fuerza y energía en la física clásica.

Estos conceptos pueden utilizarse para caracterizar los sistemas vivientes y no vivientes. Los sistemas no vivientes (considerados generalmente como cerrados), tienden a moverse hacia condiciones de mayor desorden y entropía. Los sistemas vivientes (y por tanto abiertos), se caracterizan como resistentes a la tendencia hacia el desorden y se dirigen hacia mayores niveles de orden. La teoría general de sistemas explica estas tendencias por medio de a) el procesamiento de información que causa una reducción correspondiente en la entropía positiva, y b) derivar energía del medio (un incremento de entropía negativa), que contradice las tendencias declinantes de procesos naturales irreversibles (un incremento en la entropía positiva).

...

Descargar como (para miembros actualizados)  txt (4.7 Kb)  
Leer 2 páginas más »
Disponible sólo en Clubensayos.com