ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Programación Lineal


Enviado por   •  19 de Septiembre de 2012  •  Tesis  •  1.398 Palabras (6 Páginas)  •  602 Visitas

Página 1 de 6

Programación lineal

De Wikipedia, la enciclopedia libre

Saltar a: navegación, búsqueda

La Programación Lineal es un procedimiento o algoritmo matemático mediante el cual se resuelve un problema indeterminado, formulado a través de ecuaciones lineales, optimizando la función objetivo, también lineal.

Consiste en optimizar (minimizar o maximizar) una función lineal, denominada función objetivo, de tal forma que las variables de dicha función estén sujetas a una serie de restricciones que expresamos mediante un sistema de inecuaciones lineales.

Contenido

[ocultar]

• 1 Historia de la programación lineal

• 2 Variables

• 3 Restricciones

• 4 Función Objetivo

• 5 Programación entera

• 6 Aplicaciones

• 7 Ejemplo

• 8 Véase también

• 9 Referencias

• 10 Bibliografía

[editar] Historia de la programación lineal

Cronología1

Año Acontecimiento

1826

Joseph Fourier anticipa la programación lineal. Carl Friedrich Gauss

resuelve ecuaciones lineales por eliminación "gaussiana".

1902

Gyula Farkas concibe un método para resolver sistemas de inecuaciones.

1947

George Dantzig publica el algoritmo simplex y

John von Neumann desarrolló la teoría de la dualidad.

Se sabe que Leonid Kantoróvich también formuló la teoría en forma independiente.

1984

Narendra Karmarkar introduce el método del punto interior para resolver

problemas de programación lineal.

El problema de la resolución de un sistema lineal de inecuaciones se remonta, al menos, a Joseph Fourier, después de quien nace el método de eliminación de Fourier-Motzkin. La programación lineal se plantea como un modelo matemático desarrollado durante la Segunda Guerra Mundial para planificar los gastos y los retornos, a fin de reducir los costos al ejército y aumentar las pérdidas del enemigo. Se mantuvo en secreto hasta 1947. En la posguerra, muchas industrias lo usaron en su planificación diaria.

Los fundadores de la técnica son George Dantzig, quien publicó el algoritmo simplex, en 1947, John von Neumann, que desarrolló la teoría de la dualidad en el mismo año, y Leonid Kantoróvich, un matemático ruso, que utiliza técnicas similares en la economía antes de Dantzig y ganó el premio Nobel en economía en 1975. En 1979, otro matemático ruso, Leonid Khachiyan, diseñó el llamado Algoritmo del elipsoide, a través del cual demostró que el problema de la programación lineal es resoluble de manera eficiente, es decir, en tiempo polinomial.2 Más tarde, en 1984, Narendra Karmarkar introduce un nuevo método del punto interior para resolver problemas de programación lineal, lo que constituiría un enorme avance en los principios teóricos y prácticos en el área.

El ejemplo original de Dantzig de la búsqueda de la mejor asignación de 70 personas a 70 puestos de trabajo es un ejemplo de la utilidad de la programación lineal. La potencia de computación necesaria para examinar todas las permutaciones a fin de seleccionar la mejor asignación es inmensa (factorial de 70, 70!) ; el número de posibles configuraciones excede al número de partículas en el universo. Sin embargo, toma sólo un momento encontrar la solución óptima mediante el planteamiento del problema como una programación lineal y la aplicación del algoritmo simplex. La teoría de la programación lineal reduce drásticamente el número de posibles soluciones óptimas que deben ser revisadas.

[editar] Variables

Las variables son números reales mayores o iguales a cero.

En caso que se requiera que el valor resultante de las variables sea un número entero, el procedimiento de resolución se denomina Programación entera.

[editar] Restricciones

Las restricciones pueden ser de la forma:

Tipo 1:

Tipo 2:

Tipo 3:

Donde:

• A = valor conocido a ser respetado estrictamente;

• B = valor conocido que debe ser respetado o puede ser superado;

• C = valor conocido que no debe ser superado;

• j = número de la ecuación, variable de 1 a M (número total de restricciones);

• a; b; y, c = coeficientes técnicos conocidos;

• X = Incógnitas, de 1 a N;

• i = número de la incógnita, variable de 1 a N.

En general no hay restricciones en cuanto a los valores de N y M. Puede ser N = M; N > M; ó, N < M.

Sin embargo si las restricciones del Tipo 1 son N, el problema puede ser determinado, y puede no tener sentido una optimización.

Los tres tipos de restricciones pueden darse simultáneamente en el mismo problema.

[editar] Función Objetivo

La función objetivo puede ser:

ó

Donde:

• = coeficientes son relativamente iguales a cero.

[editar]

...

Descargar como (para miembros actualizados)  txt (9.1 Kb)  
Leer 5 páginas más »
Disponible sólo en Clubensayos.com