Inteligencia Artificial
amancera4 de Diciembre de 2013
4.717 Palabras (19 Páginas)340 Visitas
VISION GENERALIZADA DE LA MATERIA INTELIGENCIA ARTIFICIAL
1. RESUMEN
Este documento está centrado en analizar más a fondo la inteligencia artificial con sus diferentes paradigmas, siendo los más relevantes las redes neuronales, algoritmos genéticos, sistemas de lógica difusa y autómatas programables, con sus diferentes aplicaciones en la vida cotidiana y más específicamente aplicados a las soluciones de problemas relacionados con la informática.
Se considera que la producción en nuestros días puede estar muy apoyada en las nuevas tecnologías, como es la inteligencia artificial ya sea como soporte para una toma de decisiones más eficaz o en la ayuda de labores, tareas, que exijan gran demanda de tiempo o representen un alto grado de peligrosidad al ser humano.
Palabras claves: Inteligencia artificial, redes neuronales, algoritmos genéticos, sistemas de lógica difusa, producción.
2. INTRODUCCIÓN
La inteligencia artificial es un área de la investigación donde se desarrollan algoritmos para controlar cosas, y es así que en 1956 se establecen las bases para funcionar como un campo independiente de la informática.
Son muchos los estudios y aplicaciones que se han logrado con el desarrollo de esta ciencia, entre las cuales se tienen redes neuronales aplicadas al control de la calidad donde la red evalúa si determinado producto cumple o no con las especificaciones demandadas, control del proceso químico en el grado de acidez, algoritmos genéticos aplicados al problema cuadrático de asignación de facilidades que trata de la asignación de N trabajos en M máquinas, los autómatas programables que se usan para la optimización de sistemas de producción, en fin, todavía queda mucho por descubrir con respecto a las aplicaciones de esta ciencia.
3. HISTORIA DE LA INTELIGENCIA ARTIFICIAL
Se podría situar los orígenes de la inteligencia artificial con la definición de la neurona formal dada por McCulloch & Pitts [1943], como un dispositivo binario con varias entradas y salidas.
Ya en el año de 1956 se volvió a tocar el tema de inteligencia artificial (IA) en el instituto de tecnología de Massachussets por John McCarthy donde se celebró la conferencia de Dartmouth en Hanover (Estados Unidos). En este certamen McCarthy, Marvin Minsky, Nathaniel Rochester y Claude E. Shannon establecieron las bases de la inteligencia artificial como un campo independiente dentro de la informática. Previamente, en 1950, Alan M. Turing había publicado un artículo en la revista Mind, titulado "Computing Machinery and Intelligence" (Ordenador e inteligencia), en el que reflexionaba sobre el concepto de inteligencia artificial y establecía lo que luego se conocería como el test de Turing, una prueba que permite determinar si un ordenador o computadora se comporta conforme a lo que se entiende como artificialmente inteligente o no.
La inteligencia artificial en los años sesenta, como tal no tuvo muchos éxitos ya que requería demasiada inversión para ese tiempo y la mayoría de tecnologías eran propias de grandes centros de investigación. En los años 70 a 80 se lograron algunos avances significativos en una de sus ramas llamada Sistemas Expertos, con la introducción de PROLOG LISP. Básicamente lo que pretende la inteligencia artificial es crear una maquina secuencial programada que repita indefinidamente un conjunto de instrucciones generadas por un ser humano.
En la actualidad mucho se sigue investigando en los grandes laboratorios tecnológicos educativos y privados; sin dejar de lado los notables avances en sistemas de visión por computadora (aplicados por ejemplo, para la clasificación de artículos revueltos -tornillería o piezas marcadas por códigos de colores, por citar un caso), control robótico autónomo (Sony, con sus robots capaces de moverse en forma casi humana y reaccionar a presiones tal como lo hace una persona al caminar), aplicaciones de lógica difusa (aplicación del tracking automático en nuestras video caseteras, por citar una aplicación), etc. Sin embargo, la Inteligencia Artificial sigue en su gran mayoría acotado por su dominio tecnológico, y poco ha podido salir al mercado del consumidor final o a la industria.
4. DEFINICIONES DE INTELIGENCIA ARTIFICIAL
Con respecto a las definiciones actuales de inteligencia artificial se encuentran autores como Rich & Knight [1994], Stuart [1996], quienes definen en forma general la IA como la capacidad que tienen las máquinas para realizar tareas que en el momento son realizadas por seres humanos; otros autores como Nebendah [1988], Delgado [1998], arrojan definiciones más completas y las definen cómo el campo de estudio que se enfoca en la explicación y emulación de la conducta inteligente en función de procesos computacionales basadas en la experiencia y el conocimiento continuo del ambiente.
Hay más autores como Marr [1977], Mompin [1987], Rolston [1992], que en sus definiciones involucran los términos de soluciones a problemas muy complejos.
A criterio de los autores las definiciones de Delgado y Nebendan son muy completas, pero sin el apoyo del juicio formado, emocionalidad del ser humano pueden perder peso dichas soluciones, por eso, hay que lograr un ambiente sinérgico entre ambas partes para mayor efectividad de soluciones.
5. TENDENCIAS DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL
Actualmente según Delgado [1998], Stuart [1996], existen tres paradigmas en cuánto al desarrollo de la IA.
⦁ Redes Neuronales.
⦁ Algoritmos genéticos.
⦁ Sistemas de Lógica difusa.
Pero se han venido destacando otros paradigmas como lo son los agentes de decisión inteligente y autómatas programables, con respecto a estos últimos se suelen emplear en gran medida en procesos industriales de acuerdo a necesidades a satisfacer como, espacio reducido, procesos de producción periódicamente cambiantes, procesos secuenciales, maquinaria de procesos variables, etc.
A juicio de los autores se determina que todos estos desarrollos acortan bastante el proceso de decisiones y optimizan las mismas, pero ahí que tener mucho cuidado ya que hay que analizar los diferentes impactos ya sea ambiental, social, político y económico.
5.1 Redes neuronales
A grandes rasgos, se recordará que el cerebro humano se compone de decenas de billones de neuronas interconectadas entre sí formando circuitos o redes que desarrollan funciones específicas.
Una neurona típica recoge señales procedentes de otras neuronas a través de una pléyada de delicadas estructuras llamadas dendritas. La neurona emite impulsos de actividad eléctrica a lo largo de una fina y delgada capa denominada axón, que se escinde en millares de ramificaciones.
Las extremidades de estas ramificaciones llegan hasta las dendritas de otras neuronas y establecen conexión llamada sinapsis, que transforma el impulso eléctrico en un mensaje neuroquímico mediante liberación de unas sustancias llamadas neurotransmisores que excitan o inhiben sobre la neurona, de esta manera la información se transmite de neuronas a otras y va siendo procesada a través de las conexiones sinápticas y el aprendizaje varía de acuerdo a la efectividad de la sinapsis.
Figura 1. Neuronas y conexiones sinápticas.
Fuente: Sandra Patricia Daza, Universidad Militar Nueva Granada, 2003.
Un psicólogo D Hebb [1949], introdujo dos ideas fundamentales que han influido de manera decisiva en el campo de las redes neuronales. La hipótesis de Hebb, basadas en investigaciones psicofisiológicas, presenta de manera intuitiva el modo en que las neuronas memorizan información y se plasman sintéticamente en la famosa regla de aprendizaje de Hebb (también conocida como regla de producto). Esta regla indica que las conexiones entre dos neuronas se refuerzan si ambas son activadas. Muchos de los algoritmos actuales proceden de los conceptos de este psicólogo.
Widrow [1959], publica una teoría sobre la adaptación neuronal y unos modelos inspirados en esta teoría, el Adaline (Adaptative Linear Neuron) y el Madaline (Múltiple Adaline). Estos modelos fueron usados en numerosas aplicaciones y permitieron usar, por primera vez, una red neuronal en un problema importante del mundo real: filtros adaptativos que eliminan ecos en las línea telefónicas.
Hopfield [1980], elabora un modelo de red consistente en unidades de proceso interconectadas que alcanzan mínimos energéticos, aplicando los principios de estabilidad desarrollados por Grossberg. El modelo resultó muy ilustrativo sobre los mecanismos de almacenamiento y recuperación de la memoria. Su entusiasmo y claridad de presentación dieron un nuevo impulso al campo y provocó el incremento de las investigaciones.
Otros desarrollos destacables de esta década son la máquina de Boltzmann y los modelos Bam (Bi-directinal Associative Memory).
Analogía de redes neuronales biológicas y artificiales
Según Herrera Fernandez
Las neuronas se modelan mediante unidades de proceso, caracterizadas por una función de actividades que convierte la entrada total recibida de otras unidades en un valor de salida, el cual hace la función de tasa de disparo de la neurona.
Las conexiones sinápticas se simulan mediante conexiones ponderadas, la fuerza o peso de la conexión cumple el papel de la efectividad de la sinapsis. Las conexiones determinan si es posible que una unidad influya sobre otra.
Una unidad de proceso recibe varias entradas procedentes de las salidas de otras unidades de proceso de entrada total de una unidad de proceso y se suele calcular como la suma de todas las entradas ponderadas, es decir, multiplicadas por el peso de la conexión.
...