ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Inteligencia Artificial


Enviado por   •  25 de Mayo de 2014  •  1.234 Palabras (5 Páginas)  •  155 Visitas

Página 1 de 5

INTELIGENCIA ARTIFICIAL

Definición formal:

Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos.

Rama de la computación que crea programas para máquinas, que imitan el comportamiento y la comprensión humanas.La finalidad es simulación en cierta manera la inteligencia humana.

Estudia las habilidades inteligentes de razonamiento, capacidad de extracción de conclusiones y reacciones ante nuevas situaciones de las computadoras.

LA FINALIDAD DE LA INTELIGENCIA ARTIFICIAL Sus tareas principales:

Organización y funcionamiento de la inteligencia. El desarrollo de sistemas de procesamientos de datos que sean capaces de imitar a la inteligencia humana, realizando tareas que requieran:

• Aprendizaje

• Solución de problemas y decisiones.

• A veces cubre una vasta gama de teorías y prácticas.

La inteligencia artificial se basa en dos áreas de estudio:

El cuerpo humano y el ordenador electrónico. Puesto que la meta es copiar la inteligencia humana, es necesario entender la. Sin embargo, a pesar de todos los progresos en Neurologíay Psicología, la inteligencia del hombre se conoce poco, exceptuando sus manifestaciones externas. Otros investigadores intentan obtener teorías generales dela inteligencia que sean aplicables a cualquier sistema de inteligencia y no solo al del ser humano.

CARACTERÍSTICAS DE LA IA

Una de sus características es que incluye varios campos de desarrollo:

• La robótica,

• La comprensión y traducción de lenguajes,

• El reconocimiento y aprendizaje de palabras de máquinas,

• Sistemas computacionales expertos, que son los encargados de reproducir el comportamiento humano en una sección del conocimiento.

CARACTERÍSTICAS DE LA INTELIGENCIA ARTIFICIAL

• Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada.

• Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas.

o Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.

LAS REDES NEURONALES

La Red Neuronal escoge entre esta información y produce un acuerdo de los factores que influyen en las ventas. El modelo puede entonces ser llamado para dar una predicción de ventas futuras dado un pronóstico de los factores claves. Estos adelantos son debidos a la creación de reglas de aprendizaje de una Red Neuronal, que son los algoritmos usados para "aprender" las relaciones de los datos. Las reglas de aprendizaje habilitan a la red para "ganar conocimiento" desde datos disponibles y aplica ese conocimiento para asistir al gerente para hacer decisiones claves. Aunque su estructura varía según el tipo de red, lo más usual es que haya tres capas de neuronas, una de entrada, que recoge los estímulos, otra oculta, que procesa la información, y otra de salida, que ejecuta la respuesta.

Red Neuronal Artificial

Una Red Neuronal Artificial es configurada para una aplicación específica, tal como el reconocimiento de patrones o clasificación de datos, a través de un proceso de aprendizaje. Aprender en sistemas biológicos implica ajustes para las conexiones sinópticas que existen entre las neuronas. Esto lo hace una Red Neuronal Artificial. Redes Neuronales: Es un sistema de computación que puede actuar en la misma forma que funciona el cerebro humano, o simularlo. Se puede usar para simular una red neuronal por medio de computadoras normales.

Una red neuronal obtiene experiencia analizando automática y sistemáticamente los datos para determinar reglas de comportamiento; con base en ellas, puede realizar predicciones sobre nuevos casos. Estas técnicas se aplican a problemas de clasificación y series de tiempo e identifican conexiones con cosas que otras técnicas no pueden, porque utilizan relaciones lineales y no lineales.

Enfoques:

I.A. Convencional o Simbólica – Deductiva

I.A. Computacional o SubSimbólica - Inductiva

I.A. Convencional o Simbólica – Deductiva:

A partir de Bases de Conocimiento estáticas a las que se le aplica un análisis formal estadístico para emular el comportamiento humano frente a problemas concretos Si el problema cambias sus restricciones se requiere actualizar la base de conocimiento

I.A. Computacional o SubSimbólica –

Inductiva Se basa en el desarrollo de sistemas capaces de lograr un aprendizaje a partir de unos datos empíricos mediante la ejecución de algún algoritmo de optimización

Evolución de la I.A.

En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido. En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aún cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de, a partir de lo cual la ciencia ha pasado por diversas situaciones. En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.

En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth , un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años. En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem Solver (GPS). GPS era un sistema orientado a la resolución de problemas. En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT), el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico.

En 1959 Rosenblatt introduce el Perceptron. A fines de los 50 y comienzos de la década del 60 Robert K. Lindsay desarrolla "Sad Sam", un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación. En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.

En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT. Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques. A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones.

En 1968 Minsky publica Semantic Information Processing. En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig, desarrollan el lenguaje de programación LOGO. En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980. En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizados en IA.

Desde entonces hasta nuestros días ha habido una explosión de un número enorme de logros en las diferentes técnicas de la I.A. algunos de los más famosos Deep Blue, Asimo, NASA y un largo etc.

Requerimientos de la I.A.

Plataforma para cómputo numérico y simbólico

Capacidad de cómputo No Determinístico

Poder de cómputo Distribuido Diseñado como un sistema abierto

Redes Neuronales Artificiales

Algoritmos Evolutivos o Genéticos

Lógica Difusa o Borrosa

Máquinas de Soporte Vectorial

Cómputo Distribuido

Teoría de Resonancia Adaptativa

Visión Artificial

...

Descargar como  txt (8.3 Kb)  
Leer 4 páginas más »
txt