ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL


Enviado por   •  23 de Abril de 2018  •  Trabajos  •  2.620 Palabras (11 Páginas)  •  84 Visitas

Página 1 de 11

[pic 1][pic 2]


[pic 3]

INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL.-

        En los últimos 100 años, se han producido enormes avances dentro de todos los campos de la ciencia, debido a la aparición de computadoras y ordenadores que han permitido resolver cuestiones matemáticas a gran velocidad, integrar al hombre en una nueva forma de comunicación e intercambio de datos, así como en la elaboración de mecanismos tecnológicos de alta gama, que incluso puede expresar actitudes y movimientos humanos. Pero el paso más importante ha llegado a la humanidad a través de la IA (inteligencia artificial). Una propuesta que está dando unos resultados muy satisfactorios, pero que también preocupa a seres humanos que se plantean ese “hasta donde” llegará el desarrollo de las máquinas y de sus capacidades. ¿Pero cómo se ha ido produciendo todo eso?

        Se considera que la inteligencia artificial nace en 1943 con Warren McCulloch y Walter Pitts, que proponen una representación simbólica de la actividad cerebral por medio de unas neuronas abstractas, un modelo de neurona del cerebro humano y animal. Sin embargo, este estudio quedó planteado sin más y no llegó a nada importante..

        Poco tiempo después, Norbert Wiener siguió con estas ideas y dio lugar al campo de la “cibernética”, dando nacimiento realmente a la IA en los años 50. Tomó como base la neurona de McCulloch y dijo:

El cerebro es un solucionador inteligente de problemas, de modo que imitemos al cerebro”.

        Se consideraba que el cerebro es un coordinador de tareas simples que se relacionan entre sí por símbolos. La IA vino a tratar de solucionar de manera inteligente los problemas que surgen en la vida cotidiana.

Definición de IA:

        La IA se puede definir como la ciencia que intenta la creación de programas para máquinas que imiten el comportamiento humano y la comprensión humana y sean capaces de aprender, reconocer y pensar.

        Por lo tanto, estudia la creación y diseño de sistemas capaces de resolver problemas cotidianos por sí mismos, utilizando como paradigma la inteligencia humana.

HISTORIA DE LA IA:

        En los años 50 se consigue dar un gran salto en la IA con la creación del sistema “perceptrón de Rossenblat”. Sin embargo, por diferentes razones, este trabajo no se desarrolló mucho durante un tiempo, hasta que en los años 60 Newell y Simon, que trabajaban en la demostración de teoremas y del juego de ajedrez por ordenador, crean un programa llamado GPS (General problems solver – Solucionador general de problemas).

        Para trabajar con este sistema, el usuario definía un entorno en función de los objetos y los operadores que se podían aplicar sobre ellos. El sistema trabajaba con torres de Hanoi y criptoaritmética, sobre todo reglas heurísticas, operando con microcosmos formalizados que representaban los parámetros o probabilidades dentro de los cuales se podían resolver problemas.

        A partir de aquí la IA se volvió imparable hasta nuestros días, donde el desarrollo de los últimos 20 años ha dado lugar a numerosos avances.

        A continuación, explicaremos de manera general cada uno de estos elementos que componen la aplicación de la IA.

GPS:

        NO puede resolver problemas del mundo real. Ni problemas médicos, ni tomar decisiones importantes. Maneja reglas heurísticas (aprende a partir de sus propios descubrimientos) que le conducen al destino deseado mediante el método de ensayo y error.

EL SISTEMA EXPERTO:

En los años 70 Edward Feigenbaum creó el sistema EXPERTO destinado a resolver problemas de la vida cotidiana más concretos.

        El 1º sistema experto se llamó DENDRAL (1967) y era un intérprete de espectrograma de masa. Más adelante surgió el MYCIN (1974), más desarrollado, siendo capaz de diagnosticar trastornos y recetar la medicación correspondiente. Una variante más sofisticada fue el PUFF, que se utilizó en el Medical Center de San Francisco (EE. UU.). En los 80 se inició el desarrollo de lenguajes especiales para la IA como el LISP o el PROLOG, permitiendo crear sistemas muy sofisticados, como el EURISKO, que se perfecciona a sí mismo por medio de inducción, mejorando progresivamente sus reglas heurísticas.

        Así, hemos visto que los sistemas de IA contienen de base, reglas heurísticas y torres de Hanoi. Pero qué son:

  1. Reglas heurísticas: Newman y Morgenstern establecieron que en condiciones de incertidumbre, el modelo convencional de elección racional es el modelo de la utilidad esperada, que es la mejor manera de elegir entre opciones inciertas. Sin embargo, Kahneman y Tversky expusieron que ésta no era la manera más satisfactoria en que los individuos deciden en la realidad porque cuando el problema es demasiado complejo, el modelo de utilidad esperada se viola y los individuos tienen dificultades para calcular lo que prescribe el modelo, ya sea porque son inexpertas o porque en la situación se ponen en juego elementos de poco valor. Asimismo, también establecieron que el ser humano puede incluso deducir erróneamente cuáles son los hechos relevantes y por otra parte, muchos de los errores que cometen los humanos no son aleatorios sino sistemáticos. Estos dos últimos autores identificaron 3 reglas heurísticas o reglas prácticas muy sencillas que son las que utilizamos para hacer juicios de valor y deducir cosas sobre nuestro entorno. Estas reglas son eficientes porque nos ahorran esfuerzos cognitivos y dan respuestas más o menos correctas la mayoría de las veces, aunque también generan errores predecibles. Estas reglas son:
  1. Regla de disponibilidad: Se trata del hecho de recordar ejemplos de cosas que ocurren frecuentemente. La Facilidad para recordar = mayor frecuencia en la sucesión de los hechos. Sin embargo, los expertos en memoria añaden la intensidad del hecho, así como el que sea reciente, como algo fundamental para recordar.
  2. Regla de representatividad: responde a la cuestión ¿qué probabilidades hay de que el objeto A pertenezca a la clase B? El ejemplo más claro podemos verlo si consideramos y queremos estimar la probabilidad de que una persona tímida sea o bien un vendedor o un bibliotecario. Sin embargo, el hecho de que pertenecer a una categoría está sesgado porque influyen muchos otros factores, como por ejemplo el hecho de saber cuántas veces aparece el bibliotecario ante un grupo de personas, y cuántas veces lo haría un vendedor.
  3. Regla de anclaje y ajuste: 1º se elige un ancla = una estimulación preliminar y después se ajusta según la información adicional que parezca relevante, aunque esto no ofrece garantía porque el ajuste puede ser muy escaso aún cuando tenga relación con el anclaje.

Así se llegan a hacer otras valoraciones de estrategia o de aplicación como la ley de Webwe-Fechner, de la ley psicofísica, que trata de describir cuánto tiene que cambiar un estímulo para poder percibir la diferencia de intensidad. Establecieron que la diferencia de percepción era proporcional a la intensidad del estímulo. Así, resumiendo este apartado, se puede decir que hay ejemplos de conductas que contradicen las predicciones del modelo de elección racional. Un caso importante puede explicarse por las reglas heurísticas o prácticas para estimar importantes factores de decisión. Así los modelos basados en la conducta suelen predecir mucho mejor las decisiones reales que el modelo de la elección racional, evitando ciertas trampas que existen en el proceso de tomar decisiones.

...

Descargar como (para miembros actualizados)  txt (16.1 Kb)   pdf (227.9 Kb)   docx (49.7 Kb)  
Leer 10 páginas más »
Disponible sólo en Clubensayos.com