ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Historia de la Inteligencia Artificial


Enviado por   •  16 de Marzo de 2017  •  Informes  •  1.860 Palabras (8 Páginas)  •  228 Visitas

Página 1 de 8

Historia de la Inteligencia Artificial

Andrés Casas Jaimes, Camilo Rúa Betancur, Miguel Torres Torres

Universidad Militar Nueva Granada

Bogotá D.C.

Correo-e: u1201417@unimilitar.edu.co, u1201437@unimilitar.edu.co, u1201415@unimilitar.edu.co

Abstract. El abstract debe escribirse en inglés y tener una longitud de entre 100-150 palabras. El tipo de letra es Times New Roman en cursiva y de tamaño 10 puntos que ya viene por defecto en las plantillas  adjuntas. El abstract debe escribirse en inglés y tener una longitud de entre 100-150 palabras. El tipo de letra es Times New Roman en cursiva y de tamaño 10 puntos que ya viene por defecto en las plantillas  adjuntas. El abstract debe escribirse en inglés y tener una longitud de entre 100-150 palabras. El tipo de letra es Times New Roman en cursiva y de tamaño 10 puntos que ya viene por defecto en las plantillas  adjuntas.

1 Surgimiento de la Inteligencia Artificial

Se puede hablar de la inteligencia artificial desde la época de los griegos, el conocido científico matemático Alan Turing hasta los avances que conocemos el día de hoy. Se origina desde los griegos como sus precursores, cuando Aristóteles describió  un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Cstesibio de Alejandría en el año 250 a.C. elaboró la primera máquina auto controlada, la cual era un regulador de flujo de agua que actuaba modificando su comportamiento “racionalmente”  de manera correcta pero obviamente sin razonamiento alguno.

1.1 Lógica Proposicional

En el año de 1847, el matemático y lógico Británico George Boole inventa el álgebra de Boole, el cual marca los fundamentos de la aritmética computacional actual, aproximando la lógica en una dirección, simplificándola a un álgebra simple, incorporando la lógica en las matemáticas llamándole a esto la Lógica Proposicional.

Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios 1 y 0, y a tres operadores: And, Or y Not (y, o, no). La lógica proposicional es un sistema cuyos elementos más simples representan proposiciones, y cuyas constantes lógicas, llamadas conectivas representan operaciones sobre proposiciones, capaces de formar otras proposiciones de mayor complejidad. Esta algebra funciona bajo unos conectivos lógicos que ocupan a la lógica proposicional

Tabla de conectivos lógicos:

CONECTIVA

EXPRESIÓN EN EL LENGUAJE NATURAL

SÍMBOLO

Negación

no

¬

Conjunción

y

^

Disyunción

o

˅

Condición material

Si… entonces

Bicondicional

Si y sólo si

Negación conjunta

Ni… ni

Disyunción excluyente

O bien… o bien

[pic 1]

Tabla 1.  Conectores lógicos implementados en la lógica proposicional.

En la lógica proposicional, las conectivas lógicas se utilizan como funciones de verdad, las cuales toman conjuntos de valores de verdad y devuelven valores de verdad. Por ejemplo, la conectiva lógica no es una función que si toma el valor de verdad V, devuelve F, y si toma el valor de verdad F, devuelve V.

1.2 Lógica Matemática moderna

El filósofo y lógico Alemán Gottlob Frege, conocido como el padre de la lógica matemática  y la filosofía analítica, estableció para el año de 1879 las bases en la inteligencia artificial, bases que habían permanecido casi iguales desde Aristóteles. Mediante la introducción de una nueva sintaxis, con la inclusión de los llamados cuantificadores, que consistían en una teoría de conjuntos que hacen referencia a aquellos símbolos que se utilizan para establecer cuántos elementos de un conjunto determinado, cumplen con cierta propiedad.

1.3 Ingeniería Computacional

Desde las décadas de 1940 se empezaron a crear los primeros computadores electromecánicos y un año después (1941) el ingeniero alemán Konrad Zuse quién es conocido como un pionero de la computación, creó la Primera computadora programable y completamente automática, denominada Z3.

El computador electrónico digital moderno se inventó de manera independiente y prácticamente simultanea por científicos en tres países involucrados en la segunda guerra mundial. El equipo de Alan Turing construyó en 1940, el primer computador operacional electromecánico, llamado Hearth Robinson, con el único propósito de descifrar mensajes alemanes. El primer computador operacional programable fue el Z3, creado por Konrad Zuse en Alemania en el año de 1941. Zuse también inventó los números de coma flotante y el primer lenguaje de programación de alto nivel, Plankalkül.

1.3.1 Modelo de redes neuronales artificiales

Warren McCulloch y Walter Pitts propusieron en el año de 1943 un modelo de redes neuronales artificiales las cuales se basan en la analogía que existe en el comportamiento y funcionamiento del cerebro humano, particularmente en el sistema nervioso, el cual está compuesto por redes de neuronas biológicas que poseen bajas capacidades de procesamiento, sin embargo toda su capacidad cognitiva se sustenta en la conectividad de éstas.

Las redes neuronales artificiales (ANN) son un método de resolver problemas, de forma individual o combinadas con otros métodos, para aquellas tareas de clasificación, identificación, diagnóstico, optimización o predicción en las que el balance de datos o conocimiento se inclina hacia los datos y donde adicionalmente puede haberla necesidad de aprendizaje en tiempo de ejecución y de cierta tolerancia a fallos, La unidad de una red neuronal artificial es un procesador elemental llamado neurona, la cual cuenta con la capacidad limitada de calcular, en general, una suma ponderada de sus entradas y luego le aplica una función de activación para obtener una señal que será transmitida a la próxima neurona. Estas neuronas artificiales se agrupan en capas y poseen un alto grado de conectividad que es ponderada por los pesos. A través de un algoritmo de aprendizaje supervisado o no, las ANN se ajustan en cuanto arquitectura y parámetros de manera de poder minimizar alguna función de error que indique el grado de ajuste a los datos y la capacidad de generalización de las ANN.

...

Descargar como (para miembros actualizados)  txt (12.7 Kb)   pdf (211.3 Kb)   docx (576.8 Kb)  
Leer 7 páginas más »
Disponible sólo en Clubensayos.com