ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Redes Neuronales

fabiolaoshin3 de Abril de 2013

18.707 Palabras (75 Páginas)482 Visitas

Página 1 de 75

UNIIVERSIDAD

CATOLICA SANTA MARIA

DIBUJO INDUSTRIAL II

TEMA: Redes neuronales

DOCENTE: Ing. Wilber Zeballos Gonzales

INTEGRANTES:

Linda Katerine Masias Morales

Duval Bremell Cruz Mamani

Fabiola Bellido Marroquin

Derson Sanca Zuni

II semestre

AQP-2012

INDICE

Resumen 4

Introducción 5

Reseña histórica de la evolución de las redes neurales6

Marco teórico 9

Función de entrada 10

Sumatoria de las entradas pesadas 10

Producto de las entradas pesadas 10

Máximo de las entradas pesadas 10

Función de activación 11

Función escalón 12

Función lineal mixta 12

Función tangente hiperbólica 13

Función sigmoidal 14

Función de gauss 15

Función de salida 16

Propiedades 16

Características de las redes neuronales artificiales 17

Diseño y programación de una RNA (red neuronal artificial) 18

Estructura 19

Tipología de las RNA 20

Topología de las redes neuronales 22

Redes de propagación hacia delante 22

Redes monocapas22

Redes multicapas22

Redes de propagación hacia atrás 23

Conexión entre neuronas23

Redes heteroasociativas23

Redes autoasociativas24

Aprendizaje24

Tipo de entradas 24

Redes analógica 24

Redes discretas 24

Ventajas de las redes neuronales artificiales 25

Aplicaciones 27

Ejemplos 29

Aportaciones 32

Conclusiones 32

Bibliografía 33

Resumen

Existen numerosas formas de definir a las redes neuronales; desde las definiciones cortas y genéricas hasta las que intentan explicar más detalladamente qué son las redes neuronales. Por ejemplo:

Una nueva forma de computación, inspirada en modelos biológicos.

Redes neuronales artificiales son redes interconectadas masivamente en paralelo de elementos simples (usualmente adaptativos) y con organización jerárquica, las cuales intentan interactuar con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biológico.

Ventajas que ofrecen las redes neuronales, son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer características esenciales a partir de entradas que representaninformación irrelevante.

Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial.

Auto-organización. Una red neuronal puede crear su propia organización o representación de la información que recibe mediante una etapa de aprendizaje.

Fácil inserción dentro de la tecnología existente. Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilitará la integración modular en los sistemas existentes.

Las redes neuronales es la base de la tecnología de hoy, aprender algunos conceptos es esencial para tener en cuenta los avances del futuro.

Introducción

El hombre se ha caracterizado siempre por su búsqueda constante de nuevas vías para mejorar sus condiciones de vida. Estos esfuerzos le han servido para reducir el trabajo en aquellas operaciones en las que la fuerza juega un papel primordial. Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos, como por ejemplo, a la construcción de máquinas calculadoras que ayuden a resolver de forma automática y rápida determinadas operaciones que resultan tediosas cuando se realizan a mano.

Las redes neuronales son más que otra forma de emular ciertas características propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan con atención aquellos problemas que no pueden expresarse a través de un algoritmo, se observará que todos ellos tienen una característica en común: la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada. Así, parece claro que una forma de aproximarse al problema consista en la construcción de sistemas que sean capaces de reproducir esta característica humana. En definitiva, las redes neuronales no son más que un modelo artificial y simplificado del cerebro humano, que es el ejemplo más perfecto del que disponemos para un sistema que es capaz de adquirir conocimiento a través de la experiencia. Una red neuronal es “un nuevo sistema para el tratamiento de la información, cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano: la .neurona”.

Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con la (in)actividad de estas neuronas. Las mismas son un componente relativamente simple del ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacen muy poderosas.

Lo que básicamente ocurre en una neurona biológica es lo siguiente: la neurona es estimulada o excitada a través de sus entradas (inputs) y cuando se alcanza un cierto umbral, la neurona se dispara o activa, pasando una señal hacia el axon. Posteriores investigaciones condujeron al descubrimiento de que estos procesos son el resultado de eventos electroquímicos.

Reseña Histórica de la evolución de las redes neurales:

1936 - Alan Turing.

Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Sin embargo, los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, una neurofisiología, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos modelaron una red neuronal simple mediante circuitos eléctricos.

1949 - Donald Hebb.

Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de vista psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. También intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teoría de las Redes Neuronales.

1950 - Karl Lashley.

En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.

1956 - Congreso de Dartmouth.

Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.

1957 - Frank Rosenblatt.

Comenzó el desarrollo del Perceptron. Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. Sin embargo, tenía una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente.

1959 - Frank Rosenblatt:

Principios de Neurodinámica. En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron).

1959-Bernard Widrow:

En Stanford desarrolló un elemento adaptativo lineal llamado "Adaline" (Adaptive Linear Neuron). La Adaline y una versión de dos capas, llamada "Madaline", fueron utilizadas en distintas aplicaciones como reconocimiento de voz y caracteres, predicción del tiempo, control adaptativo y sobre todo en el desarrollo de filtros adaptativos que eliminen los ecos de las líneas telefónicas.

1960 - Bernard Widroff/MarcianHoff.

Desarrollaron el modelo Adaline (ADAptativeLINearElements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.

1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones técnicas (memoria asociativa).

1969 - Marvin Minsky/Seymour Papert.

En este año casi se produjo la “muerte abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron (matemáticamente) que

...

Descargar como (para miembros actualizados) txt (115 Kb)
Leer 74 páginas más »
Disponible sólo en Clubensayos.com