ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

EJERCICIOS DE REDES NEURONALES


Enviado por   •  21 de Abril de 2022  •  Ensayos  •  599 Palabras (3 Páginas)  •  556 Visitas

Página 1 de 3

EJERCICIOS DE REDES NEURONALES:

EJERCICIO 1: Perceptrón

Se busca construir un sistema automático que coloque los ingresos en un deposito seguro para eso tomaremos como ejemplo fresas y naranjas. Se busca que el sistema automático coloque las fresas en el deposito rojo y las naranjas en el azul. Se usará dos sensores para determinar el fruto, una galga extensiométrica para medir el peso p1 del fruto y una cámara para determinar el color promedio p2 del fruto. Diseñe una red neuronal perceptrón que realice la clasificación entre fresas y naranjas. Considere que los sensores entregan los siguientes niveles de voltaje para las siguientes 3 fresas:

[pic 1]

Y para las 3 naranjas siguientes son:

[pic 2]

Determinamos los pesos sinápticos: graficamos los puntos

[pic 3]

Ecuación: -p1-p2+0,5=0

Con esto determinamos los pesos sinápticos y la polarización:

   , b=0,5[pic 4]

Ejercicio 2:

Un sistema operativo tiene una base de datos de 500 000 libros económicos virtuales aprox. Y busca clasificarlo en 4 conjuntos mediante 2 criterios peso y frecuencia de uso de los libros.

Todo esto para decidir en qué carpeta especifica serán colocadas. Diseñe una red neuronal perceptrón para que automáticamente clasifique los libros, se detallan los siguientes patrones de prueba:

Ligeros y poco usados.      [pic 5]

Ligeros y muy usados.       [pic 6]

Pesados y pocos usados.     [pic 7]

Pesados y muy usados.        [pic 8]

  a1,a2 neuronas[pic 9]


método grafico:[pic 10]

determinaremos 2 fronteras de decisión que clasifiquen las 4 clases:

neurona 1:

5p1-p2-5=0

Neurona 2:

2p1+p2-10=0

Con estas dos ecuaciones, obtenemos:

Matriz de peso sináptico:[pic 11]

Vector de polarización: [pic 12]

Ejercicio 3:

Veamos ahora un ejemplo de la regla de aprendizaje del Perceptrón simple sobre la función lógica OR, dada por la siguiente relación:

[pic 13]

vamos a considerar estos cuatro casos y tomamos como pesos w1 = 1, w2 = 1 y θ = 0,5 = w3, que define el separador x1 +x2 −0,5 = 0 (ya que x3 = −1). Tomamos η = 0,25 > 0

[pic 14]

Caso 1: (-1,-1)

y = −1−1−0,5 = −2,5 < 0 = y = 1

luego (-1,-1) está bien clasificado ya que z = y = −1.

Caso 2: (1,-1)

 y = 1−1−0,5 = −0,5 < 0 = y = 1

luego (1,-1) está mal clasificado ya que z = 1 ≠ y = −1.

Aplicamos la regla del Perceptrón:

w1(1) = w1(0) +0,25 · [z (0) −y (0)] · x1(0) = 1+0,25 · 2 · 1 = 1,5

...

Descargar como (para miembros actualizados)  txt (3.3 Kb)   pdf (275 Kb)   docx (773.6 Kb)  
Leer 2 páginas más »
Disponible sólo en Clubensayos.com