ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Entrenamiento En Matlab Para Redes Neuronales


Enviado por   •  7 de Marzo de 2014  •  797 Palabras (4 Páginas)  •  413 Visitas

Página 1 de 4

%Algoritmo de Entrenamiento de BACKPROPAGATION para Redes Neuronales

%por Paul Acquatella B.

%Creado: 27 Enero 2009

function entrenamiento = backpropagation(X,D,L,rate,alfa,dmse)

%% 1. Inicializacin Y Clculo de Parmetros

%Parmetros del algoritmo

mse = Inf; %Asumiendo Pesos Iniciales Malos

epoch = 1;

%Se calculan los tamaos respectivos de las matrices

[N,P] = size(X); %Numero de Patrones P y Entradas N

[Q,Pd] = size(D); %Numero de Patrones P y Salidas Q

depth = length(L); %Profundidad de la red - nro capas

%Inicializar Matriz de Pesos para cada capa en el rango [-1,1]

W = cell(1,depth-1); %Pre-alocacion de la matriz de pesos

for m = 1:depth-2

W{1,m} = [-1+2*rand(L(1,m+1),L(1,m)+1)];

end

W{end} = [-1+2*rand(L(end),L(end-1)+1)];

%Inicializar Matrices de los delta-pesos de ajuste

dW = cell(1,depth-1); %Pre-alocacion de los delta pesos

for m = 1:depth-1

dW{m} = zeros(size(W{m}));

end

%Inicializar los campos locales inducidos 'v'

v = cell(1,depth); %Pre-alocacion de los campos locales

for i=1:depth-1;

v{i} = [zeros(L(i),1); 1];

end

v{end} = zeros(L(end),1);

%Inicializar las salidas 'y' de cada capa

y = cell(1,depth-1); %Pre-alocacion de las salidas locales

for i=1:depth-2;

y{i} = zeros(L(i+1),1);

end

y{end} = zeros(L(end),1);

%% 2. Clculo Forward y Backward para cada epoch

while (mse > dmse) && (epoch <= 10000)

e = zeros(Q,P);

...

Descargar como (para miembros actualizados)  txt (2.9 Kb)  
Leer 3 páginas más »
Disponible sólo en Clubensayos.com