ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

En esta práctica usaremos fundamentalmente las pestañas de preprocesado (Preprocess) y clasificación (Clasify).


Enviado por   •  29 de Abril de 2017  •  Prácticas o problemas  •  468 Palabras (2 Páginas)  •  158 Visitas

Página 1 de 2

SISTEMAS INTELIGENTES

PRÁCTICA: Regresión con MLP en WEKA

1. En la interfaz de usuario de WEKA pulsaremos la opción "Explorer"

[pic 1]

En esta práctica usaremos fundamentalmente las pestañas de preprocesado (Preprocess) y  clasificación (Clasify).

2. Abrir e inspeccionar el conjunto de datos "h2train.arff" en un editor de texto. El conjunto posee muestras de una función contínua de una variable.

Abrir e inspeccionar el conjunto de datos ""h2test.arff" en un editor de texto. El conjunto posee un conjunto adicional de muestras de la misma función.

3. Abrir el fichero h2train.arff en el explorador de Weka.

[pic 2]

4. Abrir la pestaña "Classify" del "Explorer".

[pic 3]

El botón "Choose" nos permite elegir entre diversos clasificadores.

El clasificador por defecto es ZeroR (Zero Rules), que devuelve siempre como resultado la clase de la mayoría (para atributos discretos), o la media (para atributos contínuos). Este clasificador es el más simple posible, e ignora todos los atributos. Por ese motivo suele utilizarse como referencia.

 Si pulsamos en el nombre del clasificador, podemos acceder a la lista de parámetros correspondiente (lógicamente, poco se puede cambiar en un clasificador ZeroR). También pulsando en "More", podemos acceder a una ventana de ayuda con una explicación sobre el significado de cada uno y sus valores posibles.

[pic 4]

5. En "Test options" seleccionar la opción "Supplied test set" y abrir el fichero de datos de prueba h2test.arff

Pulsar la opción Start y analizar la información que aparece en la ventana "Classifier output".

6. Utilizando el botón "Choose" localizar el clasificador basado en un perceptrón multicapa. Analizar su panel de parámetros y la ayuda correspondiente.

[pic 5]

7. Entrenar perceptrones multicapa con 1, 2, 3, 4 y 5 neuronas en la capa oculta utilizando el parámetro "hiddenLayer". Configurar el entrenamiento de la siguiente manera:

a) Como "Test options" utilizar "Use training set", y como "trainingTime"  5000 épocas.

b) Como "Test options" utilizar "Supplied test set", y como "trainingTime"  5000 épocas.

c) Como "Test options" utilizar "Supplied test set", además ajustar los parámetros "validationSetSize" a 10, "validationThreshold" a 100, y como "trainingTime"  5000 épocas.

Para cada opción recoger los datos de "Root mean squared error" (y "Root relative squared error") en la siguiente tabla y analizar los resultados.

¿Se puede identificar algún caso de subajuste? ¿y de sobreajuste? ¿Cuál es la mejor red neuronal?

...

Descargar como (para miembros actualizados) txt (3 Kb) pdf (437 Kb) docx (250 Kb)
Leer 1 página más »
Disponible sólo en Clubensayos.com