Algoritmos basados en métricas y probabilístico-estadístico
Gerardo EpitacioInforme27 de Junio de 2016
1.797 Palabras (8 Páginas)292 Visitas
[pic 1][pic 2]
UNIVERSIDAD AUTÓNOMA DE GUERRERO
UNIDAD ACADÉMICA DE INGENIERÍA
INGENIERÍA EN COMPUTACIÓN
Reconocimiento de patrones
Algoritmos basados en métricas y probabilístico-estadístico
Materia: Sistemas expertos
Profesor: Antonio Alarcón Paredes
Estudiante: Juan Gerardo Epitacio Gálvez
Chilpancingo Gro. A junio del 2015.
Contenido
Introducción
Monografía del conjunto de datos
Datos tecnicos
¿De qué trata?
¿Qué es cada a tributo?
Ejemplo de un patrón
Descripción de los clasificadores vistos en clase.
K-NN
Euclidiano
LDA (Análisis discriminante lineal)
Pruebas del conjunto de datos en weka
Bayes-Naive Bayes
Functions-Logistic
Functions-Multilayer perceptron
Functions-Simple logistic
Lazi-IBK-1NN
Lazi-IBK-2NN
Lazi-IBK-3NN
Lazi-IBK-k-star
Rules-part
Trees-J48
Conclusiones
Introducción
El reconocimiento de patrones es una rama de la inteligencia artificial que se encarga de estudiar y crear modelos matemáticos para crear, clasificar y reconocer patrones, un patrón es un vector de n elementos que describen las características de un objeto, fenómeno o suceso conocido comúnmente como clase.
Un algoritmo de clasificación se califica en función de que tan exacto asocia un patrón con su respectiva clase.
Enfoque probabilístico-estadístico
Este es el primer enfoque que se desarrolló para la tarea de reconocimiento de patrones, se basa en la teoría de la probabilidad y la estadística, utilizando un análisis de varianzas, covarianzas, dispersión, distribución etc.
En este enfoque se considera a un patrón como un conjunto de n características numéricas que se interpretan como un vector n dimensional, además se asume que la certeza de que el vector represente a una determinada clase viene dada a través de la distribución de probabilidad asociada a las características.
Enfoque basado en métricas
En este enfoque se utilizan las métricas o llamadas también funciones de distancia. Una métrica es una función que define una distancia entre un patrón y otro. Se da, en general el nombre de distancia o disimilaridad entre los patrones i y j a una medida, indicada por d(i,j), que mide el grado de semejanza, entre los patrones. Las métricas más utilizadas en este enfoque son las del matemático alemán Hermann Minkowsky llamadas métricas de Minkowsky.
Monografía del conjunto de datos
Datos técnicos
Nombre: Base de datos de Wisconsin del diagnóstico del cáncer de mama.
Patrones: 569
Atributos: 30
Clases: 2, {M=maligno, B=benigno}
¿De qué trata?
Los datos de los patrones provienen de imágenes digitales resultado de un procedimiento llamado aspiración de aguja fina, (FNA en inglés) realizado a masas fibroquísticos de mama de un paciente. Describen las características del núcleo de las células presentes en la imagen.
¿Qué es cada a tributo?
De las imágenes resultantes se extraen las siguientes 10 características por cada célula encontrada en la imagen.
- Radio (Media de la distancia del centro a los puntos del perímetro).
- Textura (Desviación estándar de los valores en escala de grises).
- Perímetro
- Área
- Suavidad (variación local en la longitud radial)
- Compacidad (perímetro^2 / área-1.0)
- Concavidad (grado de porciones cóncavas del contorno)
- Puntos cóncavos (número de porciones cóncavas del contorno)
- Simetría
- Dimensión fractal (“coastline approximation” – 1)
Del conjunto de células analizadas se calculan los siguientes parámetros en cada una de las 10 características dando un total de 30 características por imagen o paciente.
- El valor de la media del atributo
- Media de los tres valores más grandes de cada atributo
- Error estándar de cada característica
Ejemplo de un patrón
Los primeros 10 atributos son las medias de todas las células, en las 10 características mencionadas anteriormente, siguen las medias de los valores más grandes (10 atributos en negro) y el error estándar (los últimos 10) y por último la clase.
17.99,10.38,122.8,1001,0.1184,0.2776,0.3001,0.1471,0.2419,0.07871,1.095,0.9053,8.589,153.4,0.006399,0.04904,0.05373,0.01587,0.03003,0.006193,25.38,17.33,184.6,2019,0.1622,0.6656,0.7119,0.2654,0.4601,0.1189,M
Descripción de los clasificadores vistos en clase.
K-NN
Para clasificar un patrón, este clasificador calcula con una función de distancia del patrón a clasificar con todos el conjunto de patrones de entrenamiento, de las distancias calculadas se seleccionan las k distancias más cercanas en donde k es un numero arbitrario impar.
De las k distancias más cercanas, se obtiene la clase a la cual pertenecen los k patrones, una vez obteniéndose la clase, se suman las frecuencias con las que la clase aparecen.
El nuevo patrón es clasificado a la clase que tenga más frecuencias en el conteo.
Euclidiano
El clasificador euclidiano utiliza el concepto de centroide para realizar la clasificación de un patrón, el centroide no es nada más que un vector con la media de cada atributo de los patrones que pertenecen a la misma clase, de todo el conjunto de entrenamiento. El centroide se vuelve entonces el representante de cada clase.
Primero se calcula la distancia euclidiana del patrón a clasificar con los k centroides, se obtiene el centroide con la menor distancia, y se clasifica el nuevo patrón dentro de la clase que el centroide represente.
LDA (Análisis discriminante lineal)
Fundamentalmente este clasificador lo que hace es un proceso de discriminación o de separación, busca encontrar la función discriminante que permita separar linealmente a todas las clases.
Es una generalización del método discriminante lineal propuesto por Ronald A. Fisher, caracteriza o separa dos o más clases de objetos o eventos. La combinación resultante es utilizada como un clasificador lineal, o, más comúnmente, para la reducción de la dimensión antes de la clasificación.
Se puede observar de manera gráfica el discriminante lineal encontrado hipotéticamente por LDA en la figura 1-b
[pic 3]
[pic 4][pic 5]
Figura 1, a) Una discriminante lineal poco representativa. B) Discriminante lineal optima, minimiza la separación entre los patrones de la misma clase y maximiza la separación entre patrones de la misma clase.
Para la clasificación LDA utiliza variables independientes continuas (patrones) y solo una variable dependiente categórica (clase).
A continuación se describe a grandes rasgos el algoritmo de clasificación LDA.
- Calcular la probabilidad priori de cada clase (número de patrones de la clase / el número total de patrones).
- Calcular el vector promedio de cada clase.
- Calcular el promedio total (promedio de los vectores promedios o centroides).
- Trasladar los datos, estableciendo como origen a µ (patrón – vector promedio total).
- Del conjunto trasladado calcular la matriz de covarianzas para cada clase.
- Calcular la matriz de covarianzas total.
- Obtener la matriz inversa de S.
- Comenzar la clasificación por cada patrón con la función discriminante dada para cada clase.
[pic 6]
En donde
S = Matriz de covarianzas total.
X= Patrón.
P= Probabilidad priori.
Pruebas del conjunto de datos en weka
Bayes-Naive Bayes
[pic 7]
Conjunto de datos completo.
[pic 8]
Hold out (Split 70%).
[pic 9]
K-fold cross validation 10 folds.
[pic 10]
K-fold cross validation 569 folds.
Functions-Logistic
[pic 11]
Con el conjunto de datos completo
[pic 12]
Hold out (Split 70%)
[pic 13]
K-fold cross validation 10 folds.
[pic 14]
K-fold cross validation 569 folds.
Functions-Multilayer perceptron
[pic 15]
...