Trabalho de reconhecimento de padrões
Por: Kleber.Oliveira • 4/12/2018 • 1.898 Palavras (8 Páginas) • 310 Visualizações
...
Distância euclidiana: [pic 50]
O classificador de distância euclidiana realaciona a menor distância de um elemento à média de uma classe mais próxima e classifica-o à esta classe.
Classificador de Mahalanobis
A distância de Mahalanobis é uma métrica que difere da distância Euclidiana por levar em consideração a correlação entre os conjunto de dados. A fórmula para distância de Mahalanobis entre dois vetores da mesma distribuição que possuam uma matriz de covariância Σ é dada por:
[pic 51]
Se a matriz de covariância é a matriz identidade, esta fórmula se reduz à distância euclidiana. Caso contrario sua fórmula é dada por:
[pic 52]
Semelhantemente ao classificador Euclidiano, as distâncias do ponto em relação às classes são utilizadas para atribuir o objeto de entrada à classe cujos parâmetros resultaram no cálculo da menor magnitude.
---------------------------------------------------------------
3 METODOLOGIA
O desenvolvimento do código Matlab neste trabalho deu-se pela criação ordenada de funções para realizar a computação das equações relacionadas à geração dos conjuntos dos vetores de dados, à plotagem dos conjuntos gerados, à aplicação dos vetores na entrada dos classificadores de Bayes, Euclidiano, e de Mahalanobis, este último para fins de comparação mesmo que não tenha sido requisitado pelo exercício proposto, e à computação dos erros obtidos após as aplicações dos classificadores mencionados.
A função de geração dos conjuntos de vetores X5 e X5’ objetivou atender as especificidades propostas para o problema, onde fora definido que um total de 1000 vetores bidimensionais pra cada conjunto fosse gerado de forma aleatória, obedecendo as seguintes características: 3 classes dentro dos dois conjuntos, classes equiprováveis para o conjunto X5, enquanto as probabilidades a priori das classes de X5’ fossem dadas pelo vetor . Os dados de entrada para esta função foram o vetor média m, a matriz de covariância S, a probabilidade à priori P e o número total de vetores de entrada N. A saída da função apresentou os conjuntos X5 e X5’, plotados abaixo: [pic 53]
[pic 54]
Figura 1 – Conjunto X5 de vetores gerados, classes equiprováveis.
[pic 55]
Figura 2 – Conjunto de vetores X5’, com probabilidades à priori definidas pelo vetor P = [0.8 0.1 0.1].
Para a função de plotagem dos dados, foi utilizado como entrada o conjunto de vetores gerados para a representação algébrica dos pontos, as saídas esperadas para cada vetor, representadas pelas cores vermelho, verde e azul na imagem gerada, e o vetor de médias para computar o número de classes existentes.
A função implementada para executar a classificação de Bayes utilizou como dados de entrada o vetor média m , a matriz de covariância S, o vetor de probabilidades à priori P e um conjunto de vetores X para gerar como dado de saída um vetor de valores calculados utilizando o teorema de Bayes atribuindo classes a cada par de entrada.
Para executar a classificação euclidiana por distância mínima utilizou-se como dados de entrada o vetor de médias m e um conjunto de vetores X para gerar como dado de saída, utilizando a métrica euclidiana de valor mínimo de cada vetor à cada uma das médias das classes, para atribuir classificação a cada par de entrada.
A função implementada para executar a classificação por distância mínima de Mahalanobis utilizou como dados de entrada o vetor de médias m, a matriz de covariância S e um conjunto de vetores X para gerar como dado de saída, utilizando a métrica de Mahalanobis de valor mínimo gerada a partir da computação dos valores de médias e matriz de convariância de cada uma das classes, para atribuir classificação a cada par de entrada.
Por fim, a função para geração de uma métrica de desempenho através da computação da diferença entre as saídas obtidas pelas funções dos classificadores e as saídas esperadas gerou como saída a porcentagem de erro de cada uma das técnicas de classificação.
4 RESULTADOS
A tabela 1 apresenta o erro obtido utilizando o vetor de classes equiprováveis X5 como entrada nos classificadores de Bayes, Euclidiano e de Mahalanobis, bem como o resultado obtido ao aplicar-se o vetor X5’ de probabilidade à priori definidas por , onde X5 e X5’ possuem dimensão, número de classes, vetor de médias das classes e matriz de covariância iguais. [pic 56]
Classificador de Bayes
Classificador Euclidiano
Classificador de Mahalanobis
Erro obtido para o conjunto de vetores X5
8.20%
8.20%
8.20%
Erro obtido para o conjunto de vetores X5’
3.1%
5.4%
5.4%
Tabela 1- Resultados obtidos
5 CONCLUSÕES
Como mostrado na tabela 1, para o experimento onde as classes são equiprováveis, com matriz de covariância iguais a 2 vezes a matriz identidade de ordem dois, obteve-se desempenho similar como resultado da aplicação do vetor gerado X5 à entrada dos classificadores de Bayes, Euclidiano e de Mahalanobis. Já para o experimento onde a probabilidade à priori é dada pelo vetor , a tabela 1 mostra que ao aplicarmos o vetor gerado X5’ à entrada dos classificadores de Bayes, Euclidiano e de Mahalanobis, obteve-se desempenho superior na classificação por Bayes.[pic 57]
Comparando os resultados, conclui-se que o classificador de Bayes possui melhor desempenho que os classificadores por distância mínima quando as classes não são equiprováveis e se conhece a probabilidade à priori das mesmas.
Observou-se que quando as classes são equiprováveis, o resultado obtido na classificação dos vetores de entradas apresentam desempenho
...