Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/3941
Título: Estratégia multimodelo de redes neurais convolucionais para classificação de expressões faciais.
Autor(es): Almeida, Luciano Ermelindo
Orientador(es): Cámara Chávez, Guillermo
Reis, Agnaldo José da Rocha
Membros da banca: Cámara Chávez, Guillermo
Reis, Agnaldo José da Rocha
Silva, Rodrigo César Pedrosa
Silva, Pedro Henrique Lopes
Palavras-chave: Expressão facial
Rede neural convolucionais
Fusão - sistema de votação suave
Redes neurais - computação
Data do documento: 2022
Referência: ALMEIDA, Luciano Ermelindo. Estratégia multimodelo de redes neurais convolucionais para classificação de expressões faciais. 2022. 44 f. Monografia (Graduação em Engenharia de controle e automação) - Escola de Minas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.
Resumo: O reconhecimento de emoções desempenha um papel promissor no sistema de interação homem máquina. Diferentes técnicas tem sido desenvolvidas para a solução deste desafio, dentre elas as arquiteturas de redes neurais convolucionais estão entre as mais eficientes. Este trabalho apresenta uma solução multimodelo, onde diferentes redes neurais convolucionais são treinadas de forma individual e a fusão das redes acontece no nível de decisão utilizando um sistema de votação que garante a diminuição dos erros das classificações de cada rede. Ao todo quatro CNN’s foram treinadas na base de dados FER2013+, que é uma base de dados bem diversificada, as quatro redes utilizaram a técnica de fine tuning cada uma com seu respectivo modelo base, a saber, VGG16, VGG19, Xception e o InceptionV3, desta maneira cada uma das redes adquire capacidades diferentes de reconhecer as expressões, garantindo a eficiência da fusão. Cada uma das quatro redes obtiveram acurácias individuais de 81,4%, 81,1%, 79,8% e 80,5%, para as oito expressões de emoções faciais universais, felicidade, surpresa, tristeza, raiva, nojo, medo, desprezo e neutro, fazendo a fusão dos quatro modelos a acurácia atinge 84,2%, para a fusão contendo três modelos a acurácia é de 83,8% e o sistema multimodelo com duas arquiteturas o resultado é de 82,4%.
Resumo em outra língua: Emotion recognition plays a promising role in the human-machine interaction system. Different techniques have been developed to solve this challenge, among them the convolutional neural network architectures are among the most efficient. This work presents a multi-model solution, where different convolutional neural networks are individually trained and the fusion of networks takes place at the decision level using a voting system that guarantees the reduction of errors in the classifications of each network. Altogether four CNNs were trained in the FER2013+ database, which is a well-diversified database, the four networks used the technique defines tuning each one with its respective base model, namely, VGG16, VGG19, Xception, and InceptionV3, in this way each of the networks acquires different capabilities to recognize expressions, ensuring the efficiency of fusion. Each of the four networks had individual accuracies of 81.4%, 81.1%, 79.8%, and 80.5% for the eight expressions of universal facial emotions, happiness, surprise, sadness, anger, disgust, fear, contempt, and neutral, making the fusion of the four models the accuracy reaches 84.2%, for the fusion containing three models the accuracy is 83.8% and the multi-model system with two architectures the result is 82.4%.
URI: http://www.monografias.ufop.br/handle/35400000/3941
Aparece nas coleções:Engenharia de Controle e Automação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_EstratégiaMultimodeloRedes.pdf2,59 MBAdobe PDFVisualizar/Abrir


Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.