Please use this identifier to cite or link to this item: http://www.monografias.ufop.br/handle/35400000/4992
Title: Interpretabilidade de modelos de aprendizagem de máquina para classificação automática de células cervicais.
Authors: Euzebio, Pedro Alves
metadata.dc.contributor.advisor: Bianchi, Andrea Gomes Campos
Queiroz, Rafael Alves Bonfim de
metadata.dc.contributor.referee: Terra, Daniela Costa
Luz, Eduardo José da Silva
Bianchi, Andrea Gomes Campos
Queiroz, Rafael Alves Bonfim de
Keywords: Interpretabilidade
Aprendizagem de máquina
Rede neural convolucional
Floresta aleatória
Center for Recognition and Inspection of Cells Cervix
Issue Date: 2022
Citation: EUZEBIO, Pedro Alves. Interpretabilidade de modelos de aprendizagem de máquina para classificação automática de células cervicais. 2022. 48 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.
Abstract: A utilização de modelos de aprendizado de máquina e profundo para automatização de processos de tomada de decisões obtém sucesso em diferentes contextos. Devido a difusão desses algoritmos, se torna importante que eles sejam interpretáveis para que se mostrem confiáveis ao serem adotados por humanos. Embora o aprendizado alcance resultados de ponta em aplicações do mundo real, seu número excessivo de parâmetros não é bem compreendido pelos humanos. Nesta monografia apresentamos uma investigação da interpretabilidade de métodos de aprendizado de maquina utilizando o método Local interpretable model agnostic explanations (LIME) para prover explicações. Os modelos sobre os quais as estratégias de interpretabilidade serão aplicados são de florestas aleatórias, usados no contexto de classificação de imagens de células cervicais. Os resultados para modelos de árvore de decisão foram explicações individuais das instâncias mais representativas da base dados, seguido de uma análise de ocorrências das características em meio as explicações geradas, além do calculo da permutation importances para fins de comparação.
metadata.dc.description.abstracten: Using machine and deep learning models for automated decision-making processes is successful in different contexts. Due to the dissemination of these algorithms, it becomes important that they are interpretable to be reliable when adopted by humans. Although learning achieves cutting-edge results in real-world applications, its excessive number of parameters is not well understood by humans. We present an interpretability investigation of machine learning methods using the Local interpretable model agnostic explanations (LIME). The interpretability strategies will be applied at Random Forests, used in the context of cervical cell image classification.The results for decision tree models were individual explanations of the most representative instances of the database, followed by an analysis of occurrences of the characteristics among the generated explanations, in addition to the calculation of permutation importances for comparison purposes.
URI: http://www.monografias.ufop.br/handle/35400000/4992
Appears in Collections:Ciência da Computação

Files in This Item:
File Description SizeFormat 
MONOGRAFIA_InterpretabilidadeModelosAprendizagem.pdf2,09 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons