Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/4992
Título: Interpretabilidade de modelos de aprendizagem de máquina para classificação automática de células cervicais.
Autor(es): Euzebio, Pedro Alves
Orientador(es): Bianchi, Andrea Gomes Campos
Queiroz, Rafael Alves Bonfim de
Membros da banca: Terra, Daniela Costa
Luz, Eduardo José da Silva
Bianchi, Andrea Gomes Campos
Queiroz, Rafael Alves Bonfim de
Palavras-chave: Interpretabilidade
Aprendizagem de máquina
Rede neural convolucional
Floresta aleatória
Center for Recognition and Inspection of Cells Cervix
Data do documento: 2022
Referência: EUZEBIO, Pedro Alves. Interpretabilidade de modelos de aprendizagem de máquina para classificação automática de células cervicais. 2022. 48 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.
Resumo: A utilização de modelos de aprendizado de máquina e profundo para automatização de processos de tomada de decisões obtém sucesso em diferentes contextos. Devido a difusão desses algoritmos, se torna importante que eles sejam interpretáveis para que se mostrem confiáveis ao serem adotados por humanos. Embora o aprendizado alcance resultados de ponta em aplicações do mundo real, seu número excessivo de parâmetros não é bem compreendido pelos humanos. Nesta monografia apresentamos uma investigação da interpretabilidade de métodos de aprendizado de maquina utilizando o método Local interpretable model agnostic explanations (LIME) para prover explicações. Os modelos sobre os quais as estratégias de interpretabilidade serão aplicados são de florestas aleatórias, usados no contexto de classificação de imagens de células cervicais. Os resultados para modelos de árvore de decisão foram explicações individuais das instâncias mais representativas da base dados, seguido de uma análise de ocorrências das características em meio as explicações geradas, além do calculo da permutation importances para fins de comparação.
Resumo em outra língua: Using machine and deep learning models for automated decision-making processes is successful in different contexts. Due to the dissemination of these algorithms, it becomes important that they are interpretable to be reliable when adopted by humans. Although learning achieves cutting-edge results in real-world applications, its excessive number of parameters is not well understood by humans. We present an interpretability investigation of machine learning methods using the Local interpretable model agnostic explanations (LIME). The interpretability strategies will be applied at Random Forests, used in the context of cervical cell image classification.The results for decision tree models were individual explanations of the most representative instances of the database, followed by an analysis of occurrences of the characteristics among the generated explanations, in addition to the calculation of permutation importances for comparison purposes.
URI: http://www.monografias.ufop.br/handle/35400000/4992
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_InterpretabilidadeModelosAprendizagem.pdf2,09 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons