Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/8229
Registro completo de metadados
Campo Dublin CoreValorIdioma
dc.contributor.advisorQueiroz, Rafael Alves Bonfim dept_BR
dc.contributor.authorTaveira, Ulisses Viana-
dc.date.accessioned2025-09-03T10:33:08Z-
dc.date.available2025-09-03T10:33:08Z-
dc.date.issued2024pt_BR
dc.identifier.citationTAVEIRA, Ulisses Viana. Aplicação de florestas aleatórias e técnicas de interpretabilidade na análise de dados biológicos e clínicos. 2024. 53 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2024.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/8229-
dc.description.abstractO aprendizado de máquina está presente em muitas áreas do conhecimento, como a Biologia e a Medicina. Apesar da ampla aplicação de modelos de aprendizado para previsões existe a questão de interpretar os modelos de modo que seja possível a um ser humano compreender seu funcionamento, uma vez que muitos modelos são "caixas pretas". A falta de conhecimento acerca do funcionamento da tomada de decisões de um modelo pode suscitar a replicação de erros, falta de aceitação social e problemas éticos e morais, que são fruto da sua aplicação em produtos para a sociedade. Dois interpretadores agnósticos ao modelo, LIME (Local Interpretable Model-Agnostic Explanations) e SHAP (Shapley Additive Explanations), oferecem interpretação a modelos de aprendizado. O objetivo central deste trabalho consiste em aplicar os métodos LIME e SHAP para interpretação de modelos de aprendizado gerados com o algoritmo Floresta Aleatória para casos de classificação em uma base de dados de botânica (Iris) e uma base de dados médica (Diabetes), e apresentar um panorama do funcionamento dos modelos, dos interpretadores e comparar os resultados de ambos os métodos de interpretabilidade.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectAprendizado de máquinapt_BR
dc.subjectFloresta aleatóriapt_BR
dc.subjectLocal interpretable model-agnostic explanationspt_BR
dc.subjectShapley additive explanationspt_BR
dc.titleAplicação de florestas aleatórias e técnicas de interpretabilidade na análise de dados biológicos e clínicos.pt_BR
dc.typeTCC-Graduaçãopt_BR
dc.contributor.refereeQueiroz, Rafael Alves Bonfim dept_BR
dc.contributor.refereeAlmeida, Danielle Emely de Souzapt_BR
dc.contributor.refereeMatta, Cristiano Amaro dapt_BR
dc.description.abstractenMachine learning is present in many areas of knowledge, such as Biology and Medicine. Despite the wide application of learning models for predictions, there is the issue of interpreting the models so that it is possible for a human being to understand how they work since many models are "black boxes." The lack of knowledge about how a model’s decision-making works can lead to the replication of errors, lack of social acceptance, and ethical and moral problems resulting from its application in products for society. Two model-agnostic interpreters, LIME (Local Interpretable Model-Agnostic Explanations) and SHAP (Shapley Additive Explanations), provide interpretation for learning models. The central objective of this work is to apply the LIME and SHAP methods to learning models generated with the Random Forest algorithm for classification cases in a botanical database (Iris) and a medical database (Diabetes) and present an overview of the functioning of the models and interpreters and compare the results of both interpretability methods.pt_BR
dc.contributor.authorID18.2.4063pt_BR
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_AplicaçãoFlorestasAleatórias.pdf2,61 MBAdobe PDFVisualizar/Abrir


Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.