Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/5840
Registro completo de metadados
Campo Dublin CoreValorIdioma
dc.contributor.advisorSilva, Rodrigo Cesar Pedrosapt_BR
dc.contributor.advisorSantana, Adrielle de Carvalhopt_BR
dc.contributor.authorAraújo, Victória Mara da Silva-
dc.date.accessioned2023-08-22T14:07:09Z-
dc.date.available2023-08-22T14:07:09Z-
dc.date.issued2023pt_BR
dc.identifier.citationARAÚJO, Victória Mara. XAI Web : aplicação web para explicar revisões realizadas por modelos de aprendizado de máquina. 2023. 42 f. Monografia (Graduação em Engenharia de Controle e Automação) - Escola de Minas, Universidade Federal de Ouro Preto, Ouro Preto, 2023.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/5840-
dc.description.abstractA explicabilidade e a interpretabilidade de modelos de inteligência artificial tem crescido em importância quanto mais a utilização desses modelos e suas aplicações ganham desta que na sociedade. Contudo, uma vez desenvolvido um modelo não interpretável, chamado de caixa-preta, essa interpretabilidade só poderá ser alcançada aplicando-se métodos de inteligência artificial explicável. Tais métodos, para serem utilizados, têm como requisito básico a programação, o que dificulta às diversas análises que podem ser feitas em cima de um modelo. Os modelos podem ser desenvolvidos para diferentes áreas de conhecimento e os seus resultados podem ser posteriormente avaliados por diferentes profissionais capacitados, afim de validar o modo como o modelo tratou as informações. Biólogos, economistas, publicitários e diversos outros profissionais ou estudantes podem eventualmente precisar de uma maior transparência ao avaliar e aplicar os resultados de modelos, mesmo que não possuam conhecimento em programação. Neste trabalho foi desenvolvida uma aplicação web: o XAI web, responsável por aplicar os métodos de interpretabilidade permutation, SHAP e LIME em modelos de aprendizado de máquina supervisionado com o objetivo de tornar esses métodos mais acessíveis para usuários não programadores. Ao final do trabalho, as informações disponibilizadas pela aplicação, através de visualizações gráficas e metadados, podem auxiliar os profissionais na detecção de vieses, permitindo auditoria aos modelos fornecendo melhor entendimento dos modelos de inteligência artificial e assim aumentando a confiança e responsabilidade em suas utilizações.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectInteligência artificial explicávelpt_BR
dc.subjectAprendizado de máquinapt_BR
dc.subjectAprendizado supervisionadopt_BR
dc.subjectPermutationpt_BR
dc.titleXAI Web : aplicação web para explicar revisões realizadas por modelos de aprendizado de máquina.pt_BR
dc.typeTCC-Graduaçãopt_BR
dc.contributor.refereeDuarte, Henrique Oliveirapt_BR
dc.contributor.refereeReis, Agnaldo José da Rochapt_BR
dc.contributor.refereeSilva, Rodrigo Cesar Pedrosapt_BR
dc.contributor.refereeSantana, Adrielle de Carvalhopt_BR
dc.description.abstractenThe explainability and interpretability of artificial intelligence models have been growing in importance as the use of these models and their applications become more prominent in society. However, once a non-interpretable model, termed a ”black-box”, is developed, this interpretability can only be achieved by applying explainable artificial intelligence methods. To use such methods, basic programming is a requirement, which complicates various analyses that can be conducted on a model. This is because models can be devel oped for different fields of knowledge, and their results can later be evaluated by various qualified professionals to validate the way the model handled the information. Biologists, economists, advertisers, and many other professionals or students might occasionally need greater transparency when evaluating and applying the results of models, even if they have no knowledge of programming. In this study, a web application was developed: the XAI web, responsible for applying the interpretability methods permutation, SHAP, and LIME on supervised machine learning models with the aim of making these methods more ac cessible to non-programmers. At the end of the study, the information provided by the application, through graphical visualizations and metadata, can assist professionals in bias detection, allowing for model auditing, providing a better understanding of artificial intelligence models, and thereby increasing trust and responsibility in their uses.pt_BR
dc.contributor.authorID18.1.1045pt_BR
Aparece nas coleções:Engenharia de Controle e Automação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_XaiWebAplicação.pdf2,07 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons