Por favor, use este identificador para citar o enlazar este ítem:
http://www.monografias.ufop.br/handle/35400000/7062
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | Silva, Pedro Henrique Lopes | pt_BR |
dc.contributor.author | Paixao, Igor Santiago Almeida | - |
dc.date.accessioned | 2024-10-18T12:38:07Z | - |
dc.date.available | 2024-10-18T12:38:07Z | - |
dc.date.issued | 2024 | pt_BR |
dc.identifier.citation | PAIXAO, Igor Santiago Almeida. Um estudo sobre aataset Ddstillation. 2024. 82 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2024. | pt_BR |
dc.identifier.uri | http://www.monografias.ufop.br/handle/35400000/7062 | - |
dc.description.abstract | Dataset Distilation (DD) é uma técnica utilizada para gerar um conjunto de dados sintéticos, condensado e informativo, capaz de substituir o conjunto de dados original no treinamento de modelos de aprendizado de máquina. Este estudo explora a aplicação de técnicas de DD em um novo domínio, utilizando o conjunto de dados PathMNIST para avaliar o desempenho desses métodos. Nossa abordagem foca na comparação de duas técnicas consolidadas, Dataset Distillation by Gradient Matching (DD-GM) e Dataset Distillation by Automatic Training Trajectories (ATT) aplicadas à esse conjunto de dados. Os resultados demonstram a viabilidade das técnicas de DD em tarefas complexas de imagens médicas, fornecendo insights sobre a eficácia dessas abordagens em novos contextos. Além disso, este trabalho apresenta uma avaliação abrangente de ambos os métodos, destacando seus pontos fortes e limitações, e contribuindo com descobertas importantes para a aplicação de DD em conjuntos de dados mais desafiadores e específicos. | pt_BR |
dc.language.iso | pt_BR | pt_BR |
dc.subject | Redes neurais | pt_BR |
dc.subject | Aprendizado profundo | pt_BR |
dc.subject | Classificação de dados | pt_BR |
dc.title | Um estudo sobre dataset distillation | pt_BR |
dc.title.alternative | Um estudo sobre destilação do conjunto de dados | pt_BR |
dc.type | TCC-Graduação | pt_BR |
dc.contributor.referee | Silva, Guilherme Augusto Lopes | pt_BR |
dc.contributor.referee | Pinto, Luan Patrik Silva | pt_BR |
dc.contributor.referee | Silva, Pedro Henrique Lopes | pt_BR |
dc.description.abstracten | Dataset Distilation (DD) is a technique used to generate a synthetic, condensed and informative dataset capable of replacing the original dataset when training machine learning models. This study explores the application of DD techniques in a new domain, using the PathMNIST dataset to evaluate the performance of these methods. Our approach focuses on comparing two consolidated techniques, Dataset Distillation by Gradient Matching (DD-GM) and Dataset Distillation by Automatic Training Trajectories (ATT) applied to this dataset. The results demonstrate the applicability of Dataset Distilation (DD) techniques to complex medical imaging tasks, providing insights into the efficiency of these approaches in new contexts. In addition, this paper presents a comprehensive evaluation of both methods, highlighting their strengths and limitations, and contributing important findings for the application of DD to more challenging and specific datasets | pt_BR |
dc.contributor.authorID | 19.1.4033 | pt_BR |
Aparece en las colecciones: | Ciência da Computação |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
MONOGRAFIA_EstudoDatasetDistillation.pdf | 4,56 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.