Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/4743
Registro completo de metadados
Campo Dublin CoreValorIdioma
dc.contributor.advisorSilva, Rodrigo César Pedrosapt_BR
dc.contributor.authorFerreira, Gabriel Bicalho-
dc.date.accessioned2022-11-08T15:21:27Z-
dc.date.available2022-11-08T15:21:27Z-
dc.date.issued2022pt_BR
dc.identifier.citationFERREIRA, Gabriel Bicalho. Compressão de redes neurais artificiais com restrições de acurácia utilizando otimização multiobjetivo baseada em modelos substitutos. 2022. 50 f. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/4743-
dc.description.abstractDentre os diferentes métodos de aprendizado de máquina, as redes neurais vem se destacando nos últimos anos, devido a sua alta precisão na resolução de diversos tipos de problemas. O aumento de camadas e neurônios de uma rede neural é diretamente proporcional a sua eficiência, visto que permite às redes neurais artificiais (RNA) o reconhecimento de mais detalhes sobre o dado de entrada. No enatando, redes complexas resultam em grandes dificuldades na implantação em dispositivos com restrições de processamento e memória. Sendo assim, técnicas de compressão que visam a redução da complexidade da rede neural sem perda significativa na eficiência, estão ganhando cada vez mais notoriedade na literatura. Neste contexto, o presente trabalho visa parametrizar técnicas de compressão por poda e quantização, verificando os efeitos dos parâmetros escolhidos nos objetivos propostos.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectCompressão de redes neuraispt_BR
dc.subjectAprendizado profundopt_BR
dc.subjectRedes neurais convolucionaispt_BR
dc.subjectOtimização multiobjetivopt_BR
dc.subjectProblemas substitutospt_BR
dc.titleCompressão de redes neurais artificiais com restrições de acurácia utilizando otimização multiobjetivo baseada em modelos substitutos.pt_BR
dc.typeTCC-Graduaçãopt_BR
dc.contributor.refereeGertrudes, Jadson Castropt_BR
dc.contributor.refereeSilva, Guilherme Augusto Lopespt_BR
dc.contributor.refereeSilva, Rodrigo César Pedrosapt_BR
dc.description.abstractenAmong the different methods of machine learning, neural networks have been standing out in recent years, due to their high precision in solving different types of problems. The increase in layers and neurons of a neural network is directly proportional to its efficiency, since it allows artificial neural networks (ANN) to recognize more details about the input data. However, complex networks result in great difficulties in deploying them on devices with processing and memory restrictions. Thus, compression techniques that aim to reduce the neural network complexity without significant loss in efficiency are gaining more and more notoriety in the literature. In this context, the present work aims to parameterize compression techniques by pruning and quantization, verifying the effects of the chosen parameters on the proposed objectives.pt_BR
dc.contributor.authorID18.1.4024pt_BR
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_CompressãoRedesNeurais.pdf4,48 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons