Please use this identifier to cite or link to this item: http://www.monografias.ufop.br/handle/35400000/4271
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorMartins, Vinicius Antonio de Oliveirapt_BR
dc.contributor.authorSilva, Sammuel Ramos da-
dc.date.accessioned2022-07-04T13:53:46Z-
dc.date.available2022-07-04T13:53:46Z-
dc.date.issued2022pt_BR
dc.identifier.citationSilva, Sammuel Ramos da. TINN: uma arquitetura para aceleração de redes neurais em FPGAS de baixa densidade. 2022. 42. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/4271-
dc.description.abstractOs avanços recentes em hardware fizeram com que o uso de Redes Neurais Convolucionais fossem adotadas para solução de problemas em diversos sistemas, como segurança pública ou privada, aviação, carros autônomos e smartphones. Muita dessas aplicações necessitam de acesso a unidades de processamento de alto nível, como Graphic Processing Unit, para realização dos cálculos matemáticos, o que acaba, em muitas vezes, sendo muito custoso em relação ao preço e ao consumo de energia. Avanços recentes na execução de redes neurais em dispositivos reconfiguráveis (FPGAs), obtiveram um bom desempenho, levando em consideração a quantidade de recursos disponíveis, consumo energético, e preço. Assim, este trabalho tem por objetivo implementar uma plataforma para aceleração de redes neurais convolucionais em FPGAs.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectHardwarept_BR
dc.subjectInteligência artificialpt_BR
dc.subjectRedes neurais - computaçãopt_BR
dc.titleTINN : uma arquitetura para aceleração de redes neurais em FPGAS de baixa densidade.pt_BR
dc.typeTCC-Graduaçãopt_BR
dc.contributor.refereeMartins, Vinicius Antonio de Oliveirapt_BR
dc.contributor.refereeSica, Fernando Cortezpt_BR
dc.contributor.refereeCavalcanti, Carlos Frederico Marcelo da Cunhapt_BR
dc.description.abstractenRecent advances in hardware have made the use of Convolutional Neural Networks adopted to solve problems in various systems, such as public or private security, aviation, autonomous cars, and smartphones. Many of these applications require access to a high-level processing unit to carry out the mathematical calculations, which ends up being very costly in relation to the price and energy consumption. However, recent advances in the use of reconfigurable devices (FPGAs), aimed at running CNN, have achieved good performance with reduced costs in the area, energy consumption, and price. This work aims to implement, in reconfigurable platforms, experimental research regarding the use of these platforms for the execution of convolution neural networks.pt_BR
dc.contributor.authorID17.2.4238pt_BR
Appears in Collections:Ciência da Computação

Files in This Item:
File Description SizeFormat 
MONOGRAFIA_TinnArquiteturaAceleração.pdf2,79 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons