Please use this identifier to cite or link to this item: http://www.monografias.ufop.br/handle/35400000/4271
Title: TINN : uma arquitetura para aceleração de redes neurais em FPGAS de baixa densidade.
Authors: Silva, Sammuel Ramos da
metadata.dc.contributor.advisor: Martins, Vinicius Antonio de Oliveira
metadata.dc.contributor.referee: Martins, Vinicius Antonio de Oliveira
Sica, Fernando Cortez
Cavalcanti, Carlos Frederico Marcelo da Cunha
Keywords: Hardware
Inteligência artificial
Redes neurais - computação
Issue Date: 2022
Citation: Silva, Sammuel Ramos da. TINN: uma arquitetura para aceleração de redes neurais em FPGAS de baixa densidade. 2022. 42. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.
Abstract: Os avanços recentes em hardware fizeram com que o uso de Redes Neurais Convolucionais fossem adotadas para solução de problemas em diversos sistemas, como segurança pública ou privada, aviação, carros autônomos e smartphones. Muita dessas aplicações necessitam de acesso a unidades de processamento de alto nível, como Graphic Processing Unit, para realização dos cálculos matemáticos, o que acaba, em muitas vezes, sendo muito custoso em relação ao preço e ao consumo de energia. Avanços recentes na execução de redes neurais em dispositivos reconfiguráveis (FPGAs), obtiveram um bom desempenho, levando em consideração a quantidade de recursos disponíveis, consumo energético, e preço. Assim, este trabalho tem por objetivo implementar uma plataforma para aceleração de redes neurais convolucionais em FPGAs.
metadata.dc.description.abstracten: Recent advances in hardware have made the use of Convolutional Neural Networks adopted to solve problems in various systems, such as public or private security, aviation, autonomous cars, and smartphones. Many of these applications require access to a high-level processing unit to carry out the mathematical calculations, which ends up being very costly in relation to the price and energy consumption. However, recent advances in the use of reconfigurable devices (FPGAs), aimed at running CNN, have achieved good performance with reduced costs in the area, energy consumption, and price. This work aims to implement, in reconfigurable platforms, experimental research regarding the use of these platforms for the execution of convolution neural networks.
URI: http://www.monografias.ufop.br/handle/35400000/4271
Appears in Collections:Ciência da Computação

Files in This Item:
File Description SizeFormat 
MONOGRAFIA_TinnArquiteturaAceleração.pdf2,79 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons