Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/4271
Título: TINN : uma arquitetura para aceleração de redes neurais em FPGAS de baixa densidade.
Autor(es): Silva, Sammuel Ramos da
Orientador(es): Martins, Vinicius Antonio de Oliveira
Membros da banca: Martins, Vinicius Antonio de Oliveira
Sica, Fernando Cortez
Cavalcanti, Carlos Frederico Marcelo da Cunha
Palavras-chave: Hardware
Inteligência artificial
Redes neurais - computação
Data do documento: 2022
Referência: Silva, Sammuel Ramos da. TINN: uma arquitetura para aceleração de redes neurais em FPGAS de baixa densidade. 2022. 42. Monografia (Graduação em Ciência da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.
Resumo: Os avanços recentes em hardware fizeram com que o uso de Redes Neurais Convolucionais fossem adotadas para solução de problemas em diversos sistemas, como segurança pública ou privada, aviação, carros autônomos e smartphones. Muita dessas aplicações necessitam de acesso a unidades de processamento de alto nível, como Graphic Processing Unit, para realização dos cálculos matemáticos, o que acaba, em muitas vezes, sendo muito custoso em relação ao preço e ao consumo de energia. Avanços recentes na execução de redes neurais em dispositivos reconfiguráveis (FPGAs), obtiveram um bom desempenho, levando em consideração a quantidade de recursos disponíveis, consumo energético, e preço. Assim, este trabalho tem por objetivo implementar uma plataforma para aceleração de redes neurais convolucionais em FPGAs.
Resumo em outra língua: Recent advances in hardware have made the use of Convolutional Neural Networks adopted to solve problems in various systems, such as public or private security, aviation, autonomous cars, and smartphones. Many of these applications require access to a high-level processing unit to carry out the mathematical calculations, which ends up being very costly in relation to the price and energy consumption. However, recent advances in the use of reconfigurable devices (FPGAs), aimed at running CNN, have achieved good performance with reduced costs in the area, energy consumption, and price. This work aims to implement, in reconfigurable platforms, experimental research regarding the use of these platforms for the execution of convolution neural networks.
URI: http://www.monografias.ufop.br/handle/35400000/4271
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_TinnArquiteturaAceleração.pdf2,79 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons