Por favor, use este identificador para citar o enlazar este ítem:
http://www.monografias.ufop.br/handle/35400000/5575
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | Medeiros, Talles Henrique de | pt_BR |
dc.contributor.author | Abreu, Carlos Henrique Pereira | - |
dc.date.accessioned | 2023-05-16T20:09:14Z | - |
dc.date.available | 2023-05-16T20:09:14Z | - |
dc.date.issued | 2023 | pt_BR |
dc.identifier.citation | ABREU, Carlos Henrique Pereira. Implementação da arquitetura Vision Transformer por meio de um framework de alto desempenho. 2023. 53 f. Monografia (Graduação em Sistemas de Informação) - Instituto de Ciências Exatas e Aplicadas, Universidade Federal de Ouro Preto, João Monlevade, 2023. | pt_BR |
dc.identifier.uri | http://www.monografias.ufop.br/handle/35400000/5575 | - |
dc.description.abstract | Os Transformers atualmente representam uma das classes mais poderosas de modelos de aprendizado de máquina por sua versatilidade e alto poder de processamento de dados sequenciais de forma paralela, sem a necessidade de processar uma entrada sequencial de dados. Desde o seu surgimento em 2017, a arquitetura Transformer tem sido amplamente utilizada em muitos problemas de processamento de linguagem natural (PLN), incluindo tradução automática, análise de sentimentos, geração e classificação de textos, e tem sido amplamente considerada como um dos modelos mais poderosos disponíveis. Neste trabalho, exploramos a construção da rede Transformer aplicada a problemas de visão computacional, utilizando o framework Joey. Para a implementação, novas camadas e funções auxiliares foram incorporadas ao framework. Os resultados produzidos pela rede, mesmo que inferiores em comparação com o framework PyTorch, representam uma evolução da gama de possíveis aplicações para o Joey. | pt_BR |
dc.language.iso | pt_BR | pt_BR |
dc.subject | Arquitetura Transformer | pt_BR |
dc.subject | Visão computacional | pt_BR |
dc.subject | Devito framework | pt_BR |
dc.subject | Joey | pt_BR |
dc.subject | Python | pt_BR |
dc.title | Implementação da arquitetura Vision Transformer por meio de um framework de alto desempenho. | pt_BR |
dc.type | TCC-Graduação | pt_BR |
dc.contributor.referee | Medeiros, Talles Henrique de | pt_BR |
dc.contributor.referee | Brito, Darlan Nunes de | pt_BR |
dc.contributor.referee | Ribeiro, Eduardo da Silva | pt_BR |
dc.description.abstracten | Transformers currently represent one of the most powerful classes of machine learning models due to their versatility and high processing power for sequential data in parallel, without the need to process input data sequentially. Since their emergence in 2017, the Transformer architecture has been widely used in many natural language processing (NLP) tasks, including machine translation, sentiment analysis, text generation, and text classification, and has been widely considered as one of the most powerful models available. In this work, we explore the construction of the Transformer network applied to computer vision problems using the Joey framework. For implementation, new layers and auxiliary functions were incorporated into the framework. The results produced by the network, although inferior compared to the PyTorch framework, represent an evolution of the range of possible applications for Joey. | pt_BR |
dc.contributor.authorID | 17.2.8226 | pt_BR |
Aparece en las colecciones: | Sistema de Informação - JMV |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
MONOGRAFIA_ImplementacaoArquiteturaVision.pdf | 2,36 MB | Adobe PDF | Visualizar/Abrir |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons