Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/822
Registro completo de metadados
Campo Dublin CoreValorIdioma
dc.contributor.advisorAmorim, Vicente José Peixoto dept_BR
dc.contributor.advisorPereira, Igor Muzettipt_BR
dc.contributor.authorCastro, Maicon Dias-
dc.date.accessioned2018-03-20T17:12:18Z-
dc.date.available2018-03-20T17:12:18Z-
dc.date.issued2018-
dc.identifier.citationCASTRO, Maicon Dias. Alvisku : uso da visão computacional e sons 3D para auxílio a cegos. 2018. 44 f. Monografia (Graduação em Engenharia de Computação) – Instituto de Ciências Exatas e Aplicadas, Universidade Federal de Ouro Preto, João Monlevade, 2018.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/822-
dc.description.abstractA deficiência visual afeta a vida de várias pessoas ao redor do mundo. Quando essa deficiência é grave, é necessário o uso de aparelhos auxiliares que ajudem o indivíduo a viver em sociedade. Muitas soluções já foram pensadas e desenvolvidas com o fim de melhorar a vida dessas pessoas e promover sua inserção à sociedade, mas nem sempre essas soluções são adaptativas a todos os locais. Bengala, cão-guia e piso tátil são alguns exemplos de criações que ajudam na orientação e aumento da liberdade dos portadores. Porém, a adaptação da sociedade e dos locais quanto a acessibilidade está longe de ser alcançada. Por isso, este trabalho é um sistema que conta com câmeras, processamento visual e sonoro, desenvolvido para ser uma solução tecnológica que capta a imagem do ambiente e retorna ao usuário em forma de sons 3D. Para isso, o sistema conta com um código de calibração de câmera e com o uso de bibliotecas específicas de processamento visual e sonoro. O sistema interpreta com sucesso a recepção visual, gerando mapas de disparidade, e provê feedback auditivo ao usuário, que tem a sensação de que determinado objeto está emitindo som próprio. O sistema desenvolvido não foi testado por cegos, se limitando apenas as relações de disparidade e áudios 3D mostrados no sistema processador utilizado. Foi possível a geração de mapas de disparidade a uma frequência de 9 quadros por segundo, apesar de haver um atraso de 4 segundos entre a captação das imagens e o seu processamento.pt_BR
dc.language.isopt_BRpt_BR
dc.rightsopen accesspt_BR
dc.subjectVisão computacionalpt_BR
dc.subjectCâmera estéreopt_BR
dc.subjectSons três dimensõespt_BR
dc.subjectRaspberrypt_BR
dc.subjectTecnologia assistidapt_BR
dc.titleAlvisku : uso da visão computacional e sons 3D para auxílio a cegos.pt_BR
dc.typeTCC-Graduaçãopt_BR
dc.rights.licenseAutorização concedida à Biblioteca Digital de TCC’s da UFOP pelo(a) autor(a) em 15/03/2018 com as seguintes condições: disponível sob Licença Creative Commons 4.0 que permite copiar, distribuir e transmitir o trabalho desde que sejam citados o autor e o licenciante. Não permite o uso para fins comerciais nem a adaptação.pt_BR
dc.contributor.refereeAmorim, Vicente José Peixoto dept_BR
dc.contributor.refereePereira, Igor Muzettipt_BR
dc.contributor.refereeLeite, Harlei Miguel de Arrudapt_BR
dc.description.abstractenVision impairment affects the lives of several people around the world. When this deficiency is severe, it is necessary to use auxiliary devices that help the individual to live in society. Many solutions have already been designed and developed to improve their lives and promote their insertion into society, but these solutions are not always adaptive to all places. Stick, guide dogs and tactile paving are some examples of creations that help in guiding and increasing freedom of these people. However, the adaptation of society and localities to accessibility is far from being achieved. Therefore, in this work an embedded system was developed that counts on cameras, visual and sonorous processing, developed to be a technological solution that captures the image of the environment and returns to the user in the form of 3D sounds. To achieve it, the system has a camera calibration code and the use of specific visual and sound processing libraries. The system successfully interprets visual reception, generating disparity maps, and providing auditory feedback to the user, who has the feeling that a given object is emitting its own sound. The developed system was not tested by the blind, limiting only the disparity relationships and 3D audios shown in the processor system used. It was possible to generate disparity maps at a frequency of 9 frames per second, although there is a delay of 4 seconds between the capture of the images and their processing.pt_BR
Aparece nas coleções:Engenharia de Computação - JMV

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_AlviskuUsoVisão.pdf13,14 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons