Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/4913
Registro completo de metadados
Campo Dublin CoreValorIdioma
dc.contributor.advisorSilva, Rodrigo Cesar Pedrosapt_BR
dc.contributor.advisorMoraes, Lauro Ângelo Gonçalves dept_BR
dc.contributor.authorAraújo, João Henrique Rocha-
dc.date.accessioned2022-12-05T11:58:34Z-
dc.date.available2022-12-05T11:58:34Z-
dc.date.issued2022pt_BR
dc.identifier.citationARAÚJO, João Henrique Rocha. Aprendizado federado e o impacto de clientes na rede. 2022. 36 f. Monografia (Graduação em Ciências da Computação) - Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto, Ouro Preto, 2022.pt_BR
dc.identifier.urihttp://www.monografias.ufop.br/handle/35400000/4913-
dc.description.abstractEste trabalho apresenta um estudo de como o aprendizado federado se comporta quando se utilizam amostragem de tamanhos diferentes ao realizar o treinamento distribuído de um modelo de redes neurais profundas (DNN) usando a técnica de agregação dos pesos "Federated averaging"(FedAvg). Utilizamos o modelo de rede neural profunda MobileNetV2 presente no framework Tensorflow 2.x. O treinamento federado foi implementado com o framework Flower 1.0 utilizando a base de dados de imagens CIFAR10. Os resultados apresentam que em um pequeno conjunto de clientes a variação de amostra de clientes nos passos de treinamento e predição impacta mais no tempo de processamento e em alguns casos, na qualidade do modelo. Entretanto, o caso base executado localmente apresentou melhores resultados em todas as métricas utilizadas por conta da quantidade de dados disponível em comparação com a configuração do aprendizado federado.pt_BR
dc.language.isopt_BRpt_BR
dc.subjectAprendizado federadopt_BR
dc.subjectAprendizado de máquinapt_BR
dc.subjectTensorflowpt_BR
dc.subjectKeraspt_BR
dc.subjectRedes neurais profundaspt_BR
dc.titleAprendizado federado e o impacto de clientes na rede.pt_BR
dc.typeTCC-Graduaçãopt_BR
dc.contributor.refereeSilva, Rodrigo Cesar Pedrosapt_BR
dc.contributor.refereeMoraes, Lauro Ângelo Gonçalves dept_BR
dc.contributor.refereeSilva, Pedro Henrique Lopespt_BR
dc.contributor.refereeSilva, Guilherme Augusto Lopespt_BR
dc.description.abstractenThis work presents a study of how federated learning behaves when using different sample sizes when performing the distributed training of a model of deep neural networks (deep learning) using the "Federated averaging" (Fed Avg) algorithm. We use the MobileNetV2 deep learning model present in the TensorFlow 2.x framework. The federated training was implemented with the Flower 1.0 framework using the CIFAR10 image database. The results of training and tests were collected and analyzed. Experiments shows that in a small set of clients, the variation in the sample of clients in the training and prediction steps impacts more on the processing time and, in some cases, on the quality of the model. But the baseline was trained locally and presented the best results in all three metrics observed because of the amount of data availiable in comparison with the Federated Learning setup.pt_BR
dc.contributor.authorID16.2.4211pt_BR
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_AprendizadoFederadoImpacto.pdf788,35 kBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons