Use este identificador para citar ou linkar para este item: http://www.monografias.ufop.br/handle/35400000/9160
Título: Compatibilidade entre clientes para predição de desempenho do aprendizado federado.
Autor(es): Rocha, Guilherme Carolino Rodrigues e
Orientador(es): Silva, Rodrigo César Pedrosa
Targa, Vinicius Nascimento
Membros da banca: Silva, Rodrigo César Pedrosa
Targa, Vinicius Nascimento
Guidoni, Daniel Ludovico
Basílio, Ray da Silva
Palavras-chave: Aprendizado Federado
Transferabilidade
Non-iid
Data do documento: 2026
Referência: ROCHA, Guilherme Carolino Rodrigues e. Compatibilidade entre clientes para predição de desempenho do aprendizado federado. 2026. 78 f. Monografia (Graduação em Ciência da computação) - Instituto de Ciências Exatas e Biológicas , Universidade Federal de Ouro Preto, Ouro Preto, 2026.
Resumo: O aprendizado federado permite o treinamento colaborativo de modelos sem o compartilhamento direto de dados, porém enfrenta desafios significativos decorrentes da heterogeneidade entre clientes. Neste trabalho, introduzimos o conceito de compatibilidade entre clientes, definido como a discrepância estatística entre o modelo global de uma rodada anterior e os modelos locais atualizados, avaliada sobre os dados de cada cliente nas rodadas iniciais do treinamento. A compatibilidade é estimada por meio de métricas de divergência e distância entre distribuições, incluindo Maximum Mean Discrepancy (MMD), Fréchet Inception Distance (FID), divergência de Kullback-Leibler (KL) e divergência de Jensen-Shannon (JS). Investigamos a correlação entre a compatibilidade calculada nas primeiras rodadas e o ganho global de acurácia ao final do treinamento federado. Os experimentos foram conduzidos em diferentes conjuntos de dados (CIFAR-10, Fashion-MNIST e Blood-MNIST), variando número de clientes, arquitetura de rede neural e número de épocas locais. Os resultados indicam que a MMD apresentou comportamento consistente e robusto em todos os cenários analisados, mantendo forte correlação negativa com o ganho global. Em contraste, a FID demonstrou instabilidade em determinados contextos, enquanto KL e JS apresentaram comportamento dependente do conjunto de dados e do critério de agregação adotado. Além da análise retrospectiva, demonstramos o potencial uso preditivo da compatibilidade baseada em MMD como indicador antecipado do desempenho final da federação, possibilitando aplicações em diagnóstico precoce e ajuste dinâmico de hiperparâmetros. Os resultados sugerem que a compatibilidade entre clientes, especialmente quando mensurada via MMD, constitui ferramenta promissora para análise e monitoramento de cenários federados heterogêneos.
Resumo em outra língua: Federated learning enables collaborative model training without direct data sharing, but faces significant challenges due to client heterogeneity. In this work, we introduce the concept of client compatibility, defined as the statistical discrepancy between the global model from a previous round and locally updated client models, evaluated on each client's data during the initial training rounds. Compatibility is estimated using distributional divergence and distance metrics, including Maximum Mean Discrepancy (MMD), Fréchet Inception Distance (FID), Kullback-Leibler (KL) divergence, and Jensen-Shannon (JS) divergence. We analyze the correlation between early-round compatibility and the final global accuracy gain achieved by the federated model. Experiments were conducted across multiple datasets (CIFAR-10, Fashion-MNIST, and Blood-MNIST), varying the number of clients, neural network architectures, and local training epochs. Results indicate that MMD consistently exhibited robust negative correlation with final performance across all scenarios. In contrast, FID showed instability in specific contexts, while KL and JS presented dataset- and aggregation-dependent behavior. Beyond retrospective analysis, we demonstrate the predictive potential of MMD-based compatibility as an early indicator of federated performance, enabling applications such as early diagnosis of unstable federations and dynamic hyperparameter adjustment. Overall, the findings suggest that client compatibility—particularly when measured via MMD—constitutes a promising tool for analyzing and monitoring heterogeneous federated learning systems.
URI: http://www.monografias.ufop.br/handle/35400000/9160
Aparece nas coleções:Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
MONOGRAFIA_CompatibilidadeEntreClientes.pdf3,15 MBAdobe PDFVisualizar/Abrir


Os itens na BDTCC estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.