A triad of defenses to mitigate poisoning attacks in Federated Learning

dc.contributor.advisorZarpelão, Bruno Bogaz
dc.contributor.authorMazetto, Blenda Oliveira
dc.contributor.bancaBarbon Junior, Sylvio
dc.contributor.bancaPigatto, Daniel Fernando
dc.coverage.extent70 p.
dc.coverage.spatialLondrina
dc.date.accessioned2025-09-19T19:22:24Z
dc.date.available2025-09-19T19:22:24Z
dc.date.issued2025-07-01
dc.description.abstractO Aprendizado Federado (AF) permite treinar modelos de Aprendizado de Máquina em dados descentralizados, promovendo a privacidade ao evitar o compartilhamento direto de dados entre clientes e servidor. No entanto, sua arquitetura distribuída o torna vulnerável a diversos tipos de ataques, com destaque para os ataques de envenenamento, devido à sua simplicidade e alto impacto no desempenho do modelo. Neste trabalho, propomos um método para mitigar esses ataques por meio de uma tríade de estratégias de defesa: organização dos clientes em grupos, verificação do desempenho local dos modelos globais durante o treinamento e uso de um esquema de votação na fase de inferência. Inicialmente, os clientes são organizados em grupos amostrados aleatoriamente. Cada cliente realiza o treinamento local de um modelo, e os modelos dentro de um mesmo grupo são combinados por meio de um processo de agregação, originando um modelo global distinto por grupo. Em seguida, cada cliente recebe e avalia todos os modelos globais, selecionando aquele com o melhor desempenho preditivo como o seu novo modelo local para continuar o treinamento. Por fim, durante a inferência, cada cliente realiza previsões sobre suas entradas com base em um esquema de votação entre os modelos globais. Os experimentos realizados com os conjuntos de dados MNIST, HAR e Air Quality demonstram que o método proposto é eficaz na mitigação de ataques de envenenamento, como Label-Flipping, Same-Value, Gaussian-Noise, Gradient-Scaling e Little Is Enough (LIE), preservando a integridade e o desempenho do modelo global.
dc.description.abstractother1Federated Learning (FL) allows training Machine Learning models on decentralized data, promoting privacy by avoiding the direct sharing of data between clients and the server. However, the distributed architecture of FL is vulnerable to various types of attacks, with poisoning attacks standing out due to their simplicity and high impact on model performance. In this work, we propose a method capable of mitigating such attacks through a triad of defense strategies: organizing clients into groups, evaluating the local performance of global models during training, and using a voting scheme in the inference phase. Initially, clients are organized into randomly sampled groups. Each client performs local training of a model, and the models within the same group are combined through an aggregation process, resulting in a distinct global model for each group. Then, each client receives and evaluates all global models, selecting the one with the best predictive performance as its new local model to continue training. Finally, during inference, each client makes predictions on its inputs according to a voting scheme among the global models. Experiments conducted with the MNIST, HAR, and Air Quality datasets demonstrate that our method is effective in mitigating poisoning attacks such as Label-Flipping, Same-Value, Gaussian-Noise, Gradient-Scaling, and Little is Enough (LIE), maintaining the integrity of the global model’s results.
dc.identifier.urihttps://repositorio.uel.br/handle/123456789/18943
dc.language.isoeng
dc.relation.departamentCCE - Departamento de Computação
dc.relation.institutionnameUniversidade Estadual de Londrina - UEL
dc.relation.ppgnamePrograma de Pós-Graduação em Ciência da Computação
dc.subjectAprendizado Federado
dc.subjectAtaques de envenenamento
dc.subjectAprendizado de máquina
dc.subjectSistema de segurança
dc.subjectSistemas de computação
dc.subjectCiência da computação
dc.subject.capesCiências Exatas e da Terra - Ciência da Computação
dc.subject.cnpqCiências Exatas e da Terra - Ciência da Computação
dc.subject.keywordsFederated Learning
dc.subject.keywordsPoisoning attacks
dc.subject.keywordsMachine learning
dc.subject.keywordsSecurity systems
dc.subject.keywordsComputing systems
dc.subject.keywordsComputer science
dc.titleA triad of defenses to mitigate poisoning attacks in Federated Learning
dc.title.alternativeUma tríade de defesas para mitigar ataques de envenenamento no Aprendizado Federado
dc.typeDissertação
dcterms.educationLevelMestrado Acadêmico
dcterms.provenanceCentro de Ciências Exatas

Arquivos

Pacote Original
Agora exibindo 1 - 2 de 2
Carregando...
Imagem de Miniatura
Nome:
CE_COM_Me_2025_Mazetto_Blenda O.pdf
Tamanho:
3.4 MB
Formato:
Adobe Portable Document Format
Descrição:
Texto completo. Id. 193866
Nenhuma Miniatura disponível
Nome:
CE_COM_Me_2025_Mazetto_Blenda O_Termo.pdf
Tamanho:
208.81 KB
Formato:
Adobe Portable Document Format
Descrição:
Termo de autorização.
Licença do Pacote
Agora exibindo 1 - 1 de 1
Nenhuma Miniatura disponível
Nome:
license.txt
Tamanho:
555 B
Formato:
Item-specific license agreed to upon submission
Descrição: