A triad of defenses to mitigate poisoning attacks in Federated Learning
Data
2025-07-01
Autores
Mazetto, Blenda Oliveira
Título da Revista
ISSN da Revista
Título de Volume
Editor
Resumo
O Aprendizado Federado (AF) permite treinar modelos de Aprendizado de Máquina em dados descentralizados, promovendo a privacidade ao evitar o compartilhamento direto de dados entre clientes e servidor. No entanto, sua arquitetura distribuída o torna vulnerável a diversos tipos de ataques, com destaque para os ataques de envenenamento, devido à sua simplicidade e alto impacto no desempenho do modelo. Neste trabalho, propomos um método para mitigar esses ataques por meio de uma tríade de estratégias de defesa: organização dos clientes em grupos, verificação do desempenho local dos modelos globais durante o treinamento e uso de um esquema de votação na fase de inferência. Inicialmente, os clientes são organizados em grupos amostrados aleatoriamente. Cada cliente realiza o treinamento local de um modelo, e os modelos dentro de um mesmo grupo são combinados por meio de um processo de agregação, originando um modelo global distinto por grupo. Em seguida, cada cliente recebe e avalia todos os modelos globais, selecionando aquele com o melhor desempenho preditivo como o seu novo modelo local para continuar o treinamento. Por fim, durante a inferência, cada cliente realiza previsões sobre suas entradas com base em um esquema de votação entre os modelos globais. Os experimentos realizados com os conjuntos de dados MNIST, HAR e Air Quality demonstram que o método proposto é eficaz na mitigação de ataques de envenenamento, como Label-Flipping, Same-Value, Gaussian-Noise, Gradient-Scaling e Little Is Enough (LIE), preservando a integridade e o desempenho do modelo global.
Descrição
Palavras-chave
Aprendizado Federado, Ataques de envenenamento, Aprendizado de máquina, Sistema de segurança, Sistemas de computação, Ciência da computação