A triad of defenses to mitigate poisoning attacks in Federated Learning
dc.contributor.advisor | Zarpelão, Bruno Bogaz | |
dc.contributor.author | Mazetto, Blenda Oliveira | |
dc.contributor.banca | Barbon Junior, Sylvio | |
dc.contributor.banca | Pigatto, Daniel Fernando | |
dc.coverage.extent | 70 p. | |
dc.coverage.spatial | Londrina | |
dc.date.accessioned | 2025-09-19T19:22:24Z | |
dc.date.available | 2025-09-19T19:22:24Z | |
dc.date.issued | 2025-07-01 | |
dc.description.abstract | O Aprendizado Federado (AF) permite treinar modelos de Aprendizado de Máquina em dados descentralizados, promovendo a privacidade ao evitar o compartilhamento direto de dados entre clientes e servidor. No entanto, sua arquitetura distribuída o torna vulnerável a diversos tipos de ataques, com destaque para os ataques de envenenamento, devido à sua simplicidade e alto impacto no desempenho do modelo. Neste trabalho, propomos um método para mitigar esses ataques por meio de uma tríade de estratégias de defesa: organização dos clientes em grupos, verificação do desempenho local dos modelos globais durante o treinamento e uso de um esquema de votação na fase de inferência. Inicialmente, os clientes são organizados em grupos amostrados aleatoriamente. Cada cliente realiza o treinamento local de um modelo, e os modelos dentro de um mesmo grupo são combinados por meio de um processo de agregação, originando um modelo global distinto por grupo. Em seguida, cada cliente recebe e avalia todos os modelos globais, selecionando aquele com o melhor desempenho preditivo como o seu novo modelo local para continuar o treinamento. Por fim, durante a inferência, cada cliente realiza previsões sobre suas entradas com base em um esquema de votação entre os modelos globais. Os experimentos realizados com os conjuntos de dados MNIST, HAR e Air Quality demonstram que o método proposto é eficaz na mitigação de ataques de envenenamento, como Label-Flipping, Same-Value, Gaussian-Noise, Gradient-Scaling e Little Is Enough (LIE), preservando a integridade e o desempenho do modelo global. | |
dc.description.abstractother1 | Federated Learning (FL) allows training Machine Learning models on decentralized data, promoting privacy by avoiding the direct sharing of data between clients and the server. However, the distributed architecture of FL is vulnerable to various types of attacks, with poisoning attacks standing out due to their simplicity and high impact on model performance. In this work, we propose a method capable of mitigating such attacks through a triad of defense strategies: organizing clients into groups, evaluating the local performance of global models during training, and using a voting scheme in the inference phase. Initially, clients are organized into randomly sampled groups. Each client performs local training of a model, and the models within the same group are combined through an aggregation process, resulting in a distinct global model for each group. Then, each client receives and evaluates all global models, selecting the one with the best predictive performance as its new local model to continue training. Finally, during inference, each client makes predictions on its inputs according to a voting scheme among the global models. Experiments conducted with the MNIST, HAR, and Air Quality datasets demonstrate that our method is effective in mitigating poisoning attacks such as Label-Flipping, Same-Value, Gaussian-Noise, Gradient-Scaling, and Little is Enough (LIE), maintaining the integrity of the global model’s results. | |
dc.identifier.uri | https://repositorio.uel.br/handle/123456789/18943 | |
dc.language.iso | eng | |
dc.relation.departament | CCE - Departamento de Computação | |
dc.relation.institutionname | Universidade Estadual de Londrina - UEL | |
dc.relation.ppgname | Programa de Pós-Graduação em Ciência da Computação | |
dc.subject | Aprendizado Federado | |
dc.subject | Ataques de envenenamento | |
dc.subject | Aprendizado de máquina | |
dc.subject | Sistema de segurança | |
dc.subject | Sistemas de computação | |
dc.subject | Ciência da computação | |
dc.subject.capes | Ciências Exatas e da Terra - Ciência da Computação | |
dc.subject.cnpq | Ciências Exatas e da Terra - Ciência da Computação | |
dc.subject.keywords | Federated Learning | |
dc.subject.keywords | Poisoning attacks | |
dc.subject.keywords | Machine learning | |
dc.subject.keywords | Security systems | |
dc.subject.keywords | Computing systems | |
dc.subject.keywords | Computer science | |
dc.title | A triad of defenses to mitigate poisoning attacks in Federated Learning | |
dc.title.alternative | Uma tríade de defesas para mitigar ataques de envenenamento no Aprendizado Federado | |
dc.type | Dissertação | |
dcterms.educationLevel | Mestrado Acadêmico | |
dcterms.provenance | Centro de Ciências Exatas |
Arquivos
Pacote Original
1 - 2 de 2
Carregando...
- Nome:
- CE_COM_Me_2025_Mazetto_Blenda O.pdf
- Tamanho:
- 3.4 MB
- Formato:
- Adobe Portable Document Format
- Descrição:
- Texto completo. Id. 193866
Nenhuma Miniatura disponível
- Nome:
- CE_COM_Me_2025_Mazetto_Blenda O_Termo.pdf
- Tamanho:
- 208.81 KB
- Formato:
- Adobe Portable Document Format
- Descrição:
- Termo de autorização.
Licença do Pacote
1 - 1 de 1
Nenhuma Miniatura disponível
- Nome:
- license.txt
- Tamanho:
- 555 B
- Formato:
- Item-specific license agreed to upon submission
- Descrição: