Soutenance de thèse – 16/12/2025 – Grace Tessa

Date: le mardi 16 décembre à 14h00,

Lieu: salle SEO7, Avignon Université, Campus Hannah Arendt.

Rapporteurs

• Rémi Badonnel — Professor, TELECOM Nancy, University of Lorraine
• Lyes Khoukhi — Professor, CNAM Paris University

Examinateurs

• Yezekael Hayel — Professor, LIA, Avignon University
• Tooska Dargahi — Assistant Professor, Manchester Metropolitan University
• Ahmed Hemida Anwar — Research Scientist, Devcom Research Lab

Encadrants

• Vianney Kengne Tchendji — Assistant Professor, URIFIA, University of Dschang
• Abderrahim Benslimane — Professor, LIA, Avignon University

Résumé de thèse:

Titre : Cyber tromperie et Résilience avec l’Apprentissage Fédéré

Résumé :

L’Intelligence Artificielle (IA), en particulier le Machine Learning (ML) et le Deep Learning (DL), a rapidement transformé de nombreux domaines technologiques, notamment lorsqu’elle est intégrée à des dispositifs connectés tels que les smartphones, les capteurs intelligents et les systèmes IoT. Bien que ces technologies améliorent les services numériques et l’expérience utilisateur, elles soulèvent aussi d’importants enjeux en matière de sécurité et de protection des données personnelles. Les approches traditionnelles d’apprentissage automatique reposent sur la centralisation d’importants volumes de données utilisateurs, ce qui accroît les risques de violation de la vie privée et exige des ressources de calcul et de communication élevées dans un contexte réglementaire strict. L’Apprentissage Fédéré (FL) est apparu comme une alternative prometteuse en permettant à plusieurs dispositifs ou organisations d’entraîner conjointement un modèle sans partager leurs données brutes. Bien que cette approche préserve la confidentialité et limite les risques de fuite de données, sa nature décentralisée introduit de nouvelles vulnérabilités. Des attaquants peuvent injecter des mises à jour malveillantes dans le processus fédéré pour corrompre le modèle global, entraînant une dégradation des performances ou des erreurs de classification ciblées. La sécurité devient alors un enjeu majeur, d’autant plus que l’asymétrie d’information tend à favoriser les adversaires. Pour répondre à ces menaces, cette thèse propose une stratégie de défense offensive proactive fondée sur la tromperie cybernétique. Plutôt que de s’appuyer uniquement sur des mécanismes défensifs réactifs ou passifs, l’approche vise à induire les adversaires en erreur en les orientant vers des environnements simulés où leurs attaques ont un impact minimal. La stratégie commence par la mise en place d’un modèle de détection robuste, capable d’identifier les mises à jour malveillantes des clients en analysant leur comportement et leur niveau de confiance au sein du système fédéré.Sur la base de cette détection, la thèse introduit ensuite deux mécanismes de tromperie utilisant des Réseaux Antagonistes Génératifs (GANs) et des techniques de clustering pour construire un modèle-leurre global. Ce modèle simule le comportement du modèle réel du point de vue de l’attaquant, l’incitant à poursuivre des stratégies inefficaces tandis que son influence sur le système légitime reste négligeable. Les résultats expérimentaux montrent que cette approche permet non seulement de détecter et d’atténuer efficacement les attaques par empoisonnement, mais aussi de renforcer la résilience et la stabilité globale des systèmes d’apprentissage fédéré, en particulier dans des environnements distribués tels que les réseaux IoT.