Projet ANR TRADEF

Suivi et détection des fake news et deepfakes dans les réseaux sociaux arabes

La guerre de 4ème génération (4GW) est connue comme étant la guerre de l’information impliquant des populations non nécessairement militaires. Elle est menée par des groupes nationaux ou transnationaux qui suivent des idéologies fondées sur des convictions culturelles, sur la religion, sur les intérêts économiques ou politiques avec comme objectif de semer le chaos dans un endroit visé du monde. En 1989, les auteurs d’un article sur la guerre de quatrième génération, dont certains sont militaires, expliquaient que la guerre de quatrième génération serait largement répandue et difficile à définir dans les décennies à venir.
Avec l’apparition des réseaux sociaux, le champ de bataille dont les contours étaient flous a trouvé un lieu pour la 4GW. En effet, un des points de pénétration de la 4GW est l’utilisation massive des réseaux sociaux pour manipuler les opinions, l’objectif étant de préparer l’opinion d’un endroit du monde à accepter un état de fait et de le rendre humainement acceptable et politiquement correct..
Tout comme la guerre de quatrième génération, la guerre cognitive a comme objectif de brouiller les mécanismes de compréhension de la politique, de l’économie, de la religion, etc. La conséquence de cette action est de déstabiliser et de réduire l’adversaire. Cette guerre cognitive vise donc le cerveau de ce qui est supposé être l’ennemi. Finalement, le nouveau champ de bataille mal défini dans la 4GW se déplace vers le cerveau de l’adversaire ou plus exactement dans le subconscient de la population de l’adversaire.
Cette guerre a comme objectif d’altérer la réalité, entre autres, en inondant souvent la population de l’adversaire par des informations erronées, par des rumeurs, par des vidéos fabriquées ou modifiées.
De plus, la multiplication des social bots aujourd’hui permet de générer automatiquement de la désinformation dans les réseaux sociaux. Selon certaines sources, pour les élections américaines de 2016, 19% du volume total de tweets générés l’ont été grâce à ces robots automatiques.
Dans TRADEF, nous nous intéressons à quelques voies de la désinformation : les fake news, le deep fake et l’information potentiellement nocive. L’idée est de détecter très rapidement dans les réseaux sociaux, la naissance d’une fake sous sa forme textuelle, audio ou vidéo et sa propagation à travers les réseaux. Il est question de détecter la naissance d’une fake et de la suivre dans le temps. À tout moment cette rumeur potentielle est analysée et se voit attribuer une mesure de confiance, elle est pistée à travers les réseaux sociaux dans la langue de référence ainsi que dans des langues différentes. L’évolution de l’information suspecte à travers le temps verra son score changer en fonction des données auxquelles elle sera confrontée. L’information à tester est mise en correspondance avec des données audios ou vidéos qui peuvent infirmer ou confirmer la crédibilité de l’information. Les vidéos qui peuvent servir de sources pour dénoncer une fake peuvent être elles-mêmes des deepfakes. Cela nous amène à être vigilants quant à l’examen de ces vidéos en développant des méthodes de détection de deepfakes robustes. Enfin une dimension explicabilité des résultats est introduite dans ce projet.
Etant donnée l’expérience des équipes participantes en deep learning et en traitement automatique de la langue arabe standard et ses dialectes, nous nous proposons de pister et d’identifier les fakes et les informations potentiellement nocives dans les réseaux sociaux arabes ce qui engendre d’autres défis scientifiques à relever comme le traitement du code-switching, la variabilité des dialectes arabes, l’identification dans le continuum de la parole des entités nommées, le développement de méthodes neuronales pour des langues peu dotées en ressources et l’explicabilité des résultats obtenus.

Liste des partenaires :

  • Université de Lorraine (LORIA)
  • LIA Laboratoire d’Informatique d’Avignon

Coordinateur du projet : LORIA

Responsable Scientifique pour le LIA : Yannick ESTEVE

Date Debut : 01/01/2023   Date Fin : 31/12/2025

En Savoir Plus