Séminaire Cornet – 31/01/2024

26 janvier 2024

Le prochain séminaire de l’équipe Cornet aura lieu le 31 janvier 2024 à 11h35 en S3, et comportera deux parties. Pour commencer, Felipe Albuquerque (LIA) présentera son sujet de thèse portant sur Le problème de la p-médiane avec contraintes de couverture : nouvelles méthodes de résolution et application à la conception de services publics. Puis, Luca Dini and Pierre Jourlin présenteront leur travail en cours sur le thème des Hybrid Methods for Cognitive Attitudes Detection. Résumé : dans ce séminaire, nous présenterons un travail en cours sur la transformation d’un système de repérage de mots-clés en un moteur d’étiquetage basé sur des concepts. Nous mettrons en évidence quatre axes majeurs de ce travail, à savoir :

Séminaire SLG – Ryan Whetten – 01/02/2024

25 janvier 2024

La prochaine réunion SLG aura lieu en salle S5 le jeudi 1er février, de 12h00 à 13h00. Ryan Whetten y présentera ses travaux, dont vous trouverez une brève introduction ci-dessous. ——————————————————————— Open Implementation and Study of BEST-RQ for Speech Processing Abstract: Self-Supervised Learning (SSL) has proven to be useful in various speech tasks. However, these methods are generally very demanding in terms of data, memory, and computational resources. Recently, Google came out with a model called BEST-RQ (BERT-based Speech pre-Training with Random-projection Quantizer). Despite BEST-RQ’s great performance and simplicity, details are lacking in the original paper and there is no official easy-to-use open-source implementation. Furthermore, BEST-RQ has not been evaluated on other downstream tasks aside from ASR. In this presentation, we will discuss the details of my implementation of BEST-RQ and then see results from our preliminary study on four downstream tasks. Results show that a random projection quantizer can achieve similar downstream performance as wav2vec 2.0 while decreasing training time by over a factor of two.

Séminaire Cornet – 19/01/2024

16 janvier 2024

Le vendredi 19 janvier, à 11h35, en salle S6, nous aurons trois courtes présentations : Ahmad Dabaja, nouveau doctorant, se présentera et présentera son travail intitulé « Conception d’incitations pour un apprentissage fédéré efficace dans un système distribué« . Khaoula Otmani, étudiante en master, présentera son travail intitulé « Apprentissage fédéré robuste face aux attaques byzantines via la valeur de Shapley« .Résumé : Dans les systèmes d’apprentissage fédéré, la communication répétitive entre le serveur et les clients laisse place à des attaques visant à compromettre l’intégrité du modèle global. Je présenterai une stratégie de défense basée sur la valeur de Shapley qui détecte et élimine les clients malveillants du processus d’apprentissage. Lucas Potin, doctorant, présentera son travail intitulé « Analyse de sous-graphes pour identifier des phénomènes de corruption dans les marchés publics« .Résumé : Création d’une méthode utilisant les sous-graphes discriminants pour classer une collection de graphes parmi 2 labels. Application sur un jeu de données de graphes associés aux marchés publics afin de détecter un potentiel de fraude. Comparaison des différentes métriques de discrimination possibles par rapport à d’autres méthodes de la littérature (valeurs de Shapley, random Forest, etc.).

Séminaire SLG – Paul Gauthier Noé – 18/01/2024

10 janvier 2024

On 18 January from 12 am, we will host a talk from Dr. Paul Gauthier Noé on « Explaining probabilistic predictions … ». The presentation will be hosted on room S6.   More details will follow…   Bio: Paul Gauthier Noe just received a PhD in Computer Science in Avignon Université under the supervision of Prof. Jean-François Bonastre and Dr. Driss Matrouf. He was working for the international JST-ANR VoicePersonae project and his main research interests are Speaker verification, Bayesian decision theory, Calibration of probabilities and Privacy in Speech.

Soutenance de thèse de Noé Cécillon – 18 janvier 2024

9 janvier 2024

Date : jeudi 18 janvier 2024 à 14h00 Lieu : amphithéâtre Ada Lovelace sur le campus JH Fabre   La soutenance sera suivie d’un pot dans l’ancienne BU.   Jury : Irina Illina, Maîtresse de Conférence, Université de Lorraine (Rapporteuse) Julien Velcin, Professeur, Université Lyon 2 (Rapporteur) Serena Villata, Directrice de Recherche, Institut 3IA Côte d’Azur (Examinatrice) Harold Mouchère, Professeur, Nantes Université (Examinateur) Vincent Labatut, Maître de Conférence, Avignon Université (Directeur de thèse) Richard Dufour, Professeur, Nantes Université (Co-directeur de thèse) Titre : Combinaison des graphes et du texte pour la modélisation de conversations: Application à la détection d’abus en ligne   Résumé : Les comportements abusifs en ligne peuvent avoir des conséquences dramatiques sur les utilisateurs et les communautés. Avec l’avènement d’internet et des réseaux sociaux, personne n’est à l’abri de ce genre de comportement. Ces dernières années, de nombreux pays ont mis en place des lois visant à réduire ce type d’abus. Cependant, la responsabilité incombe principalement aux entreprises hébergant ces plateformes de discussion. Celles-ci se doivent de surveiller le comportement de ses utilisateurs afin d’éviter la prolifération de propos abusifs. Une détection et un traitement rapide des cas abusifs est un facteur important afin de réduire leur Plus d'infos

Séminaire SLG – Fenna Poletiek – 12/01/2024

8 janvier 2024

On 12 January from 12 am, we will host a virtual talk from Dr. Fenna Poletiek from Institute of Psychology at Leiden University on « Language learning in the lab ».   The presentation will be hosted on room S6.   Abstract: Language learning in the lab Language learning skills have been considered a defining feature of humanness. In this view language cannot be acquired by mere associative or statistical learning processes, only, like many other skills are learned by human and nonhuman primates during development. Indeed, the high (recursive) complexity of human grammars have been shown to make them impossible to learn by exposure to language exemplars only. Some research suggests, however, that at least some statistical learning is recruited in language acquisition (Perruchet & Pacton, 2006). And primates have been shown to mimic complex grammatical patterns after being trained on a sequence of stimulus responses (Rey et al., 2012). We performed series of studies with artificial languages in the lab, to investigate associative and statistical learning processes that support language learning. The results thus far suggest a fine tuned cooperation between three crucial features of the natural language learning process: first, learning proceeds ‘starting small’ with short simple sentences growing in complexity Plus d'infos