Soutenance de thèse Timothée Dhaussy – 21/10/2024

18 octobre 2024

Date: lundi 21 octobre 2024 à 14h00  lieu: salle des thèses sur le campus Hannah Arendt. Le lien de visio-conférence est le suivant: https://bbb.univ-avignon.fr/rooms/vtj-xje-xex-gyw/join .  Le jury sera composé de : Dr Aurélie Clodic, LAAS-CNRS,  RapporteurePr Julien Pinquier, Université de Toulouse, IRIT, RapporteurPr Laurence Devillers, Sorbonne Université, LISN-CNRS, ExaminatricePr Olivier Alata, Université Jean Monnet, Laboratoire Hubert Curien, ExaminateurPr Fabrice Lefèvre, Avignon Université, LIA, Directeur de thèseDr Bassam Jabaian, Avignon Université, LIA, Co-encadrant Titre : L’interaction humain-robot multimodale proactive dans un cadre hospitalier Dans cette thèse, nous nous concentrons sur la création d’un système multimodal proactif pour le robot social Pepper, destiné à une salle d’attente d’hôpital. Pour ce faire, nous avons développé une architecture cognitive d’interaction humain-robot, fondée sur une boucle continue de perceptions, de représentation et de décision. Le flux de perceptions se divise en deux étapes : d’abord, la récupération des données des capteurs du robot, puis leur enrichissement grâce à des modules de raffinage. Un module de raffinage de diarisation du locuteur, basé sur une modélisation bayésienne de la fusion des perceptions audio et visuelles par coïncidence spatiale, a été intégré. Pour permettre une action proactive, nous avons conçu un modèle analysant la disponibilité des utilisateurs à une Plus d'infos

Soutenance de thèse de Lucas Druart – 24/10/2024

16 octobre 2024

Date:  Jeudi 24 octobre à 15h  Lieu: salle des thèses sur le campus Hannah Arendt.   Vous pouvez également y assister à distance si vous le souhaitez grâce au lien suivant : https://v-au.univ-avignon.fr/live/bbb-soutenance-these-l-druart-24-octobre-2024/.   Title : Towards Contextual and Structured Spoken Task-Oriented Dialogue Understanding Abstract : Accurately understanding users’ requests is key to provide smooth interactions with spoken Task-Oriented Dialogue (TOD) systems. Traditionally such systems adopt cascade approaches which combine an Automatic Speech Recognition (ASR) component with a Natural Language Understanding (NLU) one. Yet, those systems still have trouble to accurately map complex user’s request with their internal representation. Recent work highlights potential directions to improve those systems. On the one hand, end-to-end approaches have successfully enhanced Spoken Language Understanding (SLU) system’s performance. Indeed, they provide more robust and accurate predictions by leveraging joint optimization and paralinguistic information. On the other hand, textual datasets propose fine-grained semantic representations. Such representations seem more adequate to represent user’s complex requests. This thesis explores both directions towards contextual and structured spoken task-oriented dialogue understanding. We first conduct a preliminary study dedicated to getting the grips of SLU in the context of TOD. We designed a cascade approach to perform spoken Dialogue State Tracking (DST) on MultiWOZ. Our approach ranked Plus d'infos

Soutenance de thèse de Gaelle Laperrière – 09/09/2024

3 septembre 2024

Date : lundi 9 septembre 2024 Heure : 15h00 Lieu : l’amphithéâtre Ada Lovelace du CERI, campus Jean-Henri Fabre d’Avignon Université. Le jury sera composé de : Alexandre Allauzen, PR à Université Paris Dauphine-PSL, LAMSADE – Rapporteur Benoit Favre, PR à Aix-Marseille Université, LIS – Rapporteur Marco Dinarelli, CR au CNRS, LIG – Examinateur Nathalie Camelin, MCF à Le Mans Université, LIUM – Examinatrice Philippe Langlais, PR à Université de Montréal, DIRO, RALI – Examinateur Fabrice Lefèvre, PR à Avignon Université, LIA – Examinateur Yannick Estève, PR à Avignon Université, LIA – Directeur de thèse   Sahar Ghannay, MCF à Université Paris-Saclay, LISN, CNRS – Co-encadrante de thèse Bassam Jabaian, MCF à Avignon Université, LIA – Co-encadrant de thèse Titre : Compréhension de la parole dans un contexte multilingue Cette thèse s’inscrit dans le cadre de l’Apprentissage Profond appliqué au domaine de la Compréhension Automatique de la Parole. Son objectif principal consiste à tirer bénéfice de données existantes dans des langues bien dotées en annotation sémantique de la parole afin de développer des systèmes de compréhension performants dans des langues moins dotées. Ces dernières années ont connu des avancées considérables dans le domaine de la traduction automatique de la parole grâce à de nouvelles approches permettant de faire converger Plus d'infos

Projet ANR PANTAGRUEL

21 août 2024

Le projet Pantagruel (ANR 23-IAS1-0001) ambitionne de développer et évaluer des modèles linguistiques multimodaux (écrit, oral, pictogrammes) inclusifs pour le français. Il mobilise des chercheurs de diverses disciplines telles que l’informatique, le traitement du signal, la sociologie et la linguistique pour assurer des résultats fiables et variés. Plus d'infos

Projet ANR MALADES

4 juin 2024

As part of the MALADES project, we presented innovative approaches for the integration of LLM in health centers. The aim is to equip these centers with NLP tools derived from LLMs and adapted for the biomedical field while maintaining sovereignty of the models and complete control of their health data. Plus d'infos

Séminaire SLG – Tanja Schultz – 25/04/2024

22 avril 2024

On Thursday 25 April at 11am, we will host a talk from Prof. Tanja Schultz on « Neural Signal Interpretation for Spoken Communication ».   The room will be defined later.   Please find below a short abstract and bio from Prof. Tanja Schultz.   Abstract: This talk presents advancements in decoding neural signals, providing further insights into the intricacies of spoken communication. Delving into both speech production and speech perception, we discuss low latency processing of neural signals from surface EEG, stereotactic EEG, and intracranial EEG using machine learning methods. Practical implications and human-centered applications are considered, including silent speech interfaces, neuro-speech prostheses, and the detection of auditory attention and distraction in communication. This presentation aims to spark curiosity about the evolving landscape of neural signal interpretation and its impact on the future of spoken communication. Bio: Tanja Schultz received the diploma and doctoral degrees in Informatics from University of Karlsruhe and a Master degree in Mathematics and Sport Sciences from Heidelberg University, both in  Germany. Since 2015 she is Professor for Cognitive Systems of the Faculty of Mathematics & Computer Science at the University of Bremen, Germany. Prior to Bremen she spent 7 years as Professor for Cognitive Systems at KIT (2007-2015) and over Plus d'infos

Soutenance de Thèse Imen Ben-Amor – 25/04/2024

15 avril 2024

Lieu: Centre d’Enseignement et de Recherche en Informatique (CERI), Amphi ADA – 339 Chemin des Meinajaries, CERI, 84000 Avignon. You can also attend the defense via video conference, using this link . You can fin the slides here. The jury members are the following: Pr. Tomi KINNUNEN, University of Eastern Finland – RapporteurPr. Alessandro VINCIARELLI, University of Glasgow – RapporteurPr. Tanja SCHULTZ, University Bremen- ExaminatricePr. Didier MEUWLY, Netherlands Forensic Institute, University of Twente- ExaminateurPr. Corinne FREDOUILLE, LIA, Université d’Avignon- ExaminatricePr. JEAN-FRANCOIS BONASTRE, Inria, LIA, Université d’Avignon – Directeur de thèse TITLE: Deep modeling based on voice attributes for explainable speaker recognition. Application in the forensic domain. Abstract:Automatic speaker recognition (ASpR) has been integrated into critical applications, ranging from customised assistant services to security systems and forensic investigations. It aims to automatically determine whether two voice samples originate from the same speaker. These systems primarily rely on complex deep neural networks (DNN) and present their results by a single value. Despite the high performance demonstrated by DNN-based ASpR systems, they struggle to provide transparent insights into the nature of speech representations, its encoding, and its use in decision-making process. This lack of transparency presents significant challenges in addressing ethical and legal Plus d'infos

Séminaire SLG – Antoine Caubrière – 15/03/2024

11 mars 2024

Le prochain séminaire de l’équipe SLG aura lieu le 15/03/2024, entre 10h et 11h. Nous recevrons Antoine Caubrière, de l’entreprise Orange, qui présentera ses travaux récents. Titre : Représentation de la parole multilingue par apprentissage auto-supervisé dans un contexte exclusivement sub-saharien. Résumé : Le groupe Orange est présent dans plus d’une dizaine de pays d’Afrique subsaharienne avec une ambition d’avoir des offres en phase avec les besoins des clients sur cette zone. Pour fournir des services localisés et accessibles aux personnes peu digitalisées et peu lettrées, Orange mise sur le développement d’agents conversationnels vocaux, permettant d’informer et d’accompagner ses clients et collaborateurs. La mise en œuvre d’un tel service nécessite en premier lieu une brique technologique de reconnaissance et compréhension de la parole. La diversité linguistique forte du continent africain associée aux problématiques de faible volume de données annotées disponible, constitue un des chalenges de la mise en œuvre de technologie de traitement de la parole pour ces langues. Une des solutions peut être l’exploitation des techniques d’apprentissage par auto-supervision. Exploiter cet apprentissage permet l’entraînement d’un extracteur de représentation riche de la parole. Ce type d’approche utilise une grande quantité de données non transcrites pour le pré-entrainement d’un modèle avant Plus d'infos

Séminaire SLG – 15/02/2024

13 février 2024

Thibault Roux organisera un débat à propos du sujet ci-dessous: « Les progrès récents de la technologie ont soulevé beaucoup de questionnements et d’inquiétudes vis-à-vis de l’impact sur nos sociétés. De nombreuses personnes s’inquiètent de son utilisation militaire, pour la surveillance de masse ou de la désinformation. D’un point de vue plus global, Nick Bostrom, philosophe, théorise l’hypothèse du monde vulnérable qui prédit que la Science détruira l’humanité.Dans ce débat, nous interrogerons nos propres biais en tant que chercheurs et chercheuses, et tenterons de répondre aux questions éthiques que soulève cette hypothèse. Est-ce que la Science est une menace pour l’humanité ? Faut-il arrêter la Science ? Ou plus sérieusement, peut-on trouver une solution pour ne pas s’autodétruire ? »

Séminaire SLG – Ryan Whetten – 01/02/2024

25 janvier 2024

La prochaine réunion SLG aura lieu en salle S5 le jeudi 1er février, de 12h00 à 13h00. Ryan Whetten y présentera ses travaux, dont vous trouverez une brève introduction ci-dessous. ——————————————————————— Open Implementation and Study of BEST-RQ for Speech Processing Abstract: Self-Supervised Learning (SSL) has proven to be useful in various speech tasks. However, these methods are generally very demanding in terms of data, memory, and computational resources. Recently, Google came out with a model called BEST-RQ (BERT-based Speech pre-Training with Random-projection Quantizer). Despite BEST-RQ’s great performance and simplicity, details are lacking in the original paper and there is no official easy-to-use open-source implementation. Furthermore, BEST-RQ has not been evaluated on other downstream tasks aside from ASR. In this presentation, we will discuss the details of my implementation of BEST-RQ and then see results from our preliminary study on four downstream tasks. Results show that a random projection quantizer can achieve similar downstream performance as wav2vec 2.0 while decreasing training time by over a factor of two.

1 2 3 4