Projet ANR muDialBot

1 janvier 2021

Dans muDialBot, notre ambition est d’incorporer pro-activement des traits de comportements humains dans la communication parlée humain-robot. Nous projetons d’atteindre une nouvelle étape de l’exploitation de l’information riche fournie par les flux de données audio et visuelles venant des humains. En particulier en extraire des événements verbaux et non-verbaux devra permettre d’accroître les capacités de décision des robots afin de gérer les tours de parole plus naturellement et aussi de pouvoir basculer d’interactions de groupe à des dialogues en face-à-face selon la situation. Plus d'infos

Projet H2020 ESPERANTO

1 janvier 2021

Les technologies de traitement de la parole sont cruciales pour de nombreuses applications commerciales. Le projet ESPERANTO, financé par l’UE, vise à rendre la prochaine génération d’algorithmes d’IA utilisés dans les applications de traitement de la parole plus accessibles. Plus d'infos

Soutenance d’HDR de Richard Dufour – 8 décembre 2020

8 décembre 2020

Soutenance d’HDR intitulée « Traitement automatique du langage : Études et apports aux frontières de l’interdisciplinarité », le mardi 8 décembre 2020 à 14h00 dans la Salle des thèses d’Avignon Université (Campus Hannah Arendt – Centre Ville). Le jury de soutenance sera composé de : Rapporteurs : Philippe Langlais, Professeur, DIRO, Université de Montréal, Montréal Sophie Rosset, Directrice de recherche CNRS, LIMSI, Paris-Saclay, Paris Pascale Sébillot, Professeure, IRISA, Université de Rennes 1, Rennes Examinateurs : Jean-François Bonastre, Professeur, LIA, Avignon Université, Avignon Yannick Estève, Professeur, LIA, Avignon Université, Avignon Emmanuel Ethis, Professeur, INSEAC, CNAM, Guingamp Georges Linarès, Professeur, LIA, Avignon Université, Avignon Emmanuel Morin, Professeur, LS2N, Université de Nantes, Nantes

Soutenance de thèse d’Adrien Gresse – 6 février 2020

3 février 2020

Jeudi 6 février 2020 à 14h30 au CERI (amphithéâtre Ada). Titre de la thèse : « L’art de la voix : caractériser l’information vocale dans un choix artistique » Membres du jury : M. Emmanuel Vincent, Directeur de recherche Inria-Nancy, LORIA, Rapporteur M. Jean-Julien Aucouturier, Chargé de recherche CNRS, IRCAM, Rapporteur Mme Julie Mauclair, Maître de conférences à l’université de Toulouse, IRIT, Examinatrice Mme Lori Lamel, Directrice de recherche CNRS, LIMSI, Examinatrice M. Yannick Estève, Professeur à l’université d’Avignon, LIA, Examinateur M. Jean-François Bonastre Professeur à l’université d’Avignon, LIA, Directeur de thèse M. Richard Dufour, Maître de conférences à l’université d’Avignon, LIA, Co-encadrant M. Vincent Labatut, Maître de conférences à l’université d’Avignon, LIA, Co-encadrant Résumé : Pour atteindre une audience internationale, les productions audiovisuelles (films, séries, jeux vidéo) doivent être traduites dans d’autres langues. Très souvent les voix de la langue d’origine de l’œuvre sont doublées par de nouvelles voix dans la langue cible. Le processus de casting vocal visant à choisir une voix (un acteur) en accord avec la voix originale et le personnage joué est réalisé manuellement par un directeur artistique (DA). Aujourd’hui, les DAs ont une inclination pour les nouveaux « talents » (moins coûteux et plus disponibles que les doubleurs Plus d'infos

Projet ANR AISSPER

1 janvier 2020

AISSPER vise à développer de nouveaux modèles sémantiques au niveau de la phrase et au niveau de la conversation pour l’extraction d’information pertinente depuis des documents parlés. Plus précisément, AISSPER développera de nouveaux mécanismes d’attention neuronaux pour améliorer les systèmes SLU neuronaux de bout en bout au niveau de la phrase et au niveau du document. Plus d'infos

Soutenance de Thèse de Titouan Parcollet – 3 décembre 2019

3 décembre 2019

Soutenance de thèse de Parcollet Titouan, intitulée « Réseaux de neurones artificiels fondés sur l’algèbre des quaternions » ce mardi 3 décembre 2019 à 14H30 en amphithéâtre Blaise Pascal (CERI). La thèse sera défendue devant un jury composé de : M. Thierry Artières,  Professeur, ECM/LIS/CNRS, Aix-Marseille université  (Rapporteur) M. Alexandre Allauzen,  Professeur, LIMSI/CNRS, Paris-Sud université  (Rapporteur) Mme Nathalie Camelin,  Maître de Conférence, LIUM, Le Mans université  (Examinatrice) M. Yoshua Bengio,  Professeur, DIRO/MILA, Université de Montréal  (Visioconférence, Examinateur) M. Benjamin Lecouteux, Maître de Conférence, LIG, Université Grenoble Alpes  (Examinateur) M. Xavier Bost,   Ingénieur de recherche, ORKIS (Examinateur) M. Georges Linarès,  Professeur, LIA, Avignon université  (Directeur) M. Mohamed Morchid,  Maître de Conférence, LIA, Avignon université  (co-Directeur) La soutenance sera réalisée en Français. Vous êtes également tous invités au pot qui suivra en Salle 5. Résumé : Au cours des dernières années, l’apprentissage profond est devenu l’appr-oche privilégiée pour le développement d’une intelligence artificielle moderne (IA). L’augmentation importante de la puissance de calcul, ainsi que la quantité sans cesse croissante de données disponibles ont fait des réseaux de neurones profonds la solution la plus performante pour la resolution de problèmes complexes. Cependant, la capacité à parfaitement représenter la multidimensionalité des données réelles reste un défi majeur pour les architectures neuronales artificielles. Pour résoudre ce Plus d'infos

Soutenance d’HDR de Mohamed Morchid – 26 novembre 2019

25 novembre 2019

Le 26 novembre prochain à 16h en salle des thèses (campus Hannah Arendt). Cette HDR intitulée « Réseaux de Neurones pour le Traitement Automatique du Langage » sera présentée devant un jury composé de : Rapporteurs : Mme Dilek Z. HAKKANI-TÜR Senior Principal Scientist, Alexa AI, USA M. Patrice BELLOTProfesseur, AMU Polytech’, LIS, Marseille M. Frédéric ALEXANDREDirecteur de Recherche INRIA, Bordeaux Examinateurs : M. Yannick ESTÈVEProfesseur, AU, LIA, Avignon M. Frédéric BÉCHETProfesseur, AMU, LIS, Marseille

Projet ANR VoicePersonae

1 février 2019

Grâce aux avancées récentes en traitement automatique de la parole et du langage, les humains sont de plus en plus fréquemment en position d’interagir par la voix avec des agents artificiels intelligents. Le nombre d’applications utilisant ainsi la voix est en forte expansion et ce mode d’interaction est de plus en plus accepté. De nos jours, les systèmes vocaux peuvent proposer des messages synthétisés d’une telle qualité qu’il est difficile de les discerner de messages enregistrés par un humain. Ils sont également capables de comprendre des requêtes exprimées en langage naturel, toutefois en restant dans leur cadre applicatif précis. Enfin, ces systèmes reconnaissent ou identifient fréquemment leurs utilisateurs par leur voix. Plus d'infos

Projet ANR ROBOVOX

1 février 2019

Ce projet est dédié à l’identification vocale robuste pour les robots de sécurité mobiles et propose des solutions intégrant des modalités d’appoint à la reconnaissance de la voix, tirant partie du contexte d’interaction homme-robot. Plus d'infos

Projet ANR DEEP-PRIVACY

1 janvier 2019

Le projet concerne le développement d’approches distribuées, personnalisées et préservant la vie privée pour la reconnaissance de la parole. Nous proposons une approche dans laquelle le terminal de chaque utilisateur exécute localement des calculs privés et ne partage pas ses données vocales brutes, alors que certains calculs inter-utilisateurs (telles que l’enrichissement de modèles) sont réalisés sur un serveur ou un réseau peer-to-peer, avec des données vocales partagées après anonymisation. Plus d'infos

1 2 3 4