Language weekly meetings

28 octobre 2020

  Starting from November 6th, small informal meetings around the « language » research area of LIA will be re-introduced. These events are expected to foster interesting discussions around the members interested in this broad topic. More precisely, we all know that it may become hard to follow or even have a global view on what our colleagues do, thus potentially preventing relevant collaborations. In fact, many benefits may come from such short group meetings.     Each session will be divided into two parts:    Round table: each participant will be given 5 minutes to speak about her/his latest findings, progress, questions, research paper. In short, it is about exchanging ideas and understanding what peoples do. Of course, slides are not required, this is a simple informal discussion.  Short talk: Every week, one person will be given the opportunity to present something in 5-15min. It could be a presentation that should be given to a conference (i.e with feedbacks from the group), new results, a completely unexplored idea, or even simply a paper that the speaker found relevant.      Duration: 45min-1hour. When: Every Friday What time: 13:00-14:00. (Not fixed yet) Who: Absolutely e-v-e-r-y-o-n-e. PhD students are STRONGLY encouraged to attend. Where: Physically if allowed (COVID) or virtually. The room Plus d'infos

Appel à la concurrence en vue d’un achat de serveurs

17 juillet 2020

Le LIA désire acheter 4 serveurs de calcul, chacun configuré comme suit : 2 processeurs Intel Xeon cadencés au minimum à 2Ghz RAM de 192 Go ECC contrôleur RAID matériel, pour RAID 0,1,5,6 au moins 10 To d’espace de stockage via des disques durs en RAID 5 1 SSD de 240 Go minimum 4 cartes graphiques — modèle Nvidia RTX 2080 TI avec 11 Go de VRAM interface réseau Ethernet RJ45 à 1 Gb/s au minimum (préciser en option le coût d’un passage à 10 Gb/s) interface de gestion à distance alimentation redondante format rack 19 pouces, sur rails coulissants profondeur maximale (boîtier et rails) de 800 mm hauteur 2U de préférence (préciser le nombre de U dans le devis) garantie de 3 ans sur site J+1 assurée par le fournisseur Les entreprises intéressées par cet appel sont priées de faire parvenir avant le 1er septembre 2020 un devis pour quatre serveurs correspondant à cette configuration (incluant les frais de livraison) à l’adresse : teva.merlin@univ-avignon.fr.

Best Paper Award

25 juin 2020

Prof. Abderrahim Benslimane et ses co-auteurs ont obtenu le BEST PAPER AWARD pour leur article “Defending Malicious Check-in Based on Access Point Selection for Indoor Positioning System”, publié à la conference IEEE International Conference on Communications (ICC 2020), 7-11 June 2020, Dublin, Ireland.: https://icc2020.ieee-icc.org/

Prof. Benslimane IEEE Distinguished Lecturer

22 juin 2020

Chaque année IEEE Vehicular Technology Society nomme quelques conférenciers émérites, Distinguished Lecturers, connus pour leurs travaux de recherche dans la technologie de véhicules. Cette année, Abderrahim Benslimane, professeur à l’université d’Avignon et membre du Laboratoire d’Informatique d’Avignon est l’un des Lauréats qui ont été sélectionnés dans ce sens pour deux ans. Dans le cadre de cette nomination, et avec le soutien financier de IEEE, le conférencier émérite pourra être invité dans le monde pour donner des conférences dans son domaine d’expertise. https://vtsociety.org/member-resources/distinguished-lecturers/dl_list/#DL

Soutenance de thèse d’Adrien Gresse – 6 février 2020

3 février 2020

Jeudi 6 février 2020 à 14h30 au CERI (amphithéâtre Ada). Titre de la thèse : « L’art de la voix : caractériser l’information vocale dans un choix artistique » Membres du jury : M. Emmanuel Vincent, Directeur de recherche Inria-Nancy, LORIA, Rapporteur M. Jean-Julien Aucouturier, Chargé de recherche CNRS, IRCAM, Rapporteur Mme Julie Mauclair, Maître de conférences à l’université de Toulouse, IRIT, Examinatrice Mme Lori Lamel, Directrice de recherche CNRS, LIMSI, Examinatrice M. Yannick Estève, Professeur à l’université d’Avignon, LIA, Examinateur M. Jean-François Bonastre Professeur à l’université d’Avignon, LIA, Directeur de thèse M. Richard Dufour, Maître de conférences à l’université d’Avignon, LIA, Co-encadrant M. Vincent Labatut, Maître de conférences à l’université d’Avignon, LIA, Co-encadrant Résumé : Pour atteindre une audience internationale, les productions audiovisuelles (films, séries, jeux vidéo) doivent être traduites dans d’autres langues. Très souvent les voix de la langue d’origine de l’œuvre sont doublées par de nouvelles voix dans la langue cible. Le processus de casting vocal visant à choisir une voix (un acteur) en accord avec la voix originale et le personnage joué est réalisé manuellement par un directeur artistique (DA). Aujourd’hui, les DAs ont une inclination pour les nouveaux « talents » (moins coûteux et plus disponibles que les doubleurs Plus d'infos

Soutenance de thèse de Carlos González – 18 décembre 2019

16 décembre 2019

Soutenance de thèse de Carlos González intitulée « Résumé automatique multimédia et multilingue et Recherche d’information » le mercredi 18 décembre 2019 à 14H00 dans la Salle de thèses (Saint Marthe – Centre Ville). Jury : Mme Violaine PRINCE Professeur, LIRMM, Montpellier 2 Rapportrice M. Eric GAUSSIER Professeur, LIG, Grenoble Rapporteur Mme. Fatiha SADAT Professeur, GDAC, Montréal Examinatrice M. Laurent BESACIER Professeur, LIG, Grenoble Examinateur M. Kamel SMAILI Professeur, LORIA, CNRS-Lorraine-Inria Examinateur M. Alfonso MEDINA URREA Chercheur, CELL, COLMEX Examinateur M. Juan-Manuel TORRES-MORENO Maître de Conférence HDR, LIA, Avignon Directeur M. Eric SANJUAN Maître de Conférence HDR, LIA, Avignon Co-directeur Résumé : Alors que les sources multimédias sont massivement disponibles en ligne, aider les utilisateurs à comprendre la grande quantité d’information générée est devenu un problème majeur. Une façon de procéder consiste à résumer le contenu multimédia, générant ainsi des versions abrégées et informatives des sources. Cette thèse aborde le sujet du résumé automatique (texte et parole) dans un contexte multilingue. Elle a été réalisée dans le cadre du projet CHISTERA-ANR Accès multilingue à l’information (AMIS). Le résumé multimédia basé sur le texte utilise des transcriptions pour produire des résumés qui peuvent être présentés sous forme textuelle ou dans leur format Plus d'infos

Soutenance de Thèse de Titouan Parcollet – 3 décembre 2019

3 décembre 2019

Soutenance de thèse de Parcollet Titouan, intitulée « Réseaux de neurones artificiels fondés sur l’algèbre des quaternions » ce mardi 3 décembre 2019 à 14H30 en amphithéâtre Blaise Pascal (CERI). La thèse sera défendue devant un jury composé de : M. Thierry Artières,  Professeur, ECM/LIS/CNRS, Aix-Marseille université  (Rapporteur) M. Alexandre Allauzen,  Professeur, LIMSI/CNRS, Paris-Sud université  (Rapporteur) Mme Nathalie Camelin,  Maître de Conférence, LIUM, Le Mans université  (Examinatrice) M. Yoshua Bengio,  Professeur, DIRO/MILA, Université de Montréal  (Visioconférence, Examinateur) M. Benjamin Lecouteux, Maître de Conférence, LIG, Université Grenoble Alpes  (Examinateur) M. Xavier Bost,   Ingénieur de recherche, ORKIS (Examinateur) M. Georges Linarès,  Professeur, LIA, Avignon université  (Directeur) M. Mohamed Morchid,  Maître de Conférence, LIA, Avignon université  (co-Directeur) La soutenance sera réalisée en Français. Vous êtes également tous invités au pot qui suivra en Salle 5. Résumé : Au cours des dernières années, l’apprentissage profond est devenu l’appr-oche privilégiée pour le développement d’une intelligence artificielle moderne (IA). L’augmentation importante de la puissance de calcul, ainsi que la quantité sans cesse croissante de données disponibles ont fait des réseaux de neurones profonds la solution la plus performante pour la resolution de problèmes complexes. Cependant, la capacité à parfaitement représenter la multidimensionalité des données réelles reste un défi majeur pour les architectures neuronales artificielles. Pour résoudre ce Plus d'infos

Intelligence artificielle pour la compréhension du langage parlé contrôlée sémantiquement – AISSPER

2 décembre 2019

L’Agence Nationale pour la Recherche finance chaque année des projets de recherche dont plusieurs sur l’intelligence artificielle. Focus sur le projet d’AISSPER porté par Mohamed Morchid du Laboratoire d’Informatique d’Avignon : Intelligence artificielle pour la compréhension du langage parlé contrôlée sémantiquement. Lire la suite sur: https://www.actuia.com/actualite/intelligence-artificielle-pour-la-comprehension-du-langage-parle-controlee-semantiquement-aissper/

Soutenance d’HDR de Mohamed Morchid – 26 novembre 2019

25 novembre 2019

Le 26 novembre prochain à 16h en salle des thèses (campus Hannah Arendt). Cette HDR intitulée « Réseaux de Neurones pour le Traitement Automatique du Langage » sera présentée devant un jury composé de : Rapporteurs : Mme Dilek Z. HAKKANI-TÜR Senior Principal Scientist, Alexa AI, USA M. Patrice BELLOTProfesseur, AMU Polytech’, LIS, Marseille M. Frédéric ALEXANDREDirecteur de Recherche INRIA, Bordeaux Examinateurs : M. Yannick ESTÈVEProfesseur, AU, LIA, Avignon M. Frédéric BÉCHETProfesseur, AMU, LIS, Marseille

SpeechBrain

18 novembre 2019

        Nous sommes heureux d’annoncer le lancement de  (https://speechbrain.github.io/), un toolkit tout-en-un liant PyTorch et le traitement automatique de la parole. Basé sur le succès de son prototype PyTorch-Kaldi, nous souhaitons accroitre les fonctionnalités ainsi que l’efficacité de ce projet.   Plus précisément, le but est de créer un outil unique, flexible et surtout facile à prendre en main, qui puisse être utiliser pour rapidement développer des systèmes état de l’art pour la parole. Nous connaissons tous, dans nos sous-domaines respectifs, de nombreux outils éparpillés, plus ou moins complexes (souvent plus que moins), et il est donc d’un intérêt certain de construire un projet unique, capable de réunir et de combler tous les besoins de la communauté. Quelques exemples sont: ASR (end-to-end et DNN-HMM), identification / vérification du locuteur, séparation de la parole, traitement de signaux multi-microphones, apprentissages “self-supervised” et non supervisé, extraction de caractéristiques via GPUs, et autres.   Le projet sera dans un premier temps dirigé par le MILA (via Dr. Ravanelli Mirco, présent à la dernière retraite du LIA), et est actuellement soutenu par Samsung, Dolby ainsi que Nvidia. Le LIA participe également depuis le début à cet outil, via mon implication dans la création et gestion Plus d'infos

1 6 7 8 9