Best Paper Award

25 June 2020

Prof. Abderrahim Benslimane et ses co-auteurs ont obtenu le BEST PAPER AWARD pour leur article “Defending Malicious Check-in Based on Access Point Selection for Indoor Positioning System”, publié à la conference IEEE International Conference on Communications (ICC 2020), 7-11 June 2020, Dublin, Ireland.: https://icc2020.ieee-icc.org/

Prof. Benslimane IEEE Distinguished Lecturer

22 June 2020

Chaque année IEEE Vehicular Technology Society nomme quelques conférenciers émérites, Distinguished Lecturers, connus pour leurs travaux de recherche dans la technologie de véhicules. Cette année, Abderrahim Benslimane, professeur à l’université d’Avignon et membre du Laboratoire d’Informatique d’Avignon est l’un des Lauréats qui ont été sélectionnés dans ce sens pour deux ans. Dans le cadre de cette nomination, et avec le soutien financier de IEEE, le conférencier émérite pourra être invité dans le monde pour donner des conférences dans son domaine d’expertise.

PhD defense of Carlos González – 18 December 2019

18 December 2019

Thesis defense of Carlos González entitled ‘Multimedia and Multilingual Automatic Summarization and Information Retrieval’ on Wednesday, December 18, 2019, at 2:00 PM in the Thesis Room (Saint Marthe – City Center). Jury: Abstract: As multimedia sources have become massively available online, helping users to understand the large amount of information they generate has become a major issue. One way to approach this is by summarizing multimedia content, thus generating abridged and informative versions of the original sources. This PhD thesis addresses the subject of text and audio-based multimedia summarization in a multilingual context. It has been conducted within the framework of the Access Multilingual Information opinionS (AMIS) CHISTERA-ANR project, whose main objective is to make information easy to understand for everybody. Text-based multimedia summarization uses transcripts to produce summaries that may be presented either as text or in their original format. The transcription of multimedia sources can be done manually or automatically by an Automatic Speech Recognition (ASR) system. The transcripts produced using either method differ from wellformed written language given their source is mostly spoken language. In addition, ASR transcripts lack syntactic information. For example, capital letters and punctuation marks are unavailable, which means sentences are nonexistent. To deal Plus d'infos

PhD defense of Titouan Parcollet – 3 December 2019

3 December 2019

Thesis defense of Titouan Parcollet, entitled “Artificial Neural Networks Based on Quaternion Algebra,” will take place on Tuesday, December 3, 2019, at 2:30 PM in the Blaise Pascal amphitheater (CERI). The thesis will be presented before a jury composed of: The defense will be conducted in French. You are also invited to the reception following the defense in Room 5. Abstract: In recent years, deep learning has become the preferred approach for developing modern artificial intelligence (AI). The significant increase in computing power, along with the ever-growing amount of available data, has made deep neural networks the most efficient solution for solving complex problems. However, accurately representing the multidimensionality of real-world data remains a major challenge for artificial neural architectures. To address this challenge, neural networks based on complex and hypercomplex number algebras have been developed. Thus, the multidimensionality of data is integrated into neurons, which are now complex and hypercomplex components of the model. In particular, quaternion neural networks (QNNs) have been proposed to process three-dimensional and four-dimensional data, based on quaternions representing rotations in our three-dimensional space. Unfortunately, unlike complex-valued neural networks, which are now accepted as an alternative to real-valued neural networks, QNNs suffer from several limitations, Plus d'infos

Intelligence artificielle pour la compréhension du langage parlé contrôlée sémantiquement – AISSPER

2 December 2019

L’Agence Nationale pour la Recherche finance chaque année des projets de recherche dont plusieurs sur l’intelligence artificielle. Focus sur le projet d’AISSPER porté par Mohamed Morchid du Laboratoire d’Informatique d’Avignon : Intelligence artificielle pour la compréhension du langage parlé contrôlée sémantiquement.Lire la suite sur: https://www.actuia.com/actualite/intelligence-artificielle-pour-la-comprehension-du-langage-parle-controlee-semantiquement-aissper/

HDR defense of Mohamed Morchid – 26 November 2019

26 November 2019

On the next 26th of November at 4 PM in the thesis room (Hannah Arendt campus). This HDR entitled ‘Neural Networks for Natural Language Processing’ will be presented before a jury composed of: Reviewers: Mrs. Dilek Z. HAKKANI-TÜR Senior Principal Scientist, Alexa AI, USA Mr. Patrice BELLOT Professor, AMU Polytech’, LIS, Marseille Mr. Frédéric ALEXANDRE Research Director INRIA, Bordeaux Examiners: Mr. Yannick ESTÈVE Professor, AU, LIA, Avignon Mr. Frédéric BÉCHET Professor, AMU, LIS, Marseille

SpeechBrain

18 November 2019

        Nous sommes heureux d’annoncer le lancement de  (https://speechbrain.github.io/), un toolkit tout-en-un liant PyTorch et le traitement automatique de la parole. Basé sur le succès de son prototype PyTorch-Kaldi, nous souhaitons accroitre les fonctionnalités ainsi que l’efficacité de ce projet. Plus précisément, le but est de créer un outil unique, flexible et surtout facile à prendre en main, qui puisse être utiliser pour rapidement développer des systèmes état de l’art pour la parole. Nous connaissons tous, dans nos sous-domaines respectifs, de nombreux outils éparpillés, plus ou moins complexes (souvent plus que moins), et il est donc d’un intérêt certain de construire un projet unique, capable de réunir et de combler tous les besoins de la communauté. Quelques exemples sont: ASR (end-to-end et DNN-HMM), identification / vérification du locuteur, séparation de la parole, traitement de signaux multi-microphones, apprentissages “self-supervised” et non supervisé, extraction de caractéristiques via GPUs, et autres. Le projet sera dans un premier temps dirigé par le MILA (via Dr. Ravanelli Mirco, présent à la dernière retraite du LIA), et est actuellement soutenu par Samsung, Dolby ainsi que Nvidia. Le LIA participe également depuis le début à cet outil, via mon implication dans la création et gestion de PyTorch-Kaldi Plus d'infos

IEEE ICC’19 Best Paper Award

6 June 2019

Best Paper award for “Distributed Hierarchical Information Acquisition Systems Based on AUV Enabled Sensor Networks”, IEEE ICC 2019. Abderrahim Benslimane.

Yes We Code

27 May 2019

Le LIA a participé à la 1èreRencontre Yes we code! de l’académie d’Aix-Marseille –17 mai 2019.

1 10 11 12 13