Projet ANR muDialBot

MUlti-party perceptually-active situated DIALog for human-roBOT interaction

Dans muDialBot, notre ambition est d’incorporer pro-activement des traits de comportements humains dans la communication parlée humain-robot. Nous projetons d’atteindre une nouvelle étape de l’exploitation de l’information riche fournie par les flux de données audio et visuelles venant des humains. En particulier en extraire des événements verbaux et non-verbaux devra permettre d’accroître les capacités de décision des robots afin de gérer les tours de parole plus naturellement et aussi de pouvoir basculer d’interactions de groupe à des dialogues en face-à-face selon la situation.

Récemment on a vu croître l’intérêt pour les robots compagnons capable d’assister les individus dans leur vie quotidienne et de communiquer efficacement avec eux. Ces robots sont perçus comme des entités sociales et leur pertinence pour la santé et le bien-être psychologique a été mise en avant dans des études. Les patients, leurs familles et les professionnels de santé pourront mieux apprécier le potentiel de ces robots, dans la mesure où certaines limites seront rapidement affranchies, telles leur capacité de mouvement, vision et écoute afin de communiquer naturellement avec les humains, au-delà de ce que permettent déjà les écrans tactiles et les commandes vocales.

Les résultats scientifiques et technologiques du projet seront implémentés sur un robot social commercial et seront testés et validés avec plusieurs cas d’usage dans le contexte d’une unité d’hôpital de jour. Une collecte de données à grande échelle viendra compléter les test in-situ pour nourrir les recherches futures.

Liste des partenaires :

Coordinateur du projet : LIA

Responsable Scientifique pour le LIA : Fabrice LEFEVRE

Date Début : 01/01/2021   Date Fin : 31/12/2024

En Savoir Plus