Informations générales
– Durée : 6 mois
– Début : à partir de janvier 2025, au plus tard avril 2025
– Lieu : Université d’Avignon – LIA – Campus
Contexte scientifique
L’extraction de relations (RE) est un domaine de recherche très actif et au coeur des taches
de NLP. Elle consiste à identifier des relations sémantiques entre des entités généralement
nommées concepts à partir de données textuelles. L’apparition des grands modèles de
langue (LLM) ouvre des possibilités supplémentaires dans la validation et l’enrichissement
de ces bases de connaissances (cf [1]).
Objectif du projet / Apports scientifiques attendus de la part de l’étudiant (e):
L’objectif principal du stage sera la mise à jour et la validation d’une base de connaissance
(BdC) du domaine des ressources humaines.
Les différentes étapes du projet sont les suivantes :
- Réalisation d’un état de l’art sur l’utilisation des grands modèles de langue (LLM)
pour l’enrichissement de BdC (cf [1] et potentiellement [2]) - Mise en application des méthodes identifiées en 1. pour la validation des relations
existantes dans la BdC du domaine - Validation de la tâche 2. en utilisant une BdC de référence
- Utilisation d’un corpus de données du domaine des RH (offres d’emploi) pour inférer
des connaissances nouvelles à l’aide de ce type de modèle d’apprentissage dans la
BdC issue du 3.
Candidatures
Le candidat doit être en master 2 informatique avec des connaissances en intelligence
artificielle. Des connaissances en traitement automatique du langage naturel, base de
connaissance seront appréciées. Le candidat doit montrer un intérêt pour le travail en
équipe et interdisciplinaire.
Les candidatures (CV et lettre de motivation, relevé de notes Bac+4) sont à envoyer
remy.kessler@univ-avignon.fr avant le 15/12/2024.
Références biblio
[1] Wadhwa, S., Amir, S., & Wallace, B. C. (2023). Reevisiting relation extraction in the era of
large language models. arXiv preprint arXiv:2305.05003.
[2] YUAN, Chenhan, XIE, Qianqian, et ANANIADOU, Sophia. Zero-shot temporal relation extraction
with chatgpt. arXiv preprint arXiv:2304.05454, 2023.