Soutenance de thèse – 26/11/2025 : Andrea Fox

25 novembre 2025

Titre: « Apprentissage par renforcement pour l’affectation des ressources dans les systèmes Edge/Fog computing » Date: mercredi 26 novembre 2025 à 13h00 Lieu : Avignon Université, site centre-ville, Campus Hannah ArendtSalle des thèses Composition du jury de soutenance M. Francesco DE PELLEGRINI  Avignon Université  Directeur de thèse Mme Rosa FIGUEIREDO  Avignon Université  Examinatrice M. Nahum SHIMKIN  Technion  Examinateur M. Eitan ALTMAN  INRIA  Co-directeur de thèse M. Bruno GAUJAL  INRIA  Examinateur M. György DÁN  KTH  Rapporteur M. Marcello RESTELLI  Politecnico di Milano  Rapporteur Résumé Cette thèse étudie comment le reinforcement learning (RL) peut être appliqué à la conception de systèmes de décision intelligents pour la gestion des ressources dans le cadre de l’informatique en périphérie de réseau (edge computing). Elle se concentre sur le développement d’algorithmes adaptés aux environnements distribués, hétérogènes et limités en ressources. Dans le paradigme de l’informatique en périphérie, le traitement et la prise de décision sont rapprochés des dispositifs terminaux, réduisant la latence et la charge réseau, mais introduisant de fortes contraintes en calcul, énergie et communication. Contrairement au cloud, ces nœuds de bord rendent l’optimisation centralisée inapplicable. Une orchestration efficace requiert donc des méthodes de contrôle adaptatives et décentralisées, capables de respecter des contraintes de performance et de sûreté dans des environnements incertains. Le RL Plus d'infos

Séminaire CORNET – Andrea FOX – 14/11/2025

10 novembre 2025

    Vendredi 14 novembre, 11h30 – Salle C057. Title: Multi-Agent Reinforcement Learning for Task Offloading in Wireless Edge Networks Abstract: In edge computing systems, autonomous agents must make rapid local decisions while competing for shared resources. Existing MARL approaches often rely on centralized critics or frequent inter-agent communication, which breaks down under limited observability and communication constraints. We propose a decentralized framework in which agents coordinate implicitly through a shared constraint on resource usage. This constraint is updated infrequently, requiring minimal communication, while each agent independently solves a local constrained Markov decision process (CMDP) to learn its behavior. Leveraging safe reinforcement learning, agents learn policies that satisfy both local and global objectives. We provide theoretical guarantees under mild assumptions and validate our approach experimentally, demonstrating superior performance to centralized and independent baselines, particularly in large-scale settings.

Séminaire CORNET – Rachid El-Azouzi – 20/11/2025

10 novembre 2025

20 Novembre 2025 – 11h30 – Salle C057.   Titre : Strategic Analysis of Just-In-Time Liquidity Provision in Concentrated Liquidity Market Makers   Abstract: Liquidity providers (LPs) are essential figures in the operation of automated market makers (AMMs); in exchange for transaction fees, LPs lend the liquidity that allows AMMs to operate. While many prior works have studied the incentive structures of LPs in general, we currently lack a principled understanding of a special class of LPs known as Just-In-Time (JIT) LPs. These are strategic agents who momentarily supply liquidity for a single swap, in an attempt to extract disproportionately high fees relative to the remaining passive LPs. This paper provides the first formal, transaction-level model of JIT liquidity provision for a widespread class of AMMs known as Concentrated Liquidity Market Makers (CLMMs), as seen in Uniswap V3, for instance. We characterize the landscape of price impact and fee allocation in these systems, formulate and analyze a non-linear optimization problem faced by JIT LPs, and prove the existence of an optimal strategy. By fitting our optimal solution for JIT LPs to real-world CLMMs, we observe that in liquidity pools (particularly those with risky assets), there is a significant gap between observed Plus d'infos