Dự án Nghiên Cứu LFI [Lưu Trữ] - LIP6

Dự án nghiên cứu LFI [Lưu trữ]

Nhóm nghiên cứu : LFI

Politique de conception floue interprétable en apprentissage par renforcement

Project Leader : Christophe Marsala

10/01/2022 → 12/2025

https://anr.fr/Projet-ANR-22-ASTR-0032

https://anr.fr/Projet-ANR-22-ASTR-0032

LabCom Jumeaux Numériques pour le Diagnostic - TRIBVN

Project Leader : Isabelle Bloch

05/01/2021 → 11/2025

https://anr.fr/Projet-ANR-21-LCV1-0006

https://anr.fr/Projet-ANR-21-LCV1-0006

Intelligence artificielle hybride appliqué à la sigillographie byzantine

Project Leader : Isabelle Bloch

09/01/2021 → 09/2025

https://anr.fr/Projet-ANR-21-CE38-0001

https://anr.fr/Projet-ANR-21-CE38-0001

IFP-in-RL - Interpretable-by-design Fuzzy Policy in Reinforcement Learning

Dans le contexte général du domaine de l’eXplainable Artificial Intelligence (XAI), le projet IFP-in-RL a pour objectif la proposition d'une méthode de construction automatique d'un système de contrôle d'un système, tel qu'un drone, qui prenne en compte la contrainte d'interprétabilité dans sa conception même. Pour cela, ce projet se place dans le cadre des systèmes à base de règles floues qui, depuis leur introduction, ont pour but de faciliter l’expression de connaissances sous une forme linguistique, naturelle pour l’utilisateur, et facilement compréhensible par un humain. Une telle représentation des connaissances est un excellent moyen de favoriser l’interaction de l’humain avec le système informatique et d’améliorer sa compréhension de son fonctionnement, offrant ainsi la possibilité de rendre son comportement transparent et facilement validable. Dans la littérature, différentes approches de construction ou de mise au point d’une base de règles floues pour concevoir un système existent, mais elles souffrent généralement du travers de ne pas intégrer une optimisation spécifique de l’interprétabilité.

Dans ce projet IFP-in-RL, une méthodologie innovante est introduite pour la conception de tels systèmes. Cette méthodologie est basée sur la mise en œuvre d’une approche d’apprentissage par renforcement utilisant des métriques d’interprétabilité. L’objectif ici est d’intégrer la prise en compte et l’optimisation de l’interprétabilité souhaitée au cours de l’apprentissage même, et non a posteriori comme de nombreuses méthodes le font actuellement dans le domaine de l’XAI.

Le projet IFP-in-RL vise pour cela à réaliser, en amont, une étude complète, à la fois théorique et expérimentale, de métriques d’interprétabilité, incluant les critères numériques existants ainsi que les besoins des utilisateurs. Il s’agira de proposer une taxonomie des métriques existantes et de définir de nouvelles mesures si nécessaire, afin de compléter les précédentes et de permettre leur exploitation dans des algorithmes d’apprentissage par renforcement originaux. Une originalité de ce projet est d’intégrer une évaluation qualitative, menée auprès d’un panel humain, des métriques proposées mais aussi des bases de règles obtenues à l’issue de l’apprentissage par renforcement.

En termes applicatifs, le projet IFP-in-RL a pour objectif la mise en oeuvre de ces propositions pour le pilotage d'un drone, naviguant en toute autonomie pour assurer une mission consistant à survoler des points d'intérêt et les prendre en photo, à partir de données fournies par un simulateur.

Project Leader : Christophe MARSALA

01/01/2023 → 06/2025

https://anr.fr/Projet-ANR-22-ASTR-0032

AXA Research Funds JRI

Interpretability for human-friendly machine learning models

Project Leader : Christophe Marsala

03/01/2017 → 12/2023

Từ khóa » Giá Lfi