[Thèse soutenue] Kevin Fauvel

[Thèse soutenue] Kevin Fauvel : Amélioration de la performance et de l’explicabilité des méthodes d’apprentissage automatique de séries temporelles multivariées

Sujet de thèse cofinancé par #DigitAg

Amélioration de la performance et de l’explicabilité des méthodes d’apprentissage automatique de séries temporelles multivariées

Kevin a soutenu sa thèse le mardi 13 octobre 2020 - Inria de Rennes

  • Date de démarrage : octobre 2017
  • Date de soutenance : 13 octobre 2020
  • Université : Bretagne Loire
  • Ecole doctorale : MathSTIC  Rennes
  • Discipline / Spécialité :  Apprentissage Automatique
  • Directeur de thèse : Alexandre Termier (Université de Rennes – Inria), Philippe Faverdin (Inrae)
  • Encadrant(es)  : Véronique Masson  (Inria)
  • Financement : #DigitAg – Inria
  • #DigitAg : Thèse cofinancée – Axe 5Challenge 4 

Mots-clés:  Apprentissage Automatique, Explicabilité de l’Intelligence Artificielle, Portée Collective, Séries Temporelles Multivariées

Résumé : Le déploiement massif de capteurs couplé à leur exploitation dans de nombreux secteurs génère une masse considérable de données multivariées qui se sont révélées clés pour la recherche scientifique, les activités des entreprises et la définition de politiques publiques. Plus spécifiquement, les données multivariées qui intègrent une évolution temporelle, c’est-à-dire des séries temporelles, ont reçu une attention toute particulière ces dernières années, notamment grâce à des applications critiques de monitoring (e.g. mobilité, santé, smart farming) et l’apprentissage automatique. Cependant, pour de nombreuses applications, l’adoption d’algorithmes d’apprentissage automatique ne peut se reposer uniquement sur la performance. Par exemple, le règlement général sur la protection des données de l’Union européenne, entré en application le 25 Mai 2018, introduit un droit à l’explication pour tous les individus afin qu’ils obtiennent des « meaningful explanations of the logic involved » lorsque la prise de décision automatisée a des « legal effects » sur les individus ou les affecte significativement.
Les modèles d’apprentissage automatique de séries temporelles multivariées de l’état de l’art les plus performants sont des modèles difficiles à comprendre (« black-box »), qui se reposent sur des méthodes d’explicabilité applicables à n’importe quel modèle d’apprentissage automatique (post-hoc modèle-agnostique). L’axe de travail principal au sein des méthodes d’explicabilité post-hoc modèle-agnostique consiste à approximer la surface de décision d’un modèle en utilisant un modèle de remplacement explicable. Cependant, les explications du modèle de remplacement ne peuvent pas être parfaitement exactes au regard du modèle original, ce qui constitue un prérequis pour de nombreuses applications. L’exactitude est cruciale car elle correspond au niveau de confiance que l’utilisateur peut porter aux explications relatives aux prédictions du modèle, c’est-à-dire à quel point les explications reflètent ce que le modèle calcule.
Cette thèse propose de nouvelles approches pour améliorer la performance et l’explicabilité des méthodes d’apprentissage automatique de séries temporelles multivariées, et établit de nouvelles connaissances concernant deux applications réelles.

Contact : alexandre.termier [AT] irisa.fr 

Réseaux : LinkedIn

Communications & Publications