[Thèse soutenue] Kevin Fauvel

[Thèse soutenue] Kevin Fauvel: Amélioration de la Performance et de l’Explicabilité des Méthodes d’Apprentissage Automatique de Séries Temporelles Multivariées

Kevin a soutenu sa thèse le mardi 13 octobre 2020 à 14h à l’Inria de Rennes (salle Métivier).

Amélioration de la Performance et de l’Explicabilité des Méthodes d’Apprentissage Automatique de Séries Temporelles Multivariées

Sujet de thèse cofinancé par #DigitAg.

 

  • Date de démarrage : octobre 2017
  • Université : Bretagne Loire
  • Ecole doctorale : MathSTIC  Rennes
  • Discipline / Spécialité :  Apprentissage Automatique
  • Directeur de thèse : Alexandre Termier (Université de Rennes – Inria), Philippe Faverdin (Inrae)
  • Encadrant(es)  : Véronique Masson  (Inria)
  • Financement : #DigitAg – Inria
  • #DigitAg : Thèse cofinancée – Axe 5Challenge 4 

Mots-clés:  Apprentissage Automatique, Explicabilité de l’Intelligence Artificielle, Portée Collective, Séries Temporelles Multivariées

Résumé : Le déploiement massif de capteurs couplé à leur exploitation dans de nombreux secteurs génère une masse considérable de données multivariées qui se sont révélées clés pour la recherche scientifique, les activités des entreprises et la définition de politiques publiques. Plus spécifiquement, les données multivariées qui intègrent une évolution temporelle, c’est-à-dire des séries temporelles, ont reçu une attention toute particulière ces dernières années, notamment grâce à des applications critiques de monitoring (e.g. mobilité, santé, smart farming) et l’apprentissage automatique. Cependant, pour de nombreuses applications, l’adoption d’algorithmes d’apprentissage automatique ne peut se reposer uniquement sur la performance. Par exemple, le règlement général sur la protection des données de l’Union européenne, entré en application le 25 Mai 2018, introduit un droit à l’explication pour tous les individus afin qu’ils obtiennent des « meaningful explanations of the logic involved » lorsque la prise de décision automatisée a des « legal effects » sur les individus ou les affecte significativement.
Les modèles d’apprentissage automatique de séries temporelles multivariées de l’état de l’art les plus performants sont des modèles difficiles à comprendre (« black-box »), qui se reposent sur des méthodes d’explicabilité applicables à n’importe quel modèle d’apprentissage automatique (post-hoc modèle-agnostique). L’axe de travail principal au sein des méthodes d’explicabilité post-hoc modèle-agnostique consiste à approximer la surface de décision d’un modèle en utilisant un modèle de remplacement explicable. Cependant, les explications du modèle de remplacement ne peuvent pas être parfaitement exactes au regard du modèle original, ce qui constitue un prérequis pour de nombreuses applications. L’exactitude est cruciale car elle correspond au niveau de confiance que l’utilisateur peut porter aux explications relatives aux prédictions du modèle, c’est-à-dire à quel point les explications reflètent ce que le modèle calcule.
Cette thèse propose de nouvelles approches pour améliorer la performance et l’explicabilité des méthodes d’apprentissage automatique de séries temporelles multivariées, et établit de nouvelles connaissances concernant deux applications réelles.

Contact : alexandre.termier [AT] irisa.fr 

Réseaux : LinkedIn

Communications & Publications

Mémoire de thèseEnhancing Performance and Explainability of Multivariate Time Series Machine Learning Methods: Applications for Social Impact in Dairy Resource Monitoring and Earthquake Early Warning

K. Fauvel, D. Balouek-Thomert, D. Melgar, P. Silva, A. Simonet, G. Antoniu, A. Costan, V. Masson, M. Parashar, I. Rodero, and A. Termier. 2020. A Distributed Multi-Sensor Machine Learning Approach to Earthquake Early Warning. In Proceedings of the 34th AAAI Conference on Artificial Intelligence – AAAI’20 – https://dx.doi.org/10.1609/aaai.v34i01.5376
K. Fauvel, V. Masson, and E. Fromont. 2020. A Performance-Explainability Framework to Benchmark Machine Learning Methods: Application to Multivariate Time Series Classifiers. In Proceedings of the IJCAI-PRICAI 2020 Workshop on Explainable Artificial Intelligence – IJCAI-PRICAI’20 – https://arxiv.org/abs/2005.14501
– K. Fauvel, T. Lin, V. Masson, E. Fromont, and A. Termier. 2020. XCM: An Explainable Convolutional Neural Network for Multivariate Time Series Classification. ArXiv (https://arxiv.org/abs/2009.04796)
K. Fauvel, E. Fromont, V. Masson, P. Faverdin, and A. Termier. 2020. XEM: An Explainable Ensemble Method for Multivariate Time Series Classification. ArXiv (https://arxiv.org/abs/2005.03645)
K. Fauvel, V. Masson, E. Fromont, P. Faverdin, and A. Termier. 2019. Towards Sustainable Dairy Management – A Machine Learning Enhanced Method for Estrus Detection. In Proceedings of the 25th ACM SIGKDD Conference on Knowledge Discovery and Data Mining – KDD’19 (https://hal.inria.fr/hal-02190790/)
K. Fauvel, V. Masson, P. Faverdin, and A. Termier. 2018. Data Science Techniques for Sustainable Dairy Management. ERCIM News (https://ercim-news.ercim.eu/en113/special/data-science-techniques-for-sustainable-dairy-management)

Date de modification : 12 octobre 2023 | Date de création : 23 août 2022 | Rédaction : ZM