[Paroles de doctorants] Léonard Torossian : Métamodélisation et optimisation robuste : Application à la conception d’idéotypes sous incertitude climatique

Soutenance : mardi 17 décembre 2019 à 13h30

IMT , bâtiment 1R3 rez-de-chaussée – Amphi Schwartz

[Paroles de doctorants] Léonard Torossian : Métamodélisation et optimisation robuste : Application à la conception d’idéotypes sous incertitude climatique

Léonard Torossian porte un sujet de thèse labellisé par #DigitAg.

 

 

Je m’appelle Léonard Torossian. J’effectue ma thèse entre l’unité MIAT de l’INRA à Toulouse, et l’équipe statistiques et probabilités de l’Institut de Mathématiques de Toulouse depuis novembre 2016.

 

Je suis diplômé du Master Mathématiques de la Modélisation de l’Université Pierre et Marie Curie – Paris VI .  Mon intérêt scientifique porte sur les liens qui existent entre les mathématiques et les sciences du vivant.

 

Mon travail de thèse ambitionne de créer un outil d’aide à la décision en environnement incertain qui soit ajustable suivant le rapport au risque de l’utilisateur. Cet outil se base sur des techniques de machine learning et peut s’appliquer à des simulateurs numériques ou bien directement au contexte de la vie réelle.

 

Métamodélisation et optimisation robuste : Application à la conception d’idéotypes sous incertitude climatique

  • Date de démarrage : novembre 2016
  • Université : Université Toulouse III Paul Sabatier
  • Ecole doctoraleMIIT  (Mathématique, Informatique, Télécommunications), Toulouse
  • Discipline / Spécialité : Mathématiques : Statistiques et optimisation
  • Directeur de thèse : Robert Faivre (INRA MIAT), Aurélien Garivier (Université Toulouse III Paul Sabatier, Institut de Mathématiques de Toulouse)
  • Encadrant(es)  : Victor Picheny (INRA MIAT)
  • Financement : INRA – Région Occitanie
  •  #DigitAg : Thèse labellisée – Axe 6

Mots-clés : méta-modélisation, simulation, idéotypes, rendement agricole, optimisation, aléas

Résumé :

Le rendement d’une exploitation agricole dépend de nombreux facteurs. Nous pouvons considérer la qualité du sol, sa topographie et la procédure d’exploitation comme des variables fixées, la météo comme une variable subie et le choix de la variété comme une variable contrôlable. Ainsi, malgré des conduites d’exploitations de plus en plus affinées, le rendement d’une exploitation reste une quantité non déterministe du fait du caractère aléatoire de la météo. Aussi, selectionner une variété avec comme indicateur son rendement moyen expose l’exploitant a des risque souvent non quantifiés et en potentiel désaccord avec  sa politique.

Un exemple de questions liées au risque d’une exploitation sont les suivantes :

  • Quelle variété permet d’avoir un rendement maximal dans 70 % des météos possibles ?
  • Quelle variété permet de maximiser le rendement minimal dans 80 % des cas ?

Cette approche spécifique aux agriculteurs peut être vu sous un angle très générique. Il s’agit d’un problème d’optimisation en environnement incertain. Ce type de problème se formalise sous la forme suivante : un utilisateur souhaite optimiser un critère (le rendement d’une exploitation agricole, un portefeuille financier, la durée de vie d’un moteur). Pour ce faire, il peut agir sur certains paramètres (la variété qu’il choisit, la stratégie d’investissement, la forme d’une pièce mécanique), mais il subit également un aléa (la météo, le comportement des différents investisseurs, l’intensité d’utilisation du moteur ). De plus l’utilisateur ne connaît pas explicitement les liens complexes existant entre les paramètres et le critère qu’il cherche à optimiser. Pour traiter ces problèmes, une première étape consiste à décrire le comportement du critère d’intérêt sous forme d’équations, c’est ce qu’on appelle la modélisation. Parce qu’il n’est pas toujours simple de comprendre le comportement d’un critère d’intérêt uniquement à partir d’équations, le modélisateur crée un simulateur numérique basé sur son modèle. Une fois le simulateur numérique (ou code de calcul) créé, n’importe quel utilisateur peut utiliser le modèle pour étudier le comportement de son critère d’intérêt. L’utilisateur donne des paramètres en entré du simulateur (choix de la variété de plant de culture, politique de gestion de portefeuille, paramètres de design d’un moteur) lequel lui fourni  la valeur du critère d’intérêt (le rendement de l’exploitation, les gains accumulés, la durée de vie du moteur). Cependant des verrous scientifiques peuvent rendre l’étude difficile.

Premier verrou scientifique : le modèle souvent très complexe est inconnu de l’utilisateur, il est vu comme une boîte noire. De ce fait nous aimerions tester un grand nombre de  paramètres afin d’expliciter les modèles sous-jacents et prendre une décision optimale. Cependant, régulièrement un second verrou apparaît : le temps de calcul du simulateur peut être très long, certains simulateurs réclament plusieurs jours de calculs pour connaître la valeur du critère d’intérêt pour une unique valeur de paramètres. En résumé, nous ne pouvons pas tester un grand nombre de points et le code de calcul est complètement implicite : il nous faut une stratégie pour contourner ces obstacles.

Une stratégie prometteuse consiste à utiliser des outils statistiques appelés métamodèles ou émulateurs statistiques. Construits à partir d’hypothèses sur le comportement du simulateur numérique, ces outils ont pour objectif d’expliciter le mieux possible le problème boîte noire de départ avec un nombre minimal d’appel au simulateur.

Les métamodèles pour les problèmes boîtes noires sans présence d’aléa sont largement étudiés dans la littérature. Toutefois leurs homologues intégrant l’aléa le sont beaucoup moins. Ainsi, mon objectif consiste à développer une méthode basée sur les métamodèles permettant d’expliciter au mieux les problèmes de type boîte noire aléatoire avec un nombre minimal d’appel au code de calcul. Cette méthode sera mise en œuvre sur le modèle de culture de tournesol Sunflo développé au sein de l’UMR AGIR.

 

Contact:  leonard.torossian [AT] inra.fr​ – Tél : 0622330387

Réseaux : ResearchGatePage personnelle

 

Publications & communications scientifiques

  • Léonard Torossian (2018) A review on quantile regression for stochastic computer experiments. Rencontres du Réseau Mexico (Inria, Irstea, Inra, Labex COTE), Bordeaux (FRA), 12-13 novembre 2018
  • Léonard Torossian, Aurélien Garivier, Victor Picheny (2019) X-Armed Bandits: Optimizing Quantiles and Other Risks.
    Preprint Arxiv Number: 1904.08205 | Hal Number: 02101647
    Abstract:
    We propose and analyze StoROO, an algorithm for risk optimization on stochastic black-box functions derived from StoOO. Motivated by risk-averse decision making fields like agriculture, medicine, biology or finance, we do not focus on the mean payoff but on generic functionals of the return distribution, like for example quantiles. We provide a generic regret analysis of StoROO. Inspired by the bandit literature and black-box mean optimizers, StoROO relies on the possibility to construct confidence intervals for the targeted functional based on random-size samples. We explain in detail how to construct them for quantiles, providing tight bounds based on Kullback-Leibler divergence. The interest of these tight bounds is highlighted by numerical experiments that show a dramatic improvement over standard approaches.
  • Léonard Torossian, Victor Picheny, Robert Faivre, Aurélien Garivier (2019). A Review on Quantile Regression for Stochastic Computer Experiments.
    Preprint Arxiv Number: 1901.07874 | Hal Number:  02010735
    Abstract:
    We report on an empirical study of the main strategies for conditional quantile estimation in the context of stochastic computer experiments. To ensure adequate diversity, six metamodels are presented, divided into three categories based on order statistics, functional approaches, and those of Bayesian inspiration. The metamodels are tested on several problems characterized by the size of the training set, the input dimension, the quantile order and the value of the probability density function in the neighborhood of the quantile. The metamodels studied reveal good contrasts in our set of 480 experiments, enabling several patterns to be extracted. Based on our results, guidelines are proposed to allow users to select the best method for a given problem.