Interprétation causale des modèles prédictifs : paradoxes et solution
Résumé
Les modèles de Machine Learning ont été largement adoptés ces dernières années en raison de leur efficacité et de leur polyvalence dans de nombreux domaines. Cependant, la complexité des modèles prédictifs a conduit à un manque d'interprétabilité notamment pour la prise de décision automatique.
Des travaux récents ont amélioré l'interprétabilité générale en estimant les contributions des variables d'entrée à la prédiction d'un modèle pré-entraîné. Malgré ces progrès, les utilisateurs sont toujours à la recherche d'informations causales sur les mécanismes sous-jacents de génération des données. À cette fin, certains travaux ont tenté d'intégrer des connaissances causales dans l'interprétabilité, car les techniques non causales peuvent conduire à des explications paradoxales. Ces efforts ont permis de répondre à diverses questions, mais le fait de s'appuyer sur un seul modèle pré-établi peut entraîner des problèmes de quantification. Dans cet article, nous soutenons que chaque requête causale nécessite un raisonnement adéquat ; par conséquent, un modèle prédictif unique n'est pas adapté à toutes les questions. Au lieu de cela, nous proposons un nouveau cadre qui donne la priorité à la requête d'intérêt et du quel dérive ensuite une méthodologie axée sur la requête en fonction de la structure du modèle causal. Il en résulte un modèle prédictif sur mesure adapté à la requête et une technique d'interprétabilité adaptée. Plus précisément, elle fournit une estimation numérique des effets causaux, ce qui permet d'apporter des réponses précises aux questions d'interprétabilité lorsque la structure causale est connue.
Fichier principal
Interpretation_causale_des_modeles_predictifs___paradoxes_et_solution.pdf (1.22 Mo)
Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)