Towards Informed Decision-making: Triggering Curiosity in Explanations to Non-expert Users - Archive ouverte HAL Accéder directement au contenu
Communication Dans Un Congrès Année : 2022

Towards Informed Decision-making: Triggering Curiosity in Explanations to Non-expert Users

Vers une Prise de Décision Éclairée : Susciter la Curiosité dans les Explications aux Utilisateurs Non Experts

Résumé

As AI systems gain performance, their adoption expands to areas considered critical. In finance, increasingly sophisticated recommender systems known as "robo-advisors" are democratizing online access to life insurance. Their users are confronted with a choice that will affect their quality of life, even though they may not have any financial knowledge. To address this asymmetry of information between advisor and client, the French and European legislation [4] require insurance providers to produce "clear, precise and nonmisleading" explanations to guide potential customers towards an "informed" decision. The research area of explainability thus has an important role to play in producing automatic explanations of robo-advisors that are relevant to the client. In this study conducted with the ACPR 1 , we develop a life insurance recommendation interface. We build two explanatory interfaces: a "static" one with local and global explanations, and a "stimulating" one with explanations adapted to the user's knowledge and conveyed through questions: "do you know why X" [2]? We draw on the expertise of experts in customer protection in insurance as well as on the explainability literature on over-reliance issues [1, 3]. In the coming months, we plan to conduct a large-scale study on potential clients to investigate the impact of these different forms of explanations on "informed decision-making".
À mesure que l’IA gagne en performance, son adoption s’étend à des domaines considérés comme critiques. En finance, des systèmes de recommandation de plus en plus sophistiqués démocratisent l’accès en ligne à l’assurance-vie. Leurs utilisateurs de ces "robo- advisors" sont confrontés à un choix impactant leur qualité de vie, alors qu’ils n’ont peut-être pas de connaissances financières. Pour remédier à cette assymétrie d’information entre client et conseiller, le droit français et européen [4] impose aux prestataires d’assurance de produire des explications "claires, précises et non trompeuses" pour guider les clients potentiels vers une décision "éclairée". Le champ de recherche de l’explicabilité a donc un rôle important à jouer pour produire des explications automatiques et pertinentes des robo-advisors. Dans cette étude menée avec l’ACPR2, nous développons une application simplifiée de recommandation de produit d’assurance vie. Nous construisons deux interfaces explicatives : une « statique » pourvue d’explications locales et globales, une autre "stimulante" avec des explications adaptées aux connaissances de l’utilisateur et transmises par le biais de questions : « savez-vous pourquoi X ?» [2] ? Nous nous basons sur l’expertise d’experts en protection des consommateurs en assurance ainsi que sur la littérature en explicabilité sur les problèmes de surconfiance [1, 3]. Dans les prochains mois, nous prévoyons de mener une étude auprès d’une large base de clients potentiels, pour étudier l’impact de ces différentes formes d’explications sur la "prise de décision éclairée".
Fichier principal
Vignette du fichier
Abstract_IHM_Namur_2022 (2).pdf (331.89 Ko) Télécharger le fichier
4_bertrand.pdf (1.34 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

hal-03651368 , version 1 (27-04-2022)

Identifiants

  • HAL Id : hal-03651368 , version 1

Citer

Astrid Bertrand. Towards Informed Decision-making: Triggering Curiosity in Explanations to Non-expert Users. IHM ’22 - Workshop on XAI, Apr 2022, Namur, Belgium. ⟨hal-03651368⟩
103 Consultations
51 Téléchargements

Partager

Gmail Facebook X LinkedIn More