L’intelligence artificielle explicable pour une meilleure compréhension des données naturalistes - Archive ouverte HAL Accéder directement au contenu
Communication Dans Un Congrès Année : 2021

L’intelligence artificielle explicable pour une meilleure compréhension des données naturalistes

Résumé

L’intelligence artificielle explicable (XAI pour eXplainable Artificial Intelligence) se définit comme le fait de fournir une explication sur le comportement ou les prédictions d’un modèle IA à un public cible. Cette explication se doit d’être dans un format sémantiquement complet se suffisant à lui-même pour un public potentiellement varié : Enfant ou adulte, amateur ou expert naturaliste, décideurs politique ou citoyens, et bien d’autres. Selon le domaine d’application d’un modèle d’intelligence artificielle (santé, biologie, histoire, industrie, espace) et l’appétence du public cible au domaine et à l’intelligence artificielle, l’explicabilité revient donc à jouer le rôle d’un « interprète » adapté et adaptable entre les données ou une problématique et ce public. Si les modèles IA ont déjà fait leur preuve, par exemple, pour la classification d’espèces animales ou végétales à partir d’images, pour l’étude de la transmission des champs d’oiseaux afin de mieux les comprendre, ou encore l’optimisation des traitements phytosanitaires dans le domaine du smart farming, les raisons derrières les prédictions et comportement de ces modèles restent pour la plupart obscures. « Quels sont les attributs permettant de classer une espèce animale dans une catégorie plutôt qu’une autre ? », « S’il y a une erreur de classification, d’où vient-elle ? » « Pourquoi une espèce animale ou végétale se comporterait-t-elle comme prédit par un modèle IA ? » ou « Pourquoi une récolte est prédite meilleure ou moins bonne ? » sont autant de questions auxquels seuls les experts des différents domaines (biodiversité, agriculture ou viticulture) peuvent répondre. Or souvent face à des modèles computationnels complexes dit boites noires, même eux peuvent se retrouver dans l’incapacité de répondre. L’IA explicable, sous discipline de l’IA, a donc pour but de rendre les modèles IA, leur comportement et leur prédiction interprétable pour les citoyens, experts ou curieux. Une meilleure compréhension des répercussions des actions de chacune et chacun sur l’environnement, peut permettre par exemple une meilleure sensibilisation aux enjeux de le transition écologique et ainsi une meilleure préservation de la biodiversité. Nous proposons à travers ce talk de définir et démystifier l’intelligence artificielle explicable. A travers une revue non exhaustive de travaux de recherche ou d’applications de techniques XAI au domaine de la biodiversité, de la transition écologique ou encore de l’évaluation de l’impact de l’humain sur la nature, nous discuterons de l’importance et l’impact du XAI sur la diffusion de la connaissance scientifique et/ou technique.
Fichier non déposé

Dates et versions

hal-03391612 , version 1 (21-10-2021)

Licence

Paternité - Pas d'utilisation commerciale

Identifiants

  • HAL Id : hal-03391612 , version 1

Citer

Ikram Chraibi Kaadoud. L’intelligence artificielle explicable pour une meilleure compréhension des données naturalistes. Journée d'étude interdisciplinaire MIMESIS "Penser le(s) lien(s)", Groupe de recherche sur les enjeux de la communication (GRESEC); Université de Grenoble Alpes, Sep 2021, Grenoble, France. ⟨hal-03391612⟩

Relations

200 Consultations
0 Téléchargements

Partager

Gmail Facebook X LinkedIn More