Skip to Main content Skip to Navigation
Preprints, Working Papers, ...

Détecter,évaluer les risques des impacts discriminatoires des algorithmes d'IA

Résumé : Faisant suite au déploiement du RGPD, la Commission Européenne a publié, en février 2020 un livre blanc pour une approche de l'IA basée sur l'excellence et la confiance et dont les recommandations sont largement issues du guide pour une IA digne de confiance rédigé en 2019 par un groupe d'experts européens. Au delà des questions prioritaires de protection des données au coeur des missions de la CNIL, ce livre blanc soulève avec insistance d'autres questions relatives aux risques des impacts des algorithmes d'apprentissage automatique sur notre société : qualité, re-productibilité de décisions algorithmiques, opacité des algorithmes et ex-plicabilité des décisions, biais et risques de discrimination. En nous ba-sant sur des exemples concrets : score de crédit, pré-recrutement prédictif, nous décrivons quels outils, procédures, indicateurs (cf. tutoriel), pour-raient participerà la construction d'un DIA ou Discrimination Impact Assessment souhaité par le rapport Villani (2018) et cohérent avec la liste d'évaluation du groupe des experts européens. Les exemples traités montrent les difficultés et même l'impossibilité d'un audit ex post d'un système d'intelligence artificielle (SIA) sur la base d'algorithmes d'appren-tissage. Nous concluons sur quelques recommandations dont la nécessité de la mise en place d'audits sur la base de documentations précises et exhaustives ex ante d'un SIA.
Complete list of metadatas

Cited literature [8 references]  Display  Hide  Download

https://hal.archives-ouvertes.fr/hal-02616963
Contributor : Philippe Besse <>
Submitted on : Monday, May 25, 2020 - 7:06:52 AM
Last modification on : Wednesday, May 27, 2020 - 3:59:30 AM

File

contribCnilDdD.pdf
Files produced by the author(s)

Identifiers

  • HAL Id : hal-02616963, version 1

Citation

Philippe Besse. Détecter,évaluer les risques des impacts discriminatoires des algorithmes d'IA. 2020. ⟨hal-02616963⟩

Share

Metrics

Record views

131

Files downloads

95