La fausse expertise des algorithmes d’IA au service de la désinformation - Archive ouverte HAL Access content directly
Book Sections Year : 2015

The False Expertise of AI Algorithms in the Service of Disinformation

La fausse expertise des algorithmes d’IA au service de la désinformation

Abstract

In a context where they aspire to become the new experts of the digital space by evaluating the information they display on users' accounts and guiding internet users, can algorithms be manipulated by false experts? The aim of this research is to determine if, by using the technique of the algorithmic mirror, human false experts can create so-called expert algorithms, which will spread false expertise on social networks and legitimize it. We will limit our investigation to the context of the Covid pandemic and the debate over vaccination against this disease. Have the repetitive messages published during the Covid pandemic by false experts, the anti-vaxxers, on social networks created, thanks to this effect of the algorithmic mirror, algorithms that 'thought' the anti-vax subjects were legitimate and real and spread them on other users' accounts? Have human anti-vaxxers created anti-vax algorithms, thus legitimizing their discourse in the eyes of social network users? The analyzed study examined 550 messages published by algorithms on TikTok, between June 27 and August 1, 2022, around hashtags related to the pandemic and vaccines. These messages were compared to the roles of false experts created by anti-vax users on Facebook. The research identifies several roles adopted by trolls, such as the doctor, the messenger of tragedy, the oracle expert, etc., used to sow disinformation and manipulate perceptions. The results show a creation of false algorithmic experts who contributed to an environment of uncertainty and mistrust around the COVID-19 pandemic. In the third phase of the study, the roles constructed by AI algorithms were compared with the 50 semantic worlds on Facebook, using Luc Boltanski's '7 cities of justification' research method. The study revealed that during the pandemic, algorithms abandoned 46 of the 50 semantic worlds, leaving an 'impoverished' world centered around four algorithmic mirrors. The roles of 'doctor,' 'politician,' 'Coryphaeus of misfortune,' and 'tragedian' were analyzed according to the cities of justification, revealing unexpected links and opening reflections on the interactions between algorithms and online users. This study, rooted in an expertise perspective, examines the specific role of artificial intelligence algorithms as false experts in the dissemination of information and disinformation during the COVID-19 pandemic. Firstly, we present the actions of AI algorithms as regulators of information, but also as false experts who bias this very information. The second part is devoted to the amplified role of false algorithmic experts during the pandemic, within 'trust networks,' including malicious techniques such as astroturfing. Thirdly, we analyze how algorithmic complexity, network topology, and engagement indicators contribute to the phenomenon of false experts. To deconstruct and identify the roles and representations of algorithms as false experts on different platforms, we use the 'cities of justification' method. The study follows a logical trajectory that begins with the identification of algorithms as false experts, then explores their exacerbated impact during the pandemic, analyzes the complexity of this phenomenon, and finally uses an expert methodology for its deconstruction. This journey develops an integrative model that helps to understand how various elements converge to create a misleading information environment. The aim of this study is to develop expertise in the specific field of algorithms as false experts. It aspires to contribute to collective expertise by offering mechanisms for detection and regulation based on a deep understanding of these algorithms.
Dans un contexte où ils aspirent à devenir les nouveaux experts de l'espace numérique en évaluant l'information qu'ils affichent dans les comptes des utilisateurs et en orientant les internautes, est-ce que les algorithmes peuvent être manipulés par de faux experts ? L'objectif de cette recherche est de savoir si, en utilisant la technique du miroir algorithmique, des faux experts humains peuvent créer des algorithmes soi-disant experts, qui vont répandre de fausses expertises sur les réseaux sociaux et les légitimer. Nous limiterons notre enquête au contexte de la pandémie de Covid et du débat sur la vaccination contre cette maladie. Est-ce que les messages répétitifs publiés pendant la pandémie de Covid par de faux experts, les anti-vax, sur les réseaux sociaux ont créé, grâce à cet effet du miroir algorithmique, des algorithmes qui ont "pensé" que les sujets anti-vax sont véritables et réels et les ont répandus sur les comptes d'autres utilisateurs ? Est-ce que les anti-vax humains ont créé des algorithmes anti-vax, légitimant ainsi leur discours devant les utilisateurs des réseaux sociaux ? L'étude analysée a examiné 550 messages publiés par des algorithmes sur TikTok, entre le 27 juin et le 1er août 2022, autour des hashtags relatifs à la pandémie et aux vaccins. Ces messages ont été comparés aux rôles de faux-experts créés par les utilisateurs anti-vax sur Facebook. La recherche identifie plusieurs rôles adoptés par les trolls, tels que le docteur, le messager de la tragédie, l'expert oracle, etc., utilisés pour semer la désinformation et manipuler les perceptions. Les résultats montrent une création de faux experts algorithmiques qui ont contribué à un environnement d'incertitude et de méfiance autour de la pandémie de COVID-19. Dans la troisième phase de l'étude, les rôles construits par les algorithmes IA ont été comparés avec les 50 mondes sémantiques sur Facebook, en utilisant la méthode de recherche des "7 cités de justification" de Luc Boltanski. L'étude a révélé que pendant la pandémie, les algorithmes ont abandonné 46 des 50 mondes sémantiques, laissant un monde "appauvri" centré autour de quatre miroirs algorithmiques. Les rôles de "docteur", "politicien", "Coryphée du malheur", et "tragédien" ont été analysés selon les cités de justification, révélant des liens inattendus et ouvrant des réflexions sur les interactions entre les algorithmes et les utilisateurs en ligne''. Cette étude, ancrée dans une perspective d'expertise, examine le rôle spécifique des algorithmes d'intelligence artificielle en tant que faux-experts dans la diffusion de l'information et de la 161 désinformation pendant la pandémie de COVID-19. En premier lieu, nous présentons les actions des algorithmes d'IA en tant que régulateurs de l'information, mais aussi en tant que faux-experts qui biaisent cette même information. La deuxième partie est consacrée au rôle amplifié des faux-experts algorithmiques durant la pandémie, au sein des "réseaux de confiance", incluant des techniques malveillantes telles que l'astroturfing. En troisième lieu, nous analysons comment la complexité algorithmique, la topologie des réseaux et les indicateurs d'engagement contribuent au phénomène des faux- experts. Pour déconstruire et identifier les rôles et représentations des algorithmes en tant que faux-experts sur différentes plateformes, nous utilisons la méthode des "cités de justification". L'étude suit une trajectoire logique qui commence par l'identification des algorithmes en tant que faux-experts, explore ensuite leur impact exacerbé pendant la pandémie, analyse la complexité de ce phénomène, et enfin utilise une méthodologie experte pour sa déconstruction. Ce parcours élabore un modèle intégratif qui permet de comprendre comment des éléments divers convergent pour créer un environnement d'information trompeur. Le but de cette étude est de développer une expertise dans le domaine spécifique des algorithmes en tant que faux- experts. Elle ambitionne de contribuer à l'expertise collective en offrant des mécanismes de détection et de régulation basés sur une compréhension approfondie de ces algorithmes.
No file

Dates and versions

hal-03612624 , version 1 (18-03-2022)

Identifiers

  • HAL Id : hal-03612624 , version 1

Cite

Horea Mihai Badau. La fausse expertise des algorithmes d’IA au service de la désinformation. Hélène Romeyer, Philippe Ricaud. Les dynamiques de l’expertise, Éditions Universitaires de Dijon, pp. 160-174, inPress. ⟨hal-03612624⟩
84 View
0 Download

Share

Gmail Facebook X LinkedIn More