article
Comment les émotions alimentent les fausses nouvelles sur les réseaux sociaux
Cet article aété publié dans Le Devoir
Rana Ali Adeeb, est doctorante et chercheuse publique 2024-2025 à l’Université Concordia. Elle étudie l’impact des constructions affectives sur la perception des fausses nouvelles sur les plateformes de réseaux sociaux.
Imaginez-vous en train de faire défiler votre fil d’actualité sur les réseaux sociaux. Vous tombez sur une publication qui vous met en colère ou vous fait pleurer. Immédiatement, vous appuyez sur le bouton de partage. Plus tard, vous découvrez que ce que vous avez partagé était une fausse nouvelle. Comment vos émotions ont-elles pris le dessus ? Ce scénario se répète quotidiennement pour plusieurs individus différents, révélant une faille critique dans notre lutte contre les fausses nouvelles sur les réseaux sociaux.
La récente tentative d’assassinat contre l’ancien président Donald Trump lors d’un rassemblement en Pennsylvanie rappelle de manière frappante comment les gens se tournent vers les réseaux sociaux en temps de crise. Lorsque la nouvelle est tombée, comme beaucoup d’autres, je me suis tournée vers les réseaux sociaux pour obtenir des mises à jour. En quelques minutes, j’ai vu un tweet affirmant que l’assassinat avait été mis en scène par Trump lui-même. Un autre tweet indiquait qu’il s’agissait d’un coup monté de l’intérieur. Peu après, un tweet affirmait que Joe Biden avait ordonné l’assassinat. Chacun de ces messages s’est propagé comme une traînée de poudre, alimentant la confusion et la désinformation, jusqu’à ce que la vérité apparaisse finalement.
Nos efforts pour combattre les fausses nouvelles échouent en partie parce qu’ils négligent le rôle des émotions des utilisateurs, qui souvent prennent le pas sur leur raisonnement. Une étude de 2020 publiée dans la revue Cognitive Research: Principles and Implications a révélé que plus les gens dépendaient de leurs émotions plutôt que de leur raison, plus ils percevaient les histoires fausses comme étant exactes.
En effet, lorsque des émotions comme la peur, la colère ou la joie sont déclenchées, nos capacités de pensée critique sont compromises, nous rendant plus susceptibles de croire à la désinformation.
Les émotions ont également un impact sur le partage des fausses nouvelles. Dans un article de CBC, on a qualifié les émotions de « drogue puissante » après avoir observé que les personnes ayant partagé une histoire fausse émotionnellement provocante sur les réseaux sociaux (soit l’enlèvement d’un enfant dans un parc d’amusement ontarien) n’étaient qu’à environ 0,34 seconde de découvrir les faits vérifiés sur Google. Plutôt que de faire cette courte recherche, elles s’en sont tenues à leur indignation.
Difficile à freiner
Les sceptiques pourraient affirmer que l’amélioration de la vérification des faits et la promotion de l’éducation aux médias peuvent efficacement contrer les fausses nouvelles. Bien que ces stratégies cognitives soient nécessaires, elles n’abordent qu’une partie du problème. Une étude publiée dans la revue Science a révélé que, même lorsqu’ils voient des corrections vérifiées, les utilisateurs des réseaux sociaux s’accrochent souvent à leurs croyances si la désinformation s’accorde avec leurs émotions et leurs préjugés existants.
Nous n’avons pas besoin de remonter loin pour rappeler la popularité des théories de conspiration générées pendant et après la pandémie de COVID-19. Malgré des efforts rigoureux de vérification des faits, les fausses informations émotionnellement chargées sur les remèdes, sur la prévention et sur les origines du virus ont continué à prospérer sur les réseaux sociaux. Il n’est donc pas surprenant que les méthodes d’intervention existantes, telles que les vérificateurs de faits (qui supposent que les utilisateurs sont purement cognitifs), aient eu un succès limité pour améliorer la capacité des utilisateurs à discerner les fausses nouvelles des vraies.
La tentative d’assassinat contre Donald Trump révèle un problème important : la rapidité et la portée de la désinformation sur les réseaux sociaux. En cette ère numérique, les faux récits peuvent se propager plus rapidement que jamais, influençant la perception du public et semant la discorde. Pour contrer cela, nous avons besoin d’algorithmes émotionnellement intelligents capables de détecter et de « déprioriser » les contenus manipulateurs.
Les entreprises technologiques, en collaboration avec des experts en intelligence artificielle, devraient diriger le développement et la mise en oeuvre de ces outils. Étant donné la réticence des plateformes à s’autoréguler, il est peut-être nécessaire que les gouvernements interviennent et imposent ces changements par la législation. De plus, les campagnes éducatives devraient se concentrer non seulement sur la pensée critique, mais aussi sur la conscience émotionnelle. En reconnaissant comment nos émotions peuvent être manipulées, nous pouvons mieux naviguer parmi les informations que nous lisons en ligne.
Notre incapacité à freiner la propagation des fausses nouvelles sur les réseaux sociaux indique un oubli : la négligence des facteurs émotionnels. En reconnaissant le rôle des émotions dans la perception des fausses nouvelles sur les réseaux sociaux, nous pouvons développer des méthodes efficaces pour combattre la désinformation et promouvoir une société plus informée et résiliente.
Avec les élections américaines à venir, comprendre le rôle des fausses nouvelles dans la formation de l’opinion publique n’a jamais été aussi crucial. À mesure que notre paysage numérique évolue, nos stratégies pour protéger la vérité doivent également évoluer.