Skip to main content

Un professeur de Concordia explore l’intelligence artificielle d’un point de vue psychologique dans son nouvel ouvrage

Jordan Richard Schoenherr dévoile comment la technologie transforme notre façon de vivre et de prendre des décisions
29 juillet 2022
|
« Il faut prendre la peine de contrôler notre degré d’enchevêtrement avec l’IA », affirme Jordan Richard Schoenherr.

L’intelligence artificielle (IA) est omniprésente et sa portée ne cesse de s’élargir.

Dans son nouvel ouvrage intitulé Ethical Artificial Intelligence from Popular to Cognitive Science, Jordan Richard Schoenherr, professeur adjoint de psychologie à la Faculté des arts et des sciences de l’Université Concordia, aborde les conséquences de l’utilisation de l’IA sur les personnes et la société. Il examine les enjeux sociaux et éthiques associés à l’IA selon une optique interdisciplinaire dans ce qu’il appelle l’« ère de l’enchevêtrement ».

« Je me spécialise en psychologie expérimentale. Mon parcours est axé sur le jugement et la prise de décisions », explique le Pr Schoenherr.

Lorsqu’il a commencé à enseigner la psychologie sociale en 2014, Jordan Richard Schoenherr a cherché des moyens concrets de capter l’attention de ses étudiants. « Je me suis intéressé à la cyberpsychologie en tant qu’élément accrocheur », précise-t-il.

« Les gens veulent comprendre l’effet de ces technologies compliquées sur leurs pensées, leurs émotions et leurs comportements. Les étudiants veulent savoir en quoi la psychologie s’applique aux enjeux sociétaux contemporains. »

Le côté problématique de la technologie

Les travaux de Jordan Richard Schoenherr l’ont conduit à rédiger un ouvrage dans lequel il explore divers sujets, notamment l’IA dans la culture populaire, les interfaces truquées – c’est-à-dire les moyens furtifs qu’utilisent les entreprises pour inciter à acheter certains articles – et comment les valeurs culturelles déterminent la mesure dans laquelle la technologie est remise en question.

Le Pr Schoenherr entend amener le lecteur à réfléchir davantage au côté problématique de la technologie ainsi qu’à la façon dont la technologie influe sur la vie et l’organisation sociale.

« Nous ne nous préoccupons pas souvent des répercussions de la technologie. La plupart des gens ignorent à quel point elle envahit le quotidien. »

Le chercheur explique comment cet enchevêtrement au quotidien peut créer des effets de familiarité qui poussent les gens à se fier progressivement aux choses auxquelles ils sont couramment exposés, et à ne pas tenir compte des conséquences négatives ou des complications qui découlent de leurs choix.

Alimenter les théories du complot

Jordan Richard Schoenherr ajoute que le biais de confirmation soulève également des problèmes, puisque les gens sont de plus en plus portés à chercher les opinions en ligne qui correspondent aux leurs au lieu de faire preuve de discernement. Cette façon de faire peut entraîner la prise de décisions non judicieuses et même alimenter les groupes complotistes.

« Nous vivons dans une ère de post-vérité, affirme le Pr Schoenherr, soulignant que les mouvements d’opposition au port du masque et à la vaccination sont une conséquence naturelle de la consommation sélective de contenu sur les réseaux sociaux. »

« Pensez au convoi de la liberté à Ottawa. Quelques personnes avaient probablement une vague idée de faire quelque chose au départ, et ont été aiguillonnées par des tiers aux motivations différentes qui ont eu recours à de l’information erronée et à la désinformation pour créer un effet boule de neige », explique-t-il.

« Entrent en jeu les algorithmes qui exacerbent ensuite les passions en faisant le tri de l’information présentée aux utilisateurs. »

Des solutions?

Le plus simple serait de se débrancher complètement, mais cette solution ne convient pas à tous. Jordan Richard Schoenherr invite plutôt les gens à prêter attention aux technologies qu’ils utilisent.

« Par exemple, la plupart des gens ignorent que Facebook propose de nombreux mécanismes de contrôle de la confidentialité. La non-utilisation des options de confidentialité ouvre la voie aux interfaces truquées, qui incitent à divulguer des données ou camouflent la nature des données recueillies », indique-t-il.

« Il faut prendre la peine de contrôler notre degré d’enchevêtrement avec l’IA. Nous devons veiller à intégrer nos valeurs et nos principes éthiques à la conception, à l’exploitation et à la consommation de l’IA. »

En savoir plus sur le Département de psychologie de l’Université Concordia.



Retour en haut de page

© Université Concordia