Skip to main content

CSLP event examines the psychological risks of AI interaction


Pasha Dashtgard Pasha Dashtgard, director of PERIL at American University's School of Public Affairs

The Centre for the Study of Learning and Performance (CSLP) recently hosted a timely online event examining the psychological risks emerging from increased human interaction with artificial intelligence systems.

Held on January 22 via Zoom, AI Love… The Feeling Isn’t Mutual: The Psychology of AI Interaction and Its Threat to Human Wellbeing featured Pasha Dashtgard, Director of Interventions at the Polarization and Extremism Research and Innovation Lab (PERIL). The presentation sparked lively engagement, with a robust discussion following the talk that reflected widespread concern about the social and psychological implications of AI technologies.

Drawing on current research and applied intervention work, Dr. Dashtgard explored three interconnected areas of risk: the ways AI systems exploit innate cognitive vulnerabilities, the developmental and relational harms associated with AI companionship, and the growing phenomenon of AI-induced psychosis. He emphasized that these risks are not evenly distributed, noting that socially isolated individuals are particularly susceptible to forming emotional or romantic attachments to AI systems—attachments that can distort expectations of reciprocity, care, and human connection. He discussed how the inherently sycophantic nature of the tools can create toxic feedback loops and may be particularly harmful to developing children and those already faced with mental health challenges.

Organized at the invitation of CSLP co-director David Waddington, the talk situated these concerns within a broader public health framework. Dr. Dashtgard underscored the need for preventative interventions, ethical design, and regulatory responses that address psychological harm before it escalates into more severe mental health and social consequences.

The event concluded with a wide-ranging discussion among participants, who raised questions about responsibility, regulation, and the role of educational responses in mitigating emerging harms. Together, the presentation and discussion offered a clear and accessible examination of one of the most pressing psychological challenges of the AI era.

About the Speaker

Pasha Dashtgard holds a PhD in Social Psychology from UC Irvine, with prior training at Columbia University’s Teacher’s College. At PERIL, he leads the implementation and scaling of psychological-resilience programs and online interventions aimed at countering propaganda, misinformation, polarization, and extremist recruitment. His research spans masculinities, online radicalization, PTSD, and large-scale mental health policy.

About PERIL

The Polarization & Extremism Research & Innovation Lab within the School of Public Affairs at American University uses a public health approach to design, test, and scale-up evidence-based tools and strategies that effectively reduce the threat of radicalization to harmful online and offline content including conspiracy theories, mis/disinformation, propaganda, and supremacist ideologies. As an alternative to security-based approaches that rely on surveillance, censorship, and incarceration, their work takes a multidisciplinary and pre-preventative approach to address hate, bias, and radicalization before they manifest into violent extremism. This work supports individuals and communities to reject propaganda and extremist content, as well as empower them to intervene and interrupt early radicalization.

Un événement du CEAP examine les risques psychologiques liés à l’interaction avec l’IA

Le Centre d’études sur l’apprentissage et la performance (CEAP) a récemment tenu un événement en ligne à la fois opportun et très bien fréquenté portant sur les risques psychologiques émergents associés à l’augmentation des interactions humaines avec les systèmes d’intelligence artificielle.

Tenue le 22 janvier sur Zoom, la conférence AI Love… The Feeling Isn’t Mutual: The Psychology of AI Interaction and Its Threat to Human Wellbeing mettait en vedette Pasha Dashtgard, directeur des interventions au Polarization and Extremism Research and Innovation Lab (PERIL). La présentation a suscité un vif intérêt et donné lieu à une discussion soutenue, reflétant les préoccupations largement partagées quant aux implications sociales et psychologiques des technologies d’IA.

S’appuyant sur des recherches récentes et sur des travaux d’intervention appliquée, le Dr Dashtgard a exploré trois axes de risque étroitement liés : la manière dont les systèmes d’IA exploitent certaines vulnérabilités cognitives fondamentales, les effets développementaux et relationnels néfastes associés à la « compagnie » offerte par l’IA, ainsi que l’émergence du phénomène de psychose induite par l’IA. Il a souligné que ces risques ne sont pas répartis équitablement, notant que les personnes socialement isolées sont particulièrement susceptibles de développer des attachements émotionnels ou romantiques envers des systèmes d’IA — des attachements susceptibles de fausser les attentes en matière de réciprocité, de sollicitude et de relations humaines. Il a également abordé la nature intrinsèquement complaisante de ces outils, qui peut engendrer des boucles de rétroaction toxiques et s’avérer particulièrement préjudiciable pour les enfants en développement ainsi que pour les personnes vivant déjà avec des enjeux de santé mentale.

Organisée à l’invitation du codirecteur du CEAP, David Waddington, la conférence a inscrit ces enjeux dans une perspective plus large de santé publique. Le Dr Dashtgard a insisté sur la nécessité de mettre en place des interventions préventives, une conception éthique des technologies et des réponses réglementaires capables de prévenir les préjudices psychologiques avant qu’ils ne s’aggravent et n’entraînent des conséquences plus graves sur les plans de la santé mentale et du tissu social.

L’événement s’est conclu par un échange approfondi entre les personnes participantes, qui ont soulevé des questions relatives à la responsabilité, à la réglementation et au rôle des réponses éducatives et communautaires dans l’atténuation de ces risques émergents. Ensemble, la présentation et la discussion ont offert un examen clair et accessible de l’un des défis psychologiques les plus pressants de l’ère de l’intelligence artificielle.

Pasha Dashtgard

Pasha Dashtgard est titulaire d’un doctorat en psychologie sociale de l’Université de Californie à Irvine et a reçu une formation préalable au Teachers College de l’Université Columbia. Au sein de PERIL, il dirige la mise en œuvre et le déploiement de programmes de résilience psychologique et d’interventions en ligne visant à contrer la propagande, la mésinformation et la désinformation, la polarisation ainsi que le recrutement extrémiste. Ses travaux de recherche portent notamment sur les masculinités, la radicalisation en ligne, le trouble de stress post-traumatique (TSPT) et les politiques de santé mentale à grande échelle.

À propos de PERIL

Le Polarization & Extremism Research & Innovation Lab (PERIL), rattaché à la School of Public Affairs de l’American University, adopte une approche de santé publique pour concevoir, tester et déployer à grande échelle des outils et des stratégies fondés sur des données probantes visant à réduire efficacement les risques de radicalisation associés à des contenus nuisibles, en ligne comme hors ligne, notamment les théories du complot, la mésinformation et la désinformation, la propagande et les idéologies suprémacistes. En alternative aux approches sécuritaires reposant sur la surveillance, la censure ou l’incarcération, les travaux de PERIL s’appuient sur une démarche multidisciplinaire et préventive en amont afin de lutter contre la haine, les préjugés et la radicalisation avant qu’ils ne se traduisent par de la violence extrémiste. Ces initiatives visent à soutenir les individus et les communautés dans le rejet des contenus propagandistes et extrémistes, tout en les outillant pour intervenir et interrompre les trajectoires précoces de radicalisation.



Back to top

© Concordia University