Skip to main content

Transparency Is the New Originality: Guest Talk by Professor Lauren Bialystok


Lauren Bialystok Lauren Bialystok is an Associate Professor at the Ontario Institute for Studies in Education

The rise of generative AI tools such as ChatGPT has unsettled long-standing norms around academic authorship and assessment. Both students and faculty are grappling with new questions: Can AI-assisted work still be considered original? How should institutions evaluate writing produced with technological support? Increasingly, transparency—rather than originality—is emerging as the ethical standard, with AI declaration forms becoming part of assignment and publication processes.

On October 9, 2025, the Centre for the Study of Learning and Performance (CSLP) will host Professor Lauren Bialystok for a timely talk that interrogates these shifting standards. In her presentation, Transparency Is the New Originality, Professor Bialystok argues that while disclosure is often treated as a sufficient safeguard, transparency alone cannot resolve the ethical challenges that generative AI poses for both student assessment and scholarly publishing.

Register now through EventBrite.

Lauren Bialystok is Associate Professor in the Department of Social Justice Education at the Ontario Institute for Studies in Education and a member of the Advisory Board to the Centre for Ethics. Her research spans topics in ethics, education, and identity; she has published on authenticity, social justice education, open-mindedness, sex education, and high school philosophy. She is co-author (with Lisa Andersen) of Touchy Subject: The History and Philosophy of Sex Education (Chicago, 2022) and co-editor (with Bruce Maxwell) of the Educational Foundations series (Bloomsbury, 2023). Her current project is investigating the impact of AI on assessment in the humanities.

This event offers educators, researchers, and students an important opportunity to reflect critically on the role of AI in academic writing and the responsibilities that accompany its use.

Banner image for the Lauren Bialystok event

La transparence est la nouvelle originalité

Dans le chaos déclenché par l’arrivée de ChatGPT dans l’évaluation académique, les enseignant·e·s et les chercheur·e·s ont trouvé une certaine clarté en se référant à la norme de la transparence. Là où l’originalité constituait autrefois l’attente, le travail bonifié par l’IA est de plus en plus considéré comme acceptable, pourvu qu’il soit divulgué. La transparence est la valeur implicitement évoquée lorsqu’un·e étudiant·e ou un·e auteur·rice doit remplir un formulaire de déclaration d’utilisation de l’IA lors du dépôt d’un travail écrit. De cette manière, l’effort futile de bannir l’IA est remplacé par une norme plus réaliste, mais toujours ancrée dans l’éthique, pour revendiquer un mérite académique.

Dans cette conférence, j’examine dans quelle mesure l’exigence de transparence concernant l’utilisation de l’IA compense les préoccupations éthiques liées à l’usage de cette technologie dans les travaux soumis à l’évaluation, ou par les chercheur·e·s dans les textes destinés à la publication. Je soutiens que la transparence constitue une réponse largement insuffisante aux problèmes posés par l’IA générative pour l’évaluation des écrits.

Inscrivez-vous dès maintenant via EventBrite.

Lauren Bialystok est professeure agrégée au Département d’éducation à la justice sociale de l’Ontario Institute for Studies in Education et membre du comité consultatif du Centre for Ethics. Ses recherches couvrent des thèmes liés à l’éthique, à l’éducation et à l’identité; elle a publié sur l’authenticité, l’éducation à la justice sociale, l’ouverture d’esprit, l’éducation sexuelle et la philosophie au secondaire. Elle est coauteure (avec Lisa Andersen) de Touchy Subject: The History and Philosophy of Sex Education (Chicago, 2022) et corédactrice (avec Bruce Maxwell) de la série Educational Foundations (Bloomsbury, 2023). Son projet actuel porte sur l’impact de l’IA sur l’évaluation dans les sciences humaines. 



Back to top

© Concordia University