Skip to main content

Dis-moi, Siri… Les robots sont-ils biaisés par nature?

Sabine Bergler et Anne Martel discutent de l’avenir de l’intelligence artificielle
2 mai 2018
|
Par Jasmine Stuart



Lors des célébrations des Retrouvailles 2017 de la Faculté de génie et d’informatique de l’Université Concordia, Sabine Bergler, professeure au Département d’informatique et de génie logiciel, et Anne Martel (B. Bx-arts 2009), cofondatrice et première vice-présidente des opérations à Element AI, ont discuté d’intelligence artificielle et de ce à quoi l’on peut s’attendre dans le domaine au cours des mois et des années à venir.

Pour ceux et celles qui n’y étaient pas, Mmes Bergler et Martel ont présenté leurs points de vue respectifs sur l’intelligence artificielle, notamment en ce qui a trait à ses conséquences légales et économiques. Elles ont par ailleurs expliqué pourquoi Siri ne peut tout simplement pas comprendre certaines questions qu’on lui pose.


« Nous devons mieux comprendre les liens que nous entretenons avec ces technologies ainsi que les conséquences qu’elles ont pour nous. »


Tout d’abord, qu’est-ce que l’intelligence artificielle?

Sabine Bergler : Quand on parle d’intelligence artificielle, on doit demeurer dans l’impossible. Dès qu’un élément de cette sphère devient fonctionnel, nous lui attribuons un autre terme, comme « robotique » ou « apprentissage automatique ». L’intelligence artificielle s’est fragmentée en de nombreux sous-domaines au cours des années, le plus récent à faire son émergence étant sans doute les technologies d’apprentissage profond.

Beaucoup sont préoccupés à l’idée d’être remplacés au travail par des machines. Quelle incidence de telles avancées pourraient-elles avoir sur l’économie aujourd’hui?

Anne Martel : En effet, beaucoup de gens me disent que l’intelligence artificielle aura un impact négatif sur l’emploi. Celle-ci représente un marché de 15 billions de dollars à l’échelle mondiale. L’automatisation des tâches n’aura pas pour effet d’éliminer des emplois, mais plutôt de changer ceux qui existent. Et ce sera aux gouvernements d’atténuer les impacts de ces changements.

Autrement dit, au fur et à mesure qu’apparaîtront de nouveaux outils sur le marché, certaines compétences ne seront plus autant en demande; toutefois, d’autres émergeront et viendront les remplacer. Il est peu probable que l’approche à adopter soit commune à toutes les industries. Chaque situation devra être abordée à l’échelle individuelle.

Doit-on se soucier des biais qui peuvent teinter l’apprentissage machine?

SB : Il importe de noter que le terme « biais » recèle différentes significations. En contexte d’apprentissage automatique, le biais a une valeur neutre en soi. Mais bien entendu, dans la culture populaire, il prend un sens négatif.

Une machine apprendra uniquement ce que vous lui enseignez. Même l’apprentissage profond nécessite un cadre. Si l’entrée de données n’est pas contrôlée ou encore, si certaines pensées ou opinions sont surreprésentées en raison de la prise en compte d’une trop grande quantité de données, le résultat tendra dans cette direction. C’est ce qu’on appelle un biais, qu’il soit bon ou mauvais.

AM : Nous avons entendu ce que racontait Sabine à propos de Tay, un agent conversationnel doté d’intelligence artificielle, lancé sur le marché par Microsoft. Des gens l’on nourrit de discours haineux en quantité phénoménale, puis le logiciel a commencé à émettre des propos à caractère nazi sous forme de micromessages. Il n’y avait aucun filtre en place pour repérer ces commentaires.

Pour éviter ce genre de situation, nous devons intégrer des filets de sécurité dans le processus de conception. Nous devons nous assurer de faire de l’ingénierie à rebours afin de pouvoir repérer les biais dans les données qui sont utilisées dans l’apprentissage profond des machines.

Quelles sont les répercussions légales de l’intelligence artificielle sous sa forme actuelle?

AM : Les nouvelles technologies d’intelligence artificielle ont pour effet d’amplifier les problèmes existants sur le plan légal. La question n’est pas de savoir s’il faut des lois pour régir, par exemple, les véhicules autonomes, mais plutôt s’il serait facile de pirater ces véhicules.

Le phénomène du piratage des technologies constitue un problème depuis des dizaines d’années déjà. L’introduction de nouveaux éléments d’intelligence artificielle ne vient qu’apporter un éclairage différent sur ses répercussions d’ordre juridique.

SB : Chaque projet technologique comporte des possibilités d’usage abusif qui lui sont inhérentes. Il faut s’inquiéter quand nous commençons à céder nos pouvoirs aux machines, quand nous relâchons notre vigilance et mettons toute notre confiance en elles.

Nous devons mieux comprendre les liens que nous entretenons avec ces technologies ainsi que les conséquences qu’elles ont pour nous. Nous devons surtout comprendre ce à quoi nous renonçons ou ce que nous perdons au change.

Certaines machines gagnent aux échecs et à Jeopardy, mais Siri a encore de la difficulté à comprendre des questions simples. Quels sont les principaux défis à relever et les victoires remportées en matière d’amélioration technique de l’intelligence artificielle?

SB : Nos attentes à l’égard de Siri sont déraisonnables. Les gens pensent que les machines seront capables de tout faire sans intervention humaine. Or, une machine a besoin d’être exposée à autant de données que possible pour « connaître » la réponse à une question.

Ça prend du temps et plusieurs itérations pour arriver à accumuler les données nécessaires à une réponse convenable. Dans le cas de Siri, l’Internet ne peut prendre le relais que pour une partie de ce travail.

AM : C’est notre plus gros défi à Element AI. Les entreprises s’attendent à ce que nous arrivions chez elles et que nous leur trouvions une solution qui, du jour au lendemain, révolutionnera leur façon de fonctionner. En réalité, il s’agit plutôt de concevoir la solution qui répondra le mieux à leurs besoins à partir des données qu’ils ont en main. Il s’agit de se baser sur ce qui est disponible pour prendre la bonne décision.

À votre avis, quelle sera la prochaine grande percée dans le domaine de l’intelligence artificielle?

SB : J’aimerais voir des systèmes dotés de fonctionnalités d’explication, pour qu’ainsi les applications puissent se développer. Afin de pouvoir mettre au point des outils plus élégants, nous devons être capables de communiquer à l’utilisateur le processus de pensée du système. En comprenant mieux la façon dont procède la machine, les utilisateurs parviendront mieux à lui faire confiance dans ses décisions.

AM : Je pense que nous assisterons à une augmentation des capacités d’adaptabilité personnelle de ces technologies, où l’utilisateur peut influencer l’apprentissage de la machine pour rendre la technologie plus pertinente. De cette façon, des outils comme Siri pourront s’adapter à vos besoins particuliers d’information et à vos préférences dans la façon d’obtenir celle-ci.

L’expertise de longue date de Concordia en matière d’intelligence artificielle a contribué à faire de Montréal un carrefour stratégique dans le domaine. Cette année, notre établissement célèbre le 30e anniversaire de son pôle de recherche sur l’intelligence artificielle : le Centre d’études en reconnaissance des formes et en intelligence artificielle de Concordia.

Pour souligner l’occasion, l’Université et son centre de recherche accueilleront le premier colloque international sur la reconnaissance des formes et l’intelligence artificielle, en mai 2018.

Une conférence spéciale est prévue sur le sujet de l’apprentissage profond : comment « enseigner » à un ordinateur à parcourir des bases de données de connaissances afin de reconnaître des objets – le fondement même de l’intelligence artificielle.


Gratuit et ouvert au grand public, le colloque international sur la reconnaissance des formes et l’intelligence artificielle aura lieu le 13 mai 2018, de 14 h à 16 h, à l’auditorium des diplômés de la Sir George Williams University, salle 110, pavillon Henry-F.-Hall, 1455, boulevard De Maisonneuve Ouest.

 



Sujets tendance

Retour en haut de page

© Université Concordia