Une crainte souvent évoquée au sujet de l’intelligence artificielle est qu’elle rendra certains emplois désuets. Dans le secteur de la santé, elle est moins susceptible de soulever ce genre de préoccupations.
« Cela devrait être un outil utilisé par les gens et non un objet qui remplace les gens, souligne Mme Kersten-Oertel. C’est important qu’un humain fasse toujours partie de l’équation. »
Elle précise que, tant pour l’imagerie que pour la chirurgie guidée par l’IA, le but n’est pas de se dispenser des professionnels de la santé, mais plutôt d’alléger leur charge de travail et de leur offrir des outils qui les aident à accomplir leurs tâches quotidiennes en clinique.
« Tous ces travaux visent à concevoir des outils pour aider les cliniciens ou les patients. Ils peuvent servir à former la prochaine génération de radiologistes, de cliniciens et de chirurgiens. »
La perte d’emplois n’est donc pas une préoccupation majeure, mais il existe d’autres enjeux, comme celui de la confidentialité. En effet, les données exploitées par l’IA contiennent une mine de renseignements personnels : noms, antécédents médicaux, etc.
Des initiatives comme celles de MM. Bacon et Gambhir doivent évidemment recueillir le consentement des patients et comportent malgré tout des risques.
« Nous concevons des programmes et des algorithmes de plus en plus sophistiqués et, en parallèle, des gens sans scrupules développent des virus et des méthodes de piratage », constate M. Bacon.
Il faut également considérer les enjeux éthiques. Les coûts élevés de conception et de mise en œuvre de l’IA risquent de favoriser l’accès à cette technologie dans les pays riches, au détriment des pays à faible revenu.
« Une des questions auxquelles nous devons réfléchir est comment rendre l’IA accessible à tous, indique la professeure Kersten-Oertel. Comment concevoir ces outils et technologies pour qu’ils profitent au monde entier? »
Les inégalités sociales peuvent également affecter l’intelligence artificielle comme telle.
Les données sont neutres en apparence, alors qu’en réalité, elles ne sont pas à l’abri des préjugés institutionnels. Si les données utilisées pour l’apprentissage ne sont pas inclusives et représentatives de la diversité, l’IA risque d’assimiler les préjugés présents dans la société en général.
Les hôpitaux situés dans les quartiers riches ont davantage de ressources, ce qui produit de bons résultats pour les patients. Dans les quartiers défavorisés, les hôpitaux n’ont pas les mêmes ressources, et leurs résultats pourraient être moins bons. Si on alimente l’IA avec des données d’un hôpital du premier groupe, elle ne sera pas représentative des expériences des hôpitaux du second groupe.
Par exemple, des études ont montré que les femmes de couleur, en particulier les Noires, reçoivent souvent un diagnostic de cancer du sein plus tardivement que les Blanches. Ainsi, un outil d’IA alimenté avec des mammographies non inclusives risquerait de ne pas tenir compte de cette importante disparité.
« Nous devons prendre conscience des préjugés existants et tâcher de ne pas les reproduire », affirme Mme Kersten-Oertel.
M. Bacon abonde dans le même sens : l’IA doit produire des résultats inclusifs et globaux dans le domaine de la santé.
« Nous voulons que les gens mènent une vie saine et heureuse, longue et riche. Je sais que ça peut paraître grandiloquent, mais c’est ce qui nous anime. C’est notre motivation. Tous nos efforts tendent vers ce but. »