Skip to main content

Un chercheur de Concordia examine comment rendre l’IA « plus intelligente »

« Malgré le formidable succès de l’apprentissage profond dans d’innombrables applications, l’étude de ses aspects mathématiques n’en est encore qu’à ses débuts », explique Simone Brugiapaglia
1 avril 2022
|
« J’ai hâte de voir comment la communauté mathématique canadienne accueillera nos travaux », affirme Simone Brugiapaglia.

L’intelligence artificielle (IA) est aujourd’hui omniprésente dans notre vie quotidienne, particulièrement depuis la pandémie de COVID-19.

Si beaucoup n’hésitent pas à dévoiler divers aspects de leur vie privée aux systèmes d’IA en échange d’un certain confort, que se passe-t-il lorsque ces systèmes font erreur?

Simone Brugiapaglia, professeur adjoint de mathématiques et de statistique à la Faculté des arts et des sciences de l’Université Concordia, a récemment corédigé un article sur cette question. « Deep Neural Networks Are Effective At Learning High-Dimensional Hilbert-Valued Functions From Limited Data », à paraître dans la revue Proceedings of Machine Learning Research, examine comment rendre l’IA « plus intelligente ».

« Nombre de questions de recherche importantes attendent qu’on y trouve réponse »

Beaucoup de gens associent l’apprentissage profond à des travaux scientifiques de haut niveau, mais ne réalisent peut-être pas à quel point ils y ont recours dans leur vie de tous les jours. Quelles sont certaines des façons dont les gens utilisent la technologie d’apprentissage profond?

Simone Brugiapaglia : L’une des caractéristiques les plus impressionnantes de l’apprentissage profond est son extrême polyvalence. Par exemple, l’apprentissage profond est utilisé pour la synthèse de la parole dans l’application Siri d’Apple et pour la reconnaissance de la parole dans le moteur conversationnel de l’application Alexa d’Amazon. Une autre utilisation très populaire de l’apprentissage profond (si vous regardez beaucoup la télévision) est le système de recommandation qu’emploie Netflix pour suggérer des émissions susceptibles de vous intéresser. L’apprentissage profond est aussi un composant essentiel du système de vision par ordinateur sur lequel repose la fonction d’autopilotage de Tesla.

Parlez-nous de votre étude

SB : Beaucoup de résultats mathématiques relatifs à l’apprentissage profond prennent la forme de théorèmes d’existence : ils affirment l’existence de réseaux neuronaux capables d’approximer une classe donnée de fonctions jusqu’à la précision désirée. La plupart de ces résultats n’évoquent toutefois pas la capacité de former de tels réseaux et ne quantifient pas les données nécessaires pour le faire de manière fiable.

Dans notre article, Ben Adcock, Nick Dexter, Sebastian Moraga (tous basés à l’Université Simon-Fraser) et moi-même abordons ces enjeux en démontrant les théorèmes d’existence dits pratiques. En plus d’établir l’existence de réseaux neuronaux possédant diverses propriétés d’approximation désirables, nos résultats fournissent des conditions pour la procédure de formation et la quantité de données suffisant pour atteindre une certaine précision.

Qu’est-ce qui vous attire dans ce sujet?

SB : Malgré le formidable succès de l’apprentissage profond dans d’innombrables applications, l’étude de ses aspects mathématiques n’en est encore qu’à ses débuts. Pour les spécialistes des mathématiques appliquées, cette situation s’avère fascinante, car nombre de questions de recherche importantes attendent qu’on y trouve réponse.

Une autre dimension fascinante des aspects mathématiques de l’apprentissage profond est le niveau d’interdisciplinarité. Par exemple, pour parvenir aux théorèmes d’existence pratiques de notre article, mes collaborateurs et moi avons combiné des éléments de la théorie d’approximation, de la probabilité de grande dimension et de l’acquisition comprimée.

Enfin, je suis très motivé par le fait que de nouvelles connaissances théoriques peuvent aider les praticiens de l’apprentissage profond et les pousser à déployer des algorithmes plus fiables en situation concrète.

En terminant, quels sont vos projets?

SB : Un projet d’envergure que je viens d’achever en collaboration avec Ben Adcock et Clayton Webster (de l’Université du Texas) est le livre Sparse Polynomial Approximation of High-Dimensional Functions, récemment publié par la Society for Industrial and Applied Mathematics.

Cet ouvrage illustre les fondements théoriques de l’approximation creuse de grande dimension qui ont rendu possibles nos théorèmes d’existence pratiques. Son dernier chapitre est d’ailleurs entièrement consacré aux problèmes ouverts du domaine et jette les bases de passionnantes recherches à venir au cours des prochaines années. Je donnerai également un mini-cours basé sur notre livre à l’occasion de la rencontre estivale de la Société mathématique du Canada. J’ai hâte de voir comment la communauté mathématique canadienne accueillera nos travaux.


Lisez l’article cité : « Deep Neural Networks Are Effective At Learning High-Dimensional Hilbert-Valued Functions From Limited Data ».

Renseignez-vous sur le Département de mathématiques et de statistique de l’Université Concordia.

 



Retour en haut de page

© Université Concordia