Yann LeCun a contribué à la naissance du boom actuel de l’intelligence artificielle. Mais il estime que de nombreux experts en exagèrent la puissance et le danger, et il veut que les gens le sachent. À l’heure où un chœur d’éminents technologues affirme que nous sommes sur le point d’avoir des ordinateurs qui surpassent l’intelligence humaine et pourraient même la supplanter, Yann LeCun s’est taillé une place de choix en tant que sceptique le plus crédible de l’essor de l’intelligence artificielle.

Sur les médias sociaux, lors de discours et de débats, le professeur d’université et gourou de l’IA de Meta Platforms s’est heurté aux partisans et aux Cassandre qui parlent du potentiel surhumain de l’IA générative, d’Elon Musk à deux des compagnons pionniers de LeCun, qui partagent avec lui le titre officieux de « parrain » du domaine. Parmi eux, Geoffrey Hinton, un ami de près de 40 ans qui a reçu le prix Nobel de physique mardi et qui a mis en garde à plusieurs reprises contre les menaces existentielles de l’intelligence artificielle.

M. LeCun estime que les modèles d’IA actuels, bien qu’utiles, sont loin de rivaliser avec l’intelligence de nos animaux de compagnie, et encore moins avec celle des humains. Lorsque je lui demande si nous devons craindre que les IA deviennent bientôt si puissantes qu’elles représentent un danger pour nous, il me répond : « Excusez mon français, mais c’est une vraie saloperie ».

Qui est Yann LeCun ?

Yann LeCun a un charme désarmant : il est malicieux, vif d’esprit et prêt à dire ce qu’il considère comme les dures vérités de son domaine. À 64 ans, il a l’air chic et un peu hirsute, comme il sied à un ancien Parisien devenu professeur à l’université de New York.

Né et élevé au nord de Paris, M. LeCun s’est intéressé à l’IA en partie grâce à HAL 9000, l’IA malveillante du classique de science-fiction « 2001 : l’Odyssée de l’espace », réalisé par Stanley Kubrick en 1968. Après avoir obtenu un doctorat à la Sorbonne, il a travaillé aux célèbres laboratoires Bell, où tout a été inventé, des transistors aux lasers. En 2003, il a rejoint l’université de New York en tant que professeur d’informatique et, dix ans plus tard, il est devenu directeur de la recherche sur l’intelligence artificielle à l’époque de Facebook.

En 2019, M. LeCun a remporté le prix Turing (ACM Turing Award), la plus haute distinction en informatique, avec M. Hinton et Yoshua Bengio. Ce prix, qui a valu au trio d’être surnommé « les parrains de l’IA », les a récompensés pour leurs travaux fondamentaux sur les réseaux neuronaux, les systèmes multicouches qui sont à la base de la plupart des systèmes d’IA les plus puissants d’aujourd’hui, des chatbots OpenAI aux voitures autopilotées.

Aujourd’hui, M. LeCun continue de produire des articles à l’université de New York avec ses étudiants en doctorat, tandis qu’à Meta, il supervise l’une des organisations de recherche sur l’IA les mieux financées au monde en tant que scientifique en chef de l’IA. Il rencontre fréquemment le PDG Mark Zuckerberg et discute sur WhatsApp avec lui, qui positionne Meta comme la grande force de rupture dans le boom de l’IA face à d’autres poids lourds de la technologie, d’Apple à OpenAI.

M. LeCun se heurte souvent à ses rivaux et à ses amis. Au printemps dernier, il a eu une discussion désagréable avec Musk sur X au sujet de la nature de la recherche scientifique, après que le milliardaire a publié un article faisant la promotion de son entreprise d’intelligence artificielle. M. LeCun a également exprimé publiquement son désaccord avec M. Hinton et Mme Bengio au sujet de leurs avertissements répétés selon lesquels l’intelligence artificielle constitue un danger pour l’humanité.

Une technologie encore éloignée de l’intelligence artificielle générale

LeCun pense que l’IA est un outil puissant. Au cours de l’entretien, il cite de nombreux exemples montrant que l’IA est devenue extrêmement importante pour Meta et qu’elle a permis à l’entreprise d’atteindre une taille et un chiffre d’affaires tels qu’elle est aujourd’hui évaluée à environ 1,5 billion de dollars. L’IA fait partie intégrante de Meta, de la traduction en temps réel à la modération de contenu, et en plus de son équipe de recherche fondamentale en IA, connue sous le nom de Fair, elle dispose d’un groupe d’IA axé sur les produits, appelé GenAI, qui travaille constamment à l’amélioration de ses modèles linguistiques.

« L’impact sur Meta a été vraiment énorme », affirme-t-il. En même temps, il est convaincu que les IA d’aujourd’hui ne sont en aucun cas intelligentes et que beaucoup d’autres personnes dans le domaine, en particulier dans les start-ups d’IA, sont promptes à extrapoler leurs récents développements d’une manière qu’il trouve ridicule. Si le point de vue de M. LeCun est exact, cela signifie qu’il y a des problèmes pour certaines des start-ups les plus en vue, sans parler des géants de la technologie qui investissent des dizaines de milliards de dollars dans l’IA. Nombre d’entre eux misent sur l’idée que l’IA actuelle, basée sur de grands modèles de langage, comme ceux d’OpenAI, est sur la voie de la création à court terme de ce que l’on appelle l’« intelligence artificielle générale », ou AGI, qui dépasse de loin l’intelligence humaine.

La mémoire des chats

Le mois dernier, Sam Altman, de l’OpenAI, a affirmé que nous pourrions disposer d’une intelligence artificielle générale d’ici « quelques milliers de jours ». Elon Musk a déclaré que cela pourrait se produire d’ici 2026. Selon LeCun, ces propos sont probablement prématurés. Lorsqu’un chercheur de l’OpenAI a évoqué en mai la nécessité d’apprendre à contrôler l’IA ultra-intelligente, M. LeCun a réagi. « Il me semble qu’avant de trouver d’urgence comment contrôler des systèmes d’IA beaucoup plus intelligents que nous, nous devons avoir le début d’un plan pour un système qui est plus intelligent que votre propre chat », a-t-il répondu sur X.

Il aime la métaphore du chat. Les félins ont en effet un modèle mental du monde physique, une mémoire persistante, une certaine capacité de raisonnement et de planification. Aucune de ces qualités n’est présente dans les IA « pionnières » d’aujourd’hui, y compris celles fabriquées par Meta elle-même. Léon Bottou, qui connaît LeCun depuis 1986, dit que LeCun est « têtu dans le bon sens du terme », c’est-à-dire qu’il est prêt à écouter les opinions des autres, mais qu’il est déterminé à poursuivre ce qu’il croit être la bonne approche pour construire l’intelligence artificielle.

Le problème des systèmes d’IA actuels réside dans la manière dont ils sont conçus

Mais la création d’une IA aussi performante pourrait prendre des décennies, et l’approche actuellement dominante ne nous permettra pas d’y parvenir. Le boom de l’IA générative a été alimenté par de grands modèles de langage et des systèmes similaires qui s’entraînent sur des océans de données pour imiter l’expression humaine. Chaque génération de modèles étant devenue beaucoup plus puissante, certains experts sont arrivés à la conclusion qu’il suffisait d’injecter davantage de puces et de données dans le développement des futures IA pour qu’elles deviennent de plus en plus performantes et finissent par égaler ou surpasser l’intelligence humaine.

C’est la raison pour laquelle une grande partie des investissements massifs sont consacrés à la construction de groupes toujours plus importants de puces spécialisées pour entraîner l’IA. M. LeCun estime que le problème des systèmes d’IA actuels réside dans la manière dont ils sont conçus, et non dans leur taille. Peu importe le nombre de GPU que les géants de la technologie entassent dans les centres de données du monde entier : selon LeCun, l’IA d’aujourd’hui ne nous mènera pas à l’intelligence artificielle générale.

Il parie que la recherche sur l’IA qui fonctionne de manière fondamentalement différente nous mènera sur la voie d’une intelligence de niveau humain. Ces futures IA hypothétiques pourraient prendre de nombreuses formes, mais le travail effectué à Fair pour assimiler des vidéos du monde réel est l’un des projets qui passionnent actuellement M. LeCun. L’idée est de créer des modèles qui apprennent de la même manière qu’un bébé animal, en construisant un modèle du monde à partir des informations visuelles qu’il reçoit.

Les grands modèles de langage, ou LLM, utilisés pour ChatGPT et d’autres robots pourraient un jour ne jouer qu’un rôle mineur dans les systèmes dotés d’un bon sens et de capacités semblables à celles de l’homme, construits à l’aide d’une série d’autres techniques et algorithmes. Les modèles actuels se contentent de prédire le mot suivant dans un texte. Mais ils sont si bons qu’ils nous trompent. Et grâce à leur énorme capacité de mémoire, ils peuvent donner l’impression de raisonner, alors qu’en réalité ils ne font que régurgiter des informations sur lesquelles ils ont déjà été formés.

Nous avons l’habitude de penser que les personnes ou les entités capables de s’exprimer ou de manipuler le langage sont intelligentes, mais ce n’est pas le cas », explique M. LeCun. « On peut manipuler le langage sans être intelligent, et c’est essentiellement ce que démontrent les LLM.