Les intelligences artificielles les plus avancées d’aujourd’hui maîtrisent l’art du langage avec une fluidité stupéfiante. GPT, Claude ou encore Gemini façonnent le quotidien numérique à coups de réponses ultra-cohérentes, de lignes de code bien ficelées et de conversations quasi humaines. Pourtant, derrière cet exploit linguistique, un débat agite la communauté scientifique. Sommes-nous vraiment en train de créer de l’intelligence… ou seulement de l’éloquence algorithmique ?

Vers une intelligence artificielle vraiment intelligente

Penser au-delà du texte

 

 

 

Le langage : un miroir déformant de l’intelligence

 

 

Depuis 2018, les grands modèles de langage se sont imposés comme les vitrines éclatantes de l’IA. Entraînés sur des milliards de mots, ces modèles prédisent le mot suivant avec une justesse désarmante. Mais pour certains chercheurs de premier plan, ce succès masque une limite fondamentale : ces IA ne comprennent pas ce qu’elles disent.

Yann LeCun, figure phare de l’intelligence artificielle et chercheur chez Meta, ne mâche pas ses mots. Selon lui, les LLM (Large Language Models) reposent sur un malentendu : ils donnent l’illusion d’intelligence alors qu’ils n’ont aucune représentation du monde réel. Le langage est une construction humaine, utile mais imparfaite pour refléter la complexité du monde. En le plaçant au centre du processus d’apprentissage, on risque de passer à côté de l’essentiel.

Ce que LeCun propose, c’est un changement radical : créer des IA capables de percevoir, d’interagir, de planifier, bref, d’exister dans un monde physique ou simulé. Car l’intelligence ne naît pas dans un dictionnaire, mais dans l’expérience vécue.

 

Corrélation n’est pas raison

 

 

L’un des piliers de cette critique est Judea Pearl, auteur de The Book of Why. Ce dernier affirme que l’intelligence véritable suppose la capacité de raisonner causalement. Or, les IA actuelles – aussi puissantes soient-elles – ne dépassent pas le stade de la corrélation. Elles savent que deux événements sont souvent liés, mais pas pourquoi.

Pearl distingue trois niveaux de raisonnement :

D’abord, l’association, qui consiste à observer des liens dans les données. Ensuite, l’intervention, où l’on modifie une variable pour voir ce qui change. Enfin, le contrefactuel, qui imagine ce qui se serait passé autrement.

Aujourd’hui, aucun modèle linguistique n’est capable de franchir la frontière entre le premier et le deuxième niveau. Ils décrivent le monde, mais ne peuvent ni le transformer, ni le comprendre en profondeur. Cela les condamne, pour l’instant, à une forme d’intelligence de surface.

 

 

 

L’émergence des mondes intérieurs

 

 

Une autre voie s’esquisse pourtant. En 2018, David Ha et Jürgen Schmidhuber ont proposé une architecture inédite : les world models. L’idée est simple en apparence, mais révolutionnaire : doter l’IA d’un monde intérieur. Au lieu d’interagir directement avec l’environnement réel, l’IA construit une simulation interne sur laquelle elle peut apprendre, planifier et tester des actions.

Leur modèle s’articule autour de trois briques : une vision pour encoder ce que l’agent perçoit, une mémoire pour comprendre les règles internes du monde simulé, et un contrôleur pour agir dans cet univers.

Résultat ? L’agent n’apprend plus seulement à réagir, mais à anticiper. Il peut tester mentalement des stratégies avant de les mettre en œuvre. C’est précisément ce que font les êtres humains : nous projetons, nous simulons, nous ajustons notre comportement à travers notre imagination. Un pas décisif vers une IA capable de penser plutôt que de répéter.

 

 

 

La leçon amère du calcul

 

 

Toutefois, une voix discordante tempère l’enthousiasme. Rich Sutton, pionnier de l’apprentissage par renforcement, a formulé ce qu’il appelle The Bitter Lesson. Sa thèse : dans l’histoire de l’intelligence artificielle, ce ne sont pas les modèles élégants et spécialisés qui gagnent, mais ceux qui tirent parti de la puissance brute du calcul.

Selon lui, les approches généralistes, capables d’ingérer des quantités massives de données sans supervision humaine, finissent toujours par l’emporter. C’est cette force brute qui a permis aux LLM de pulvériser les benchmarks en quelques années. Il vaut donc mieux parier sur des systèmes simples, scalables et capables d’auto-apprentissage, même si leur sophistication intérieure semble pauvre.

Ce constat n’est pas nécessairement en contradiction avec les visions de Pearl ou LeCun. Il suggère plutôt que les modèles de demain devront conjuguer ces deux forces : la capacité de traitement à grande échelle des LLM et la profondeur cognitive des world models.

 

 

 

Un futur hybride, mais pas tiède

 

 

L’avenir de l’IA ne se jouera donc pas entre deux camps irréconciliables. Il s’écrira sans doute à la croisée des chemins. D’un côté, des modèles de langage toujours plus puissants, capables de traiter une diversité de tâches vertigineuse. De l’autre, des architectures capables de percevoir, d’agir, de simuler et de raisonner avec profondeur.

Cette fusion pourrait donner naissance à une IA enfin capable de sortir du simple jeu d’imitation statistique pour devenir un agent autonome, doté d’un monde intérieur, d’objectifs et de capacités projectives. Le langage ne serait plus une fin en soi, mais un outil parmi d’autres pour modéliser le réel, comprendre les conséquences de ses actes, imaginer l’alternative, corriger ses trajectoires.

L’intelligence ne se résume pas à parler : elle consiste à apprendre du monde, à s’y projeter, à en anticiper les règles et à y agir de façon éclairée. Ce saut qualitatif pourrait être le prochain grand tournant. Non pas une rupture brutale, mais une mue en profondeur. Après l’ère des parleurs, viendra peut-être celle des penseurs artificiels.

Nos articles les plus consultés

Le contrat est brisé avec l’État

Un pacte de confiance ébranlé     Pendant des décennies, le contrat tacite entre l’État et les Français s’est appuyé sur une promesse fondamentale : chacun paie des impôts en échange de services publics accessibles, efficaces et protecteurs. Ce modèle, au...

Crise du modèle social Français

Le modèle social français, longtemps cité en exemple, est aujourd’hui confronté à une impasse budgétaire majeure. Construit pour répondre aux défis d’une époque révolue, il montre des signes évidents de saturation. Les déficits se creusent. La dette explose. Et...

Fortune improductive, impôt injuste

Un nouvel impôt à la logique floue   L’idée de taxer la fortune "improductive" vise à réorienter l’épargne vers l’économie réelle. L’objectif semble vertueux. Mais les détails du projet révèlent un flou juridique important. Le texte ne définit pas précisément ce...

Assurance-vie menacée

Fiscaliser les fonds euros : une erreur stratégique pour la dette française   L’idée de taxer davantage les contrats d’assurance-vie revient régulièrement dans le débat fiscal. Mais cette fois, la proposition change de nature. En voulant élargir l’Impôt sur la...
INSCRIVEZ VOUS À NOTRE NEWSLETTER PATRIMONIALE

INSCRIVEZ VOUS À NOTRE NEWSLETTER PATRIMONIALE

Recevez l'actualité patrimoniale directement dans votre boîte mail en un clic. Nos experts décryptent pour vous l'actualité et les problématiques patrimoniales pour vous aider à accomplir vos projets.

You have Successfully Subscribed!

INSCRIVEZ-VOUS À QUICKFI, NOTRE NEWSLETTER QUOTIDIENNE

Chaque matin (ou presque), recevez un débrief clair, rapide et utile des marchés, de l’économie, et de tout ce qui compte pour votre argent.

👉 L’actu décryptée et son impact sur votre épargne, en moins de 2 minutes.

💸 Économie • 📈 Bourse • 🌍 Géopolitique • 💡 Placements • 🏠 Immobilier

You have Successfully Subscribed!

M