L’arrivée des world models marque un tournant stratégique de l’IA pour l’entreprise, mais elle ne rend pas les LLM obsolètes : elle redéfinit leur rôle, en les complétant plutôt qu’en les remplaçant.
LLM : ce que sont vraiment les grands modèles de langage
Les LLM (Large Language Models) sont des modèles statistiques entraînés sur d’immenses corpus de textes pour prédire le prochain mot d’une séquence, ce qui leur permet de générer, résumer ou traduire du texte de façon fluide.
Ils excellent dans les tâches de langage : rédaction, synthèse, chatbots, génération de code, recherche d’information assistée et automatisation documentaire.
Pour l’entreprise, les LLM servent aujourd’hui surtout à :
Industrialiser la production de contenus (marketing, support, documentation).
Accélérer l’analyse de documents (contrats, rapports, emails, tickets).
Prototyper rapidement des assistants métiers (RH, finance, IT, juridique).
Mais leur limite structurelle, soulignée par Yann Le Cun, est qu’ils n’ont qu’un accès indirect au monde réel, via le texte, et qu’ils raisonnent peu sur la dynamique des situations ou des actions dans un environnement physique ou complexe.
Que sont les world models ?
Les world models cherchent non pas seulement à prédire des mots, mais à construire une représentation interne cohérente du monde, de ses règles physiques et des conséquences des actions.
Concrètement, ils apprennent sur des flux sensoriels riches (images, vidéos, signaux, interactions) pour simuler ce qui se passerait si l’on agissait d’une certaine manière dans une situation donnée.
Caractéristiques clés pour un contexte entreprise :
Modélisation de scénarios : simuler l’impact d’actions (logistique, maintenance, robotique, pricing).
Apprentissage par interaction : apprendre en explorant, en testant, en corrigeant, plutôt qu’en lisant uniquement des textes.
Ancrage dans le monde physique : prise en compte de contraintes réelles (temps, espace, mécanique, incertitude).
Dans la vision de Yann Le Cun, ces modèles sont une voie crédible vers une IA plus « générale », capable non seulement de parler du monde, mais d’y agir de manière autonome et robuste.
Critère | LLM | World Model |
|---|---|---|
Données d'entrée | Texte massif (internet, livres, code) | Vidéos, images, données spatiales / 3D |
Mode d'apprentissage | Prédiction de token suivant | Prédiction de représentations abstraites (JEPA) |
Compréhension physique | Inexistante (simulée par le langage) | Intrinsèque (physique intuitive) |
Capacité de planification | Limitée, sujette aux hallucinations | Cœur de la promesse |
Maturité commerciale | Déployée massivement (2022–2026) | Recherche fondamentale (horizon 3–5 ans) |
Applications cibles | Texte, code, analyse documentaire | Robotique, santé, industrie, logistique |
LLM déjà dépassés ? La thèse de Yann Le Cun
Yann Le Cun critique depuis plusieurs années le rôle central donné aux LLM dans la course à l’IA générale.
« Les modèles basés sur des données textuelles ne permettront jamais d'atteindre un niveau d'intelligence comparable à celui des humains. »
Yann Lecun, Prix Turing 2018 - mars 2026
Pour lui, les LLM :
Ne comprennent pas vraiment le monde, car ils ne le perçoivent qu’à travers la langue.
Sont mauvais pour la planification longue, la manipulation robuste et la prise de décision en environnement non textuel.
Sa position n’est pas que les LLM sont inutiles, mais qu’ils sont une « impasse » comme noyau d’une intelligence artificielle complète.
Il propose donc un changement de paradigme : faire des world models le cœur de l’IA et reléguer le langage à une interface parmi d’autres (au même titre que la vision ou l’action).
Pour une entreprise, cela signifie :
Les LLM restent extrêmement pertinents pour le texte, le code, la connaissance interne.
Les world models deviennent cruciaux dès qu’il s’agit de simuler le réel : robots, supply chain, opérations industrielles, mobilité, énergie.
Le parcours de Yann Le Cun et son pari sur les world models
Pour comprendre la portée de l'événement, il faut saisir qui est Yann LeCun. Né en 1960 à Paris, ce chercheur franco-américain est l'un des pères fondateurs du deep learning. Diplômé de l’ESIEE Paris et de l’Université Pierre-et-Marie-Curie (aujourd’hui Sorbonne Université), il obtient un doctorat en 1987 sur une variante de l’algorithme de rétropropagation, fondement des réseaux de neurones modernes.
Dans les années 1980-90, il développe les réseaux de neurones convolutifs (CNN), la technologie qui permet aujourd'hui à n'importe quelle application de reconnaissance d'image de fonctionner. Ces travaux lui vaudront, avec Geoffrey Hinton et Yoshua Bengio, le Prix Turing 2018, la plus haute distinction en informatique.
En 2013, il rejoint Meta (alors Facebook) pour fonder et diriger le laboratoire FAIR : Facebook AI Research. Pendant douze ans, il y produit des recherches fondamentales tout en supervisant le développement de modèles devenus incontournables, dont la série open-source Llama. Paradoxe : c'est l'homme qui a contribué à l'essor des LLM chez Meta qui est aujourd'hui leur plus ardent critique.
Fin 2025, il a pris ses distances avec la stratégie centrée sur les LLM, affirmant que l’avenir passe par des systèmes capables de comprendre et prédire le monde physique.
Son départ de Meta pour fonder une startup centrée sur les world models s’inscrit dans cette vision, avec une ambition affichée : construire une IA capable "d’apprendre comme un bébé”, en percevant, agissant et corrigeant ses erreurs dans un environnement dynamique.
AMI Labs : un milliard pour changer de paradigme
Le 10 mars 2026, LeCun officialise la création d'AMI Labs : Advanced Machine Intelligence avec une levée de fonds de 1,03 milliard de dollars pour une valorisation de 3,5 milliards, sans avoir encore sorti le moindre produit. C'est le plus grand tour de table seed jamais réalisé par une startup européenne.
LeCun préside la structure ; la direction opérationnelle est assurée par Alexandre LeBrun, entrepreneur chevronné et cofondateur de Nabla (IA médicale). À ses côtés, Laurent Solly, ancien vice-président de Meta pour l'Europe occupe le poste de COO. Des chercheurs de renom comme Saining Xie et Pascale Fung complètent le tableau de bord scientifique.
Le tour de table réunit des investisseurs d'une diversité inhabituelle : les fonds Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions (le family office de Jeff Bezos) en ont pris la tête. Côté industriel, Nvidia, Samsung et Toyota ont participé. Côté personnalités, Eric Schmidt (ex-PDG de Google), Xavier Niel et Mark Cuban ont mis leurs noms et leurs capitaux dans l'aventure. En France, Macron a salué l'événement : « Yann LeCun ouvre une nouvelle ère pour l'intelligence artificielle. »
« Quand une entreprise dépasse une valorisation d'un milliard, on appelle ça une licorne. Nous, on dépasse les trois milliards, donc on est un tricératops. »
Yann LeCun - France Inter, mars 2026
AMI n'est pas seule sur ce créneau. World Labs, fondée par Fei-Fei Li (pionnière de la vision par ordinateur à Stanford), a levé un milliard de dollars quelques semaines plus tôt. La startup européenne SpAItial a elle aussi attiré des fonds inhabituellement élevés pour une seed européenne. Google DeepMind et OpenAI, pour leur part, commencent à intégrer des composantes de modélisation du monde dans leurs architectures.
Conclusion
Autrement dit, les LLM ne sont pas déjà dépassés ; ils sont en train d’être replacés à leur juste place : des interfaces puissantes de compréhension et de communication, appelées à collaborer avec des world models qui portent, eux, la compréhension profonde du monde sur lequel votre entreprise agit.
La transition ne sera pas abrupte. LLM et World Models coexisteront, probablement hybridés. Mais ceux qui comprennent aujourd'hui les fondations du changement seront mieux positionnés pour en capturer la valeur lorsque les premières applications industrielles émergeront vraisemblablement entre 2028 et 2030.





