Postavke privatnosti

Une nouvelle méthode du MIT permet à l'intelligence artificielle de résoudre les problèmes plus intelligemment avec deux fois moins de consommation

Des chercheurs du MIT ont développé une nouvelle technique qui permet aux grands modèles de langage d'ajuster dynamiquement l'effort nécessaire pour résoudre des tâches. Cette méthode, appelée mise à l'échelle adaptée à l'instance, réduit la consommation informatique de jusqu'à 50 pour cent tout en maintenant la précision, rendant ainsi les modèles plus petits tout aussi capables que les plus grands sur le marché.

Une nouvelle méthode du MIT permet à l
Photo by: Domagoj Skledar - illustration/ arhiva (vlastita)

Dans le monde de l'intelligence artificielle générative, où la course aux modèles plus grands, plus rapides et plus intelligents s'accélère sans cesse, des chercheurs du prestigieux institut MIT (Massachusetts Institute of Technology) viennent de présenter une solution qui pourrait fondamentalement changer les règles du jeu. Leur nouvelle méthode, présentée à la communauté scientifique cette semaine, ne se concentre pas sur la simple augmentation de la taille des modèles, mais sur une utilisation radicalement plus intelligente des ressources dont ces modèles disposent déjà.


Le problème auquel l'industrie a été confrontée jusqu'à présent était assez bizarre, mais réel : la plupart des grands modèles de langage (LLM) abordent chaque question avec la même "quantité" de réflexion. Que l'utilisateur demande "Combien font 2 plus 2 ?" ou cherche une analyse complexe de la situation géopolitique au 19ème siècle, les modèles standard allouent souvent un budget informatique fixe. Cela résulte en un énorme gaspillage d'énergie sur des requêtes triviales, tandis que simultanément, les problèmes complexes ne reçoivent pas assez d'attention "cognitive" nécessaire pour une résolution précise.


C'est exactement là qu'entre en scène l'équipe du MIT avec son approche révolutionnaire appelée "mise à l'échelle adaptée à l'instance" (instance-adaptive scaling). Leur méthode permet à l'intelligence artificielle une chose que les humains font instinctivement – la capacité d'évaluer la difficulté du problème avant et pendant la résolution elle-même et d'ajuster dynamiquement l'effort nécessaire pour parvenir à la réponse correcte.


Pourquoi "réfléchir" coûte-t-il cher ?


Pour comprendre l'importance de cette découverte, nous devons nous pencher sur la manière dont les modèles de langage modernes fonctionnent. Pour répondre aux questions plus difficiles, les chercheurs ont récemment commencé à appliquer une technique connue sous le nom de "mise à l'échelle au moment de l'inférence" (inference-time scaling). Cette technique permet au modèle de passer plus de temps à générer des solutions potentielles, à explorer différents chemins de raisonnement ou réactions en chaîne de pensées (chain-of-thought), avant de livrer une réponse finale.


Cependant, les approches précédentes étaient rigides. Elles fixaient un budget informatique fixe pour chaque problème, quelle que soit sa complexité. Cela signifiait que le modèle pouvait gaspiller de précieuses ressources de processeurs graphiques (GPU) sur des questions simples nécessitant une réponse immédiate, ou, pire encore, ne pas avoir assez de ressources pour s'attaquer à des problèmes nécessitant une logique profonde et de multiples étapes de vérification.


Le nouvel algorithme développé par les chercheurs du MIT permet au modèle d'ajuster dynamiquement son budget. En pratique, cela signifie que le modèle peut "faire une pause", évaluer la difficulté de la question et la probabilité que la direction actuelle de la réflexion mène à la solution correcte, et sur cette base décider s'il faut investir plus d'efforts ou si la réponse est déjà prête.


Résultats révolutionnaires : Moins est parfois plus


Les résultats des tests de cette méthode sont impressionnants. L'équipe de recherche a découvert que leur approche permet aux grands modèles de langage d'utiliser jusqu'à 50 pour cent de ressources informatiques en moins par rapport aux méthodes existantes, tout en conservant le même niveau de précision sur un large spectre de questions de différentes difficultés.


Peut-être une découverte encore plus significative est le fait que cette méthode démocratise la puissance de l'intelligence artificielle. En effet, la recherche a montré que des modèles plus petits, moins gourmands en ressources, lorsqu'ils sont équipés de cet algorithme adaptatif, peuvent égaler voire surpasser les performances de modèles considérablement plus grands et plus chers sur des problèmes complexes. Cela ouvre la porte à l'application de technologies IA avancées sur des appareils aux ressources limitées, comme les smartphones ou les ordinateurs portables, sans avoir besoin d'une connexion constante à des centres de données massifs.


Comment fonctionne la "métacognition numérique" ?


Le cœur de ce système réside dans la capacité du modèle à "savoir ce qu'il ne sait pas". Navid Azizan, professeur au Département de génie mécanique et à l'Institut pour les données, les systèmes et la société (IDSS) au MIT et auteur principal de l'étude, souligne l'importance de ce concept.


"Le coût informatique de l'inférence est rapidement devenu un goulot d'étranglement majeur pour les fournisseurs des modèles les plus avancés, qui tentent activement de trouver des moyens d'améliorer l'efficacité informatique par requête utilisateur," explique Azizan. "Par exemple, la récente version du modèle GPT-5.1 souligne l'efficacité de l'approche d''inférence adaptative' que notre travail propose. En permettant aux modèles de reconnaître leurs limites de connaissances, nous pouvons leur permettre de dépenser plus de puissance de calcul sur les problèmes les plus difficiles et les voies de résolution les plus prometteuses, et beaucoup moins de jetons sur ceux qui sont simples. Cela rend le processus d'inférence plus fiable et bien plus efficace."


Techniquement parlant, le cadre utilise un composant connu sous le nom de Process Reward Model (PRM) ou modèle de récompense de processus. Ce modèle "superviseur" évalue chaque étape potentielle dans la résolution du problème. Imaginez-le comme un professeur strict qui regarde un élève pendant qu'il résout un devoir de mathématiques. Le PRM évalue la difficulté de la question et aide le modèle principal (LLM) à décider combien de ressources doivent être allouées.


Résolution du problème de l'excès de confiance


L'un des défis clés auxquels les chercheurs ont été confrontés était la tendance des modèles de récompense existants (PRM) à être trop optimistes. Souvent, ils surestimaient la probabilité qu'une certaine étape de la résolution soit correcte, ce qui amenait le système à conclure prématurément le processus de "réflexion" et à livrer une réponse erronée.


"Si nous avions simplement fait confiance aux PRM actuels, qui surestiment souvent les chances de succès, notre système aurait réduit le budget informatique de manière trop agressive," explique Young-Jin Park, doctorant au MIT et auteur principal de l'étude. "C'est pourquoi nous avons d'abord dû trouver un moyen de mieux calibrer ces modèles afin de rendre la mise à l'échelle au moment de l'inférence plus efficace et fiable."


La solution a été trouvée dans une nouvelle méthode de calibration. Au lieu que le PRM donne une simple évaluation binaire (bon/mauvais) ou une seule valeur numérique, les chercheurs lui ont appris à générer une plage de probabilités. De cette façon, le système obtient une image plus réaliste de l'incertitude. Si le modèle est "sûr" d'être sur la bonne voie, il réduit le nombre de scénarios alternatifs qu'il explore, économisant des ressources. S'il est incertain, il élargit la recherche.


Hao Wang, chercheur au laboratoire MIT-IBM Watson AI Lab et membre de l'équipe, dresse un parallèle intéressant avec la pensée humaine : "C'est en fait la manière dont les humains résolvent les problèmes. Nous imaginons quelques solutions partielles, puis nous décidons : dois-je continuer avec l'une d'entre elles, ou m'arrêter et réviser, ou même revenir à une étape précédente et continuer la résolution du problème à partir de là ?"


L'avenir des agents IA et des systèmes autonomes


Cette recherche, qui est présentée cette semaine, début décembre 2025, à la prestigieuse conférence Neural Information Processing Systems (NeurIPS), a des implications qui vont bien au-delà de la communauté académique. La réduction de la consommation énergétique des systèmes d'IA générative est cruciale pour la durabilité de l'industrie, en particulier à la lumière des préoccupations croissantes concernant l'empreinte carbone des grands centres de données.


Outre l'aspect écologique, cette technique ouvre la porte à l'utilisation des LLM dans des situations à haut risque et sensibles au temps. Kristjan Greenewald, chercheur au MIT-IBM Watson AI Lab, souligne la nature dynamique de leur solution : "La beauté de notre approche réside dans le fait que cet ajustement se produit à la volée, pendant que le problème est résolu, au lieu de se produire d'un coup au début du processus."


En regardant vers l'avenir, les chercheurs prévoient d'appliquer cette technique à d'autres domaines, comme la génération automatique de code informatique et le développement d'agents IA autonomes. La calibration des modèles de récompense (PRM) pourrait également trouver une application dans l'apprentissage par renforcement (reinforcement learning) et l'ajustement fin des modèles.


Akash Srivastava, directeur et architecte en chef pour Core AI chez IBM Software, qui n'a pas participé directement aux travaux mais suit leur développement, souligne le potentiel transformateur de cette technologie pour la main-d'œuvre du futur :



"Les employés humains apprennent sur le tas — certains PDG ont même commencé comme stagiaires — mais les agents IA d'aujourd'hui restent pour la plupart des morceaux statiques de logiciel probabiliste. Un travail comme cet article est une étape importante pour changer cela : aider les agents à réaliser ce qu'ils ne savent pas et construire des mécanismes pour l'auto-amélioration continue. Ces capacités sont clés si nous voulons des agents qui peuvent travailler en toute sécurité, s'adapter à de nouvelles situations et livrer des résultats cohérents à grande échelle."



Collaboration de géants pour un avenir plus intelligent


Il est important de noter que cette recherche est le résultat de la collaboration de certains des noms les plus forts du monde technologique et académique. Le projet a été financé, entre autres, par le MIT-IBM Watson AI Lab, le MIT-Amazon Science Hub, le MIT-Google Program for Computing Innovation et l'entreprise MathWorks.


À un moment où le monde est confronté à la question des limites de la croissance de l'intelligence artificielle, l'équipe du MIT prouve que la solution n'est pas toujours dans un "plus gros marteau", mais dans une frappe plus précise. En introduisant un élément de métacognition – la réflexion sur sa propre réflexion – l'intelligence artificielle devient non seulement plus efficace, mais aussi plus semblable aux systèmes biologiques qu'elle tente d'imiter.


Pour les utilisateurs finaux, cela pourrait bientôt signifier des réponses plus rapides aux questions simples, des analyses plus profondes et plus précises pour les requêtes complexes, et des assistants IA sur nos téléphones portables qui ne vident pas la batterie en quelques minutes. Dans un monde où la puissance de calcul est la nouvelle monnaie, la capacité d'économiser cette monnaie pourrait être l'innovation la plus précieuse de cette année.

Trouvez un hébergement à proximité

Heure de création: 11 heures avant

Rédaction science et technologie

Notre Rédaction Science et Technologie est née d’une passion de longue date pour l’exploration, l’interprétation et la vulgarisation de sujets complexes auprès du grand public. Elle réunit des salariés et des bénévoles qui suivent depuis des décennies l’évolution de la science et de l’innovation technologique, des découvertes en laboratoire aux solutions qui transforment la vie quotidienne. Bien que nous écrivions au pluriel, chaque texte est rédigé par une personne réelle dotée d’une vaste expérience éditoriale et journalistique, ainsi que d’un profond respect pour les faits et les informations vérifiables.

Notre rédaction fonde son travail sur la conviction que la science est plus forte lorsqu’elle est accessible à tous. C’est pourquoi nous recherchons la clarté, la précision et la lisibilité, sans simplifications qui nuiraient à la qualité du contenu. Nous passons souvent des heures à étudier des recherches, des documents techniques et des sources spécialisées afin de présenter chaque sujet de manière à susciter l’intérêt du lecteur plutôt qu’à le surcharger. Dans chaque article, nous nous efforçons de relier les connaissances scientifiques à la vie réelle, en montrant comment les idées issues des centres de recherche, des universités et des laboratoires technologiques façonnent le monde qui nous entoure.

Notre longue expérience journalistique nous permet d’identifier ce qui est réellement important pour le lecteur, qu’il s’agisse de progrès dans l’intelligence artificielle, de découvertes médicales, de solutions énergétiques, de missions spatiales ou d’appareils qui entrent dans notre quotidien avant même que nous en imaginions les possibilités. Notre regard sur la technologie n’est pas uniquement technique ; nous nous intéressons aussi aux histoires humaines derrière les grandes avancées – chercheurs qui passent des années sur leurs projets, ingénieurs qui transforment des idées en systèmes fonctionnels, visionnaires qui repoussent les frontières du possible.

Un fort sentiment de responsabilité guide également notre travail. Nous voulons que le lecteur puisse avoir confiance dans les informations que nous fournissons, c’est pourquoi nous vérifions les sources, comparons les données et retardons la publication si un élément reste incertain. La confiance se construit plus lentement qu’une actualité ne s’écrit, mais nous croyons que seul un journalisme de cette rigueur a une valeur durable.

Pour nous, la technologie est plus qu’un ensemble d’appareils, et la science plus qu’une théorie. Ce sont des domaines qui stimulent le progrès, façonnent la société et offrent de nouvelles possibilités à tous ceux qui souhaitent comprendre comment le monde fonctionne aujourd’hui et où il se dirige demain. C’est pourquoi nous abordons chaque sujet avec sérieux mais aussi curiosité, car la curiosité est la porte d’entrée des meilleurs textes.

Notre mission est de rapprocher les lecteurs d’un monde qui change plus vite que jamais, avec la conviction qu’un journalisme de qualité peut servir de pont entre experts, innovateurs et tous ceux qui veulent comprendre ce qui se passe derrière les titres. Nous voyons là notre véritable tâche : transformer le complexe en compréhensible, le lointain en proche et l’inconnu en source d’inspiration.

AVIS À NOS LECTEURS
Karlobag.eu fournit des actualités, des analyses et des informations sur les événements mondiaux et les sujets d'intérêt pour les lecteurs du monde entier. Toutes les informations publiées sont fournies à titre informatif uniquement.
Nous soulignons que nous ne sommes pas des experts dans les domaines scientifique, médical, financier ou juridique. Par conséquent, avant de prendre toute décision basée sur les informations de notre portail, nous vous recommandons de consulter des experts qualifiés.
Karlobag.eu peut contenir des liens vers des sites externes de tiers, y compris des liens affiliés et des contenus sponsorisés. Si vous achetez un produit ou un service via ces liens, nous pouvons percevoir une commission. Nous n'avons aucun contrôle sur le contenu ou les politiques de ces sites et déclinons toute responsabilité quant à leur exactitude, leur disponibilité ou toute transaction effectuée via ces liens.
Si nous publions des informations sur des événements ou des ventes de billets, veuillez noter que nous ne vendons pas de billets, ni directement ni par l'intermédiaire. Notre portail informe uniquement les lecteurs des événements et des possibilités d'achat via des plateformes de vente externes. Nous mettons en relation les lecteurs avec des partenaires offrant des services de vente de billets, sans garantir leur disponibilité, leurs prix ou leurs conditions d'achat. Toutes les informations concernant les billets sont fournies par des tiers et peuvent être modifiées sans préavis. Nous vous recommandons de vérifier attentivement les conditions de vente auprès du partenaire choisi avant tout achat.
Toutes les informations sur notre portail peuvent être modifiées sans préavis. En utilisant ce portail, vous acceptez de lire le contenu à vos risques et périls.