Le champ de bataille principal dans la compétition du développement de l'IA passe de la "performance des modèles" à la "boucle d'auto-amélioration".

Le champ de bataille principal dans la compétition du développement de l'IA passe de la "performance des modèles" à la "boucle d'auto-amélioration".

Le jour où l'IA transformera l'IA : la réalité de l'auto-amélioration posée par la superintelligence récursive

Un nouveau pari majeur a commencé dans l'industrie de l'IA.

Au centre de l'attention se trouve Richard Socher, connu comme le fondateur de You.com et ayant une longue carrière en tant que chercheur en IA. Sa nouvelle entreprise, Recursive Superintelligence, a émergé de l'ombre avec un financement de 650 millions de dollars et une évaluation de 4,65 milliards de dollars. Et l'objectif de l'entreprise n'est ni un simple chatbot performant, ni un agent IA pour les entreprises.

L'objectif est de créer une IA qui améliore elle-même l'IA.

Plus précisément, l'idée est que l'IA identifie ses propres faiblesses, propose des améliorations, modifie le code ou le modèle, et vérifie les résultats. Le processus de développement de l'IA, où les humains définissent les sujets de recherche, conçoivent les expériences et évaluent les résultats, serait pris en charge par l'IA elle-même. C'est ce qu'on appelle l'"auto-amélioration récursive".

Cela peut sembler de la science-fiction, mais dans la recherche actuelle en IA, nous entrons déjà dans une phase où l'IA écrit du code, lit des articles, aide aux expériences et crée des données d'évaluation. Recursive vise à automatiser la recherche et le développement eux-mêmes.


"Amélioration" et "auto-amélioration" sont différents

Dans une interview avec TechCrunch, Socher a souligné que l'utilisation de l'IA pour améliorer quelque chose et l'IA qui s'améliore continuellement elle-même sont deux choses différentes.

Par exemple, demander à une IA "d'améliorer ce texte" est une amélioration. Demander à une IA de "trouver un moyen d'améliorer la précision de ce modèle d'apprentissage automatique" est également une amélioration au sens large. Cependant, cela implique toujours que les humains définissent les objectifs, conçoivent le cadre expérimental et prennent la décision finale.

L'auto-amélioration prônée par Recursive va plus loin. Elle automatise la génération d'idées de recherche, la mise en œuvre et la vérification, permettant à l'IA d'observer ses propres limites et de créer des procédures pour s'améliorer. Si cette boucle est établie, la vitesse de développement de l'IA ne sera plus limitée par le temps de travail des chercheurs humains.

Un concept clé ici est "l'exploration ouverte", qui se rapproche de l'idée d'une "exploration sans fin". Comme dans l'évolution biologique, un individu s'adapte à un environnement, une nouvelle adaptation émerge pour contrer cela, et un autre changement se produit. Au lieu d'atteindre un objectif prédéterminé le plus rapidement possible, une chaîne d'essais et d'erreurs diversifiés se produit, générant des capacités et des structures inattendues.

Recursive cherche à introduire cette exploration ouverte dans la recherche en IA. Plutôt que de simplement augmenter les scores de référence, l'IA trouve elle-même des problèmes, crée des défis et explore les directions d'amélioration. Cette approche diffère quelque peu de la compétition traditionnelle pour créer le prochain grand modèle.


Pourquoi les investisseurs investissent-ils autant ?

Lever 650 millions de dollars est une échelle inhabituelle pour une entreprise qui n'a pas encore publié de produit. L'évaluation est de 4,65 milliards de dollars. Selon les rapports, GV et Greycroft ont dirigé l'investissement, avec la participation de NVIDIA et AMD Ventures.

Derrière ce financement massif se cache un changement de focus dans l'industrie de l'IA. Jusqu'à présent, la compétition s'est concentrée sur l'utilisation de modèles plus grands, de plus de données et de GPU plus puissants pour améliorer les performances. Cependant, il y a une opinion croissante selon laquelle la simple augmentation de la taille des modèles a ses limites.

Si un saut quantique doit se produire, ce pourrait être de "laisser l'IA faire la recherche en IA". Les investisseurs parient sur Recursive précisément sur cette hypothèse.

Si l'IA peut formuler des hypothèses, mener des expériences, apprendre de ses échecs et concevoir les expériences suivantes comme le ferait un chercheur, le goulot d'étranglement du développement de l'IA ne sera plus le nombre de personnes, mais les ressources de calcul. En d'autres termes, la vitesse et le nombre d'expériences que l'on peut exécuter deviendront le centre de la compétition.

Cela ne concerne pas seulement l'industrie de l'IA. Socher envisage de commencer par automatiser la recherche en IA et de l'étendre à d'autres domaines scientifiques à l'avenir. Dans des domaines tels que la médecine, la science des matériaux, le climat, l'énergie et la découverte de médicaments, un avenir où l'IA mène de manière autonome la recherche sur les défis de la société humaine est en vue.

Cependant, cet avenir n'est pas fait que d'espoir.


Sur les réseaux sociaux, attentes et précautions se répandent simultanément

 

Les réactions sur les réseaux sociaux à cette annonce sont assez polarisées.

Sur LinkedIn, les voix de félicitations et d'attentes se distinguent, principalement parmi les investisseurs et les personnes impliquées dans l'IA. Le post de Recursive a recueilli des centaines de réactions, et dans les commentaires, des entreprises de soutien comme GV et AMD Ventures expriment leurs attentes envers l'équipe et la mission de l'entreprise.

Nancy Xu a positionné le concept de Recursive comme l'étincelle de la "prochaine Renaissance de l'innovation", suggérant que l'IA deviendra un accélérateur de la découverte de connaissances, et non simplement une automatisation des tâches. Cela contraste avec la tendance actuelle des agents IA à se concentrer sur "l'IA qui remplace le travail", tandis que Recursive propose "l'IA qui étend la recherche et la découverte".

D'un autre côté, il y a des voix prudentes. Parmi les commentaires sur le post officiel de Recursive, certains soulignent que dans le cas d'une IA auto-améliorante, il est nécessaire de vérifier non seulement le modèle final, mais aussi la chaîne d'améliorations elle-même. Qu'est-ce qui a changé, pourquoi cela a changé, quelles preuves soutiennent ces changements ? Les benchmarks ne sont-ils pas biaisés ? La vérification n'est-elle pas circulaire ? La découverte de capacités ne dépasse-t-elle pas la supervision humaine ?

C'est un point très important. Si l'IA ne donne une réponse qu'une seule fois, il suffit d'évaluer cette réponse. Mais si l'IA continue de changer sa conception, il ne suffit pas d'évaluer uniquement la sortie. Il est nécessaire de suivre, vérifier et rendre le processus d'amélioration lui-même explicable.

Sur les réseaux sociaux, on trouve à la fois des voix disant "quelle équipe incroyable" et "c'est la prochaine courbe en S de la recherche en IA", et des voix demandant "comment garantir la sécurité" et "qui audite l'auto-amélioration". L'annonce de Recursive attire une grande attention non seulement parce que le rêve est grand, mais aussi parce que le risque est tout aussi grand.


La sécurité à l'ère de l'IA qui se répare elle-même

Lorsqu'on pense à la sécurité de l'IA auto-améliorante, la difficulté la plus grande réside dans la différence de vitesse entre l'amélioration et la compréhension humaine.

Lorsque les humains mènent des recherches, ils écrivent des articles, passent par l'examen par les pairs, réalisent des expériences de reproduction et discutent au sein de la communauté. Cela prend du temps, mais cela permet l'intervention d'autres regards. Il y a une marge pour détecter les erreurs ou les affirmations excessives.

Cependant, si l'IA génère une multitude d'hypothèses, mène de nombreuses expériences et met à jour les modèles ou algorithmes successivement, il devient difficile pour les humains de tout comprendre. De plus, si l'IA crée elle-même les critères d'évaluation ou les environnements de test, la question de savoir si cette évaluation est vraiment valable se pose.

Par exemple, si l'IA décide qu'elle est devenue sûre, qui vérifiera ce jugement ? Peut-on dire que l'IA ne crée pas des tests en sa faveur ? Y a-t-il un risque que les contraintes de sécurité initialement définies se transforment involontairement au fur et à mesure que les capacités augmentent ?

Pour cette raison, dans le cas de l'IA auto-améliorante, il est essentiel non seulement d'améliorer les capacités du modèle, mais aussi d'assurer l'audit, la journalisation, la reproductibilité, l'évaluation externe et la vérification indépendante des expériences. Recursive explique qu'elle accorde de l'importance à la sécurité, mais le mécanisme concret sera le point central à l'avenir.


Est-ce une "entreprise de recherche en IA" ou une nouvelle infrastructure industrielle ?

Si l'on considère Recursive comme une simple entreprise de recherche en IA, son évaluation peut sembler exagérée. Il n'y a pas encore de produit. Le nombre d'employés est faible. Pourtant, elle est évaluée à plusieurs milliards de dollars.

Cependant, les investisseurs ne regardent pas les revenus actuels, mais la possibilité que le mode de production de la recherche en IA change. Si une grande partie de la recherche et du développement est automatisée, Recursive pourrait devenir non pas une simple entreprise de fourniture de modèles, mais une entreprise d'infrastructure de production de connaissances.

C'est une approche similaire à celle du cloud ou des semi-conducteurs. Autrefois, les entreprises possédaient leurs propres serveurs, mais elles sont passées à une époque où elles louent des ressources de calcul sur le cloud. De même, à l'avenir, il pourrait y avoir une époque où la "capacité de recherche" elle-même sera utilisée comme un système IA.

Une entreprise veut découvrir de nouveaux matériaux. Un institut de recherche veut trouver de nouveaux candidats médicamenteux. Un gouvernement veut accélérer la simulation des mesures contre les maladies infectieuses. À ce moment-là, en plus des équipes de chercheurs humains, un système de recherche IA auto-améliorant exécute des hypothèses et des expériences. L'avenir que Recursive envisage se rapproche de ce monde.

Cependant, dans ce contexte, la répartition des ressources de calcul devient une question sociale. Quelle recherche utilisera les GPU et l'électricité limités ? Le traitement du cancer, le changement climatique, la technologie militaire ou l'optimisation publicitaire ? Même si l'IA peut accélérer la découverte scientifique, c'est la société, les entreprises et le capital qui décident de la direction à prendre.


Qu'impose l'auto-amélioration à l'humanité ?

L'idée que l'IA s'améliore elle-même a toujours été un rêve et en même temps une peur dans la recherche en IA. Si cela fonctionne, des découvertes qui prendraient du temps à l'intelligence humaine pourraient être réalisées en peu de temps. Traitements de maladies, énergies propres, nouveaux matériaux, problèmes mathématiques non résolus. La vitesse de recherche pourrait augmenter dans tous les domaines.

Cependant, une auto-amélioration incontrôlée représente également un grand risque pour la société. Non seulement l'IA pourrait-elle améliorer ses capacités, mais elle pourrait aussi transformer ses objectifs d'une manière difficile à comprendre pour les humains, ou contourner les contraintes de sécurité.

Ce problème ne se résume pas à la simple question de savoir si "l'IA va dérailler". Plus concrètement, il s'agit de savoir qui possède cette IA, qui peut l'utiliser, qui l'audite, et qui est responsable en cas d'échec, ce qui relève de la gouvernance.

L'émergence de Recursive montre que l'industrie de l'IA passe de l'étape de "créer des modèles plus intelligents" à celle de "créer des mécanismes pour créer des modèles plus intelligents". Cela signifie que le niveau de compétition a monté d'un cran.

De l'époque où l'on confiait des tâches à l'IA à celle où l'on confie la recherche à l'IA. Et maintenant, à l'époque où l'on confie à l'IA l'amélioration de l'IA elle-même.

Lorsque cette porte s'ouvrira, le rôle de l'humain ne disparaîtra pas, mais deviendra plutôt plus lourd. Que doit-on améliorer ? Jusqu'où donner de l'autonomie ? À quel stade doit-on s'arrêter ? Quels éléments de preuve sont nécessaires pour considérer quelque chose comme sûr ? La société ne peut pas simplement déléguer ces décisions à l'IA.

Le défi de Recursive Superintelligence a le potentiel d'accélérer l'avenir de l'IA. En même temps, il pose la question de savoir si la société humaine peut suivre cette accélération.

L'époque où l'IA transforme l'IA n'est plus une science-fiction lointaine. La question n'est pas seulement de savoir quand cela se réalisera, mais aussi ce que l'humanité choisira de protéger, de déléguer et de décider à ce moment-là.



Source URL

TechCrunch : Interview de Richard Socher. Les concepts de Recursive Superintelligence, l'auto-amélioration récursive, l'exploration ouverte, le moment de lancement du produit, l'importance des ressources de calcul, et autres points clés.
https://techcrunch.com/2026/05/14/what-happens-when-ai-starts-building-itself/
Vérifié par :

Site officiel de Recursive : Explications officielles sur "superintelligence auto-améliorante", "automatisation de la découverte de connaissances", "priorité à la sécurité", etc.
https://www.recursive.com/
Vérifié par :

Post LinkedIn officiel de Recursive : Levée de 650 millions de dollars, évaluation de 4,65 milliards de dollars, participation de GV, Greycroft, AMD Ventures, NVIDIA, commentaires de félicitations et de préoccupations sur les réseaux sociaux.
https://www.linkedin.com/posts/recursive-si_we-are-emerging-from-stealth-with-a-bold-activity-7460256112886353920-DkOg
Vérifié par :

Post LinkedIn de Nancy Xu : Attentes des investisseurs et des parties prenantes concernant l'annonce de Recursive, évaluée comme "découverte de connaissances" et "Renaissance de l'innovation".
https://www.linkedin.com/posts/xnancy_congratulations-to-recursive-on-announcing-activity-7460406524415356930-NMaP
Vérifié par :

Post LinkedIn de Christian Miele : Hypothèse commerciale vue du côté des investisseurs de Recursive, évaluée comme "IA expérimentant des méthodes d'auto-amélioration".
https://www.linkedin.com/posts