Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Token-maxxing pour tous : une course aux armements que personne n'ose arrêter
Auteur : Partenaire de Five Sources Capital, Meng Xing ; Source : LatePost
Nous avons fait le tour de la Silicon Valley et avons découvert que même ceux qui créent des vagues sont presque submergés par elles.
Le matin du 24 mars 2026, je suis assis dans la salle d’audience du Demo Day de YC W26 batch, et lorsque la cinquième entreprise monte sur scène pour présenter, je décide de ne plus prendre de notes.
Ce n’est pas que ce soit peu important, mais je réalise que ce que j’ai noté pourrait devenir obsolète le mois prochain.
Parmi cette promotion de plus de cent entreprises, les activités sont en réalité très concentrées : environ 80 % sont des agents verticaux, comme aider les avocats à organiser des documents, aider le service client à distribuer des tickets, aider les RH à trier des CV.
Si j’avais vu ces projets en octobre dernier, je penserais probablement « plutôt innovant ». Mais le problème, c’est que ces cinq mois, le monde a changé.
Claude Code, qui était un outil plutôt destiné aux développeurs, est devenu une interface accessible à presque tout le monde. Après la sortie d’Opus 4.6, toute l’ambiance autour du codage a été abaissée à un niveau plancher.
Ces agents verticaux, avant de créer une barrière commerciale, pouvaient aujourd’hui être réalisés par un ingénieur ordinaire, voire moi-même, en un week-end. Ils ont déjà perdu leur valeur d’investissement.
Le cycle d’un projet YC est de trois mois. Cette promotion, entrée en décembre, après sélection préalable, correspond à des « bonnes entreprises » sélectionnées il y a environ 5 mois. Mais dans la vitesse d’itération de l’IA actuelle, plusieurs cycles de paradigmes peuvent déjà s’être produits en 5 mois.
En 2012, lors de ma première création d’entreprise, lorsque j’ai reçu une invitation à un entretien en personne de YC, YC dominait presque seul la scène des accélérateurs, et les entreprises sélectionnées représentaient souvent « la prochaine tendance ». Mais la compétition évolue. Ces dernières années, YC semble inverser la tendance, devenant peu à peu un indicateur retardé (lagging indicator).
Le système de batch de YC, avec ses phases de candidature, sélection, intégration, perfectionnement et présentation, a très bien fonctionné dans l’ère de l’Internet mobile. Mais ce rythme est conçu pour un monde plus lent.
Depuis un an et demi dans le secteur du capital-risque, je viens généralement à la Silicon Valley chaque trimestre. La dernière fois, c’était en octobre dernier. Chaque visite précédente me donnait l’impression que tout changeait rapidement, mais cette rapidité était surtout perçue mois par mois.
Cette fois, il faut suivre « semaine par semaine ».
Un soir, lors d’un dîner, un ami qui travaille dans la post-formation a lâché une phrase :
« Je me rends compte que la Silicon Valley commence à ne plus suivre ses propres innovations. »
Token-maxxing pour tous : une course aux armements que personne n’ose arrêter
Il y a six mois, si quelqu’un m’avait dit que les dizaines de milliers d’ingénieurs de Meta utilisaient tous les produits de leurs concurrents pour coder, j’aurais pensé qu’il plaisantait.
Mais c’est vrai. Toute Meta utilise Claude Code. Ce n’est pas une startup, ni une équipe expérimentale, mais une entreprise valant des milliards de dollars.
Ils ont abandonné la sécurité du code, le budget token explose, les classements s’emballent, tout la Silicon Valley investit sans compter dans l’IA. Mais après cet investissement, que se passe-t-il ?
Commençons par la sécurité du code. Il y a six mois, c’était inimaginable, car le code est l’actif central d’une entreprise. Comment laisser une API extérieure y accéder ? Meta pensait aussi cela. Ils ont développé un outil appelé myclaw pour tenter de résoudre ce problème. Un ami de Meta m’a dit qu’ils avaient créé un produit de codage, mais « pas pratique, personne ne l’utilise ». Après l’échec, l’entreprise a dû assouplir ses règles : tant que cela ne concerne pas les données clients, on peut utiliser Claude Code à volonté.
Ensuite, chaque département a commencé à tenir des réunions internes sur « comment devenir une organisation native de l’IA », à faire des formations, à instaurer des évaluations. La sécurité du code, la sécurité d’utilisation, ces lignes rouges autrefois évidentes, ont été repoussées à l’arrière-plan : il faut d’abord augmenter la productivité.
Pour des raisons de sécurité, Google interdit à la plupart de ses employés d’utiliser Claude Code ou d’autres outils concurrents comme Codex, mais DeepMind fait exception. Plusieurs équipes responsables du modèle Gemini et des applications internes utilisent Claude Code.
Google n’a pas non plus été inactif : ils ont lancé un outil interne de codage appelé Antigravity, et en février dernier, ils ont affirmé que près de 50 % de leur nouveau code était écrit par IA.
Mais malgré cela, les équipes de DeepMind continuent d’utiliser Claude Code. La raison principale est qu’Anthropic leur a déployé une version privée, car leur inférence et leur entraînement reposent principalement sur le TPU de Google Cloud, ce qui leur donne une base de confiance. Mais Meta et d’autres géants technologiques n’ont pas cette relation. Ils ont vraiment mis la sécurité du code de côté. Tout le monde parie sur une chose : accélérer la cadence.
La sécurité du code n’est que le premier drapeau tombé. Le second, c’est le budget token.
Dans plusieurs startups IA natives à Palo Alto, un ingénieur dépense environ 200 000 dollars par an en tokens. Ce chiffre n’est pas surprenant en soi, mais il signifie que le coût en IA d’un ingénieur de haut niveau approche désormais son salaire. On pourrait penser que l’entreprise économise en réduisant ses effectifs, mais en réalité, le coût total ne baisse pas : on remplace le coût humain par le coût en tokens.
Meta est encore plus extrême. Ils ont créé un classement interne de consommation de tokens : ceux qui en utilisent le plus sont en haut du classement, et ceux en bas risquent le licenciement. Les employés de Meta se battent même pour un titre non officiel : « token legend ».
Mais en même temps, Meta a procédé à deux vagues de licenciements cette année, totalisant plus de dix mille suppressions de postes. D’un côté, tous utilisent Claude Code pour augmenter leur consommation de tokens, et de l’autre, ils licencient en masse.
Ces deux phénomènes ne sont pas contradictoires, ils sont deux faces d’une même pièce.
J’ai visité une startup en série C, dont le responsable technique m’a montré Slack : tous les agents tournent, une dizaine de Cursor en parallèle, et un autre Claude Code est utilisé pour la gestion. La préoccupation principale des programmeurs aujourd’hui : avant de dormir, ils doivent savoir ce que leurs agents vont faire, sinon ils paniquent.
Mais la productivité a-t-elle vraiment augmenté de 100 fois ? Depuis la fin de l’année dernière, de nombreux CTO de sociétés de recherche et de bases de données très avancées m’ont confié : « Cent fois plus efficace », « dix fois plus productif ». Autrefois, 60 personnes pouvaient faire en un an ce qu’on fait maintenant en une semaine avec deux personnes et Claude Code.
Je partageais leur enthousiasme, mais j’ai fini par me calmer et poser une question : d’accord, la productivité a été multipliée par 100, mais le chiffre d’affaires de l’entreprise a-t-il aussi augmenté de 100 ? Ou la gamme de produits a-t-elle été multipliée par 100 ? On ne peut pas simplement dire que « 100 fois » d’amélioration signifie qu’on a réduit le personnel.
Je n’ai pas obtenu de réponse claire. En réalité, une amélioration de 100 fois de la productivité ne se traduit dans le chiffre d’affaires qu’à 50 % ou à un seul facteur.
Où est la différence ? Personne ne peut encore l’expliquer.
« Avec autant de tokens consommés, l’entreprise devrait muter génétiquement. Mais je ne sais pas en quoi. »
Un fondateur issu de la vente B2B m’a dit que son équipe de 16 personnes, avec deux commerciaux, a atteint 30 millions de dollars d’ARR en 12 mois, uniquement grâce à l’IA pour coder. Ce genre de cas existe, mais la majorité des startups que je vois ont créé plus de choses, sans pour autant atteindre le product-market fit.
La Silicon Valley aime maintenant expérimenter 100 approches différentes avec le vibe coding, pour voir laquelle fonctionne, plutôt que d’en tester 10. Mais qui pourra saisir la prochaine tendance ? C’est encore très incertain.
Un contre-exemple marquant vient d’Anthropic. J’ai demandé à un ami d’Anthropic : « Quel est le scénario le plus pénible pour vous avec un agent ? » Il a répondu : « La gestion des incidents (oncall). »
Une tâche typique d’oncall est : si l’API de Claude devient soudainement plus lente, si un nœud de raisonnement échoue, ou si un prompt produit une sortie anormale, l’ingénieur oncall doit rapidement localiser la cause, déterminer s’il s’agit d’un bug, d’un problème de capacité ou d’un défaut du modèle, puis décider comment réparer.
Anthropic est la meilleure entreprise au monde pour la création d’agents de codage, et ce scénario touche leur cœur de métier. Pourtant, leur agent oncall est encore peu pratique.
C’est l’état réel en avril 2026 : la machine à vapeur a été inventée, mais elle ne fonctionne parfois pas plus vite qu’une carriole. La clé, c’est que tout le monde sait que la machine à vapeur finira par aller plus vite, alors tout le monde dépense follement : sécurité du code abandonnée, budget tokens explosé, classements en folie. Mais quand la vapeur pourra vraiment dépasser la carriole ? Personne ne le sait, mais personne n’ose s’arrêter en attendant ce jour.
Car le coût d’arrêt pourrait être supérieur à celui de brûler des tokens en erreur.
De plus, la consommation de tokens n’augmente probablement pas de façon linéaire. Cela me rappelle mon expérience dans la conduite autonome : en 2021, à Shanghai, nous avons réalisé 5 heures consécutives de conduite autonome sans intervention humaine. C’était une avancée majeure. Avant, le parc de test comptait 10, 15, 20 véhicules, qui augmentaient lentement ; après ce point, on est rapidement passé à 100, puis 1000 véhicules. Aujourd’hui, les agents de codage sont dans une phase similaire.
En 2021, à Shanghai, la conduite autonome de Didi a réalisé 5 heures consécutives sans intervention, un jalon pour la Chine. La photo montre le COO de Didi Autonomous Driving, Meng Xing, en conversation avec Sebastian Thrun, « père de la voiture autonome » chez Google, en 2021.
METR est un institut de recherche californien spécialisé dans l’évaluation des capacités de codage de l’IA. L’année dernière, ils ont proposé un indicateur : mesurer combien de tâches un agent IA peut réaliser avec 50 % de succès (en se basant sur le temps nécessaire à un expert humain). En mars 2025, lors de la première publication, ce chiffre pour Claude 3.7 Sonnet était de 50 minutes ; à la fin 2025, Claude Opus 4.6 a atteint 14,5 heures. En deux ans, la période de doublement de cet indicateur est passée de 7 à 4 mois. Si la fiabilité de l’agent progresse d’un cran, la consommation de tokens ne sera plus un problème annuel de 50 %, mais un saut d’un ordre de grandeur en une nuit.
Une prévision largement acceptée : d’ici la fin de cette année, de nombreuses entreprises (y compris de grands groupes technologiques) n’auront besoin que de 20 % de leurs employés.
L’effondrement de l’équipe xAI, et la montée des fabricants de modèles
Dans un steakhouse de Mountain View, vers 21 heures, un ami qui a travaillé longtemps avec Elon Musk s’est assis en face de moi. Après plus de trois heures de discussion, je me rends compte qu’il n’a pas dit un mot en faveur de Musk.
Un détail : je lui ai demandé comment se passait sa routine chez xAI, après trois ans. Il m’a répondu qu’il vivait presque à l’entreprise, qu’il n’avait pas vraiment aménagé sa maison, même pas acheté de lit. Il dormait dans un sleeping pod, comme dans une auberge de jeunesse. Je lui ai dit qu’avec ses actions importantes, il aurait pu acheter un lit. Il a souri.
Le travail chez xAI est notoirement intense en Silicon Valley, mais aujourd’hui, environ 90 % de l’équipe initiale a quitté. Ils ont un groupe de départ, où ils ajoutent constamment de nouveaux membres.
Le déclencheur a été le licenciement de Tony Wu, qui a provoqué une réaction en chaîne. Selon un insider, « d’autres entreprises auraient mis six mois à évacuer leur équipe de direction, mais chez xAI, cela n’a pris qu’un mois ». Certains avaient déjà perçu l’insatisfaction de Musk en octobre dernier, mais personne ne s’attendait à un nettoyage aussi rapide.
Aujourd’hui, Musk déplace des personnels de SpaceX et Tesla pour prendre en main xAI : « Les gens qui fabriquaient des fusées commencent à fabriquer des modèles. »
L’insatisfaction de Musk vient du fait qu’il a investi énormément de fonds et de puissance de calcul, mais que Grok n’a pas encore réussi à entrer dans le top. Pourquoi ? C’est la question que tout le monde se pose quand un nouveau venu chez xAI arrive. La réponse est plus simple qu’on ne le pense : l’équipe est très compétitive, travaille dur, mais la gestion industrielle, qui fonctionne dans l’aérospatiale ou l’automobile, ne convient pas forcément aux grands modèles.
J’ai passé huit ans dans la conduite autonome, et j’ai quelques impressions. Musk, avec SpaceX et Tesla, fait essentiellement de l’ingénierie systémique : une chaîne longue, impliquant logiciel, hardware, chaîne d’approvisionnement, avec beaucoup d’innovation. Mais c’est un problème d’ingénierie de bout en bout.
Il excelle à repérer les leviers clés dans cette longue chaîne, puis à comprimer au maximum les délais pour atteindre ses objectifs. La cascade de moteurs de fusée, la réutilisation, l’atterrissage, tout cela en découle.
Mais chez xAI, ce n’est pas de l’ingénierie systémique. Il fait trois choses : d’abord, il investit dans le plus gros cluster GPU mondial (au point que certains plaisantent en disant que xAI, qui était un « neo lab », ressemble maintenant à un « neo cloud », fournissant de la puissance à Cursor), puis il fixe des deadlines pulsées, et enfin, il personnalise certains produits. C’est une approche par points, pas une planification globale.
Les spécialistes de la conduite autonome savent qu’en phase avancée, la décision sur « qui dirige » entre logiciel, infrastructure et hardware devient un vrai problème. Il faut des décideurs de niveau CTO pour chaque domaine, mais personne ne maîtrise tout. La bonne pratique est que le fondateur, même s’il ne connaît pas tout, doit savoir équilibrer les ressources, définir des priorités par étape : logiciel d’abord, puis infrastructure. C’est une planification globale.
Le problème chez xAI, c’est l’absence de cette planification : ils ne font que des sprints. Si la pression était moins forte, des cerveaux intelligents pourraient s’auto-corriger, prendre le temps de s’organiser, et chaque domaine trouverait son rythme. Mais la gestion ultra-pressante de Musk, combinée à l’absence de planification globale, désorganise tout. Les responsables de chaque domaine défendent leurs priorités, sans coordination globale.
La réussite de SpaceX et Tesla repose aussi sur un point souvent oublié : dans ces deux industries, Musk n’a pas rencontré de concurrents de taille équivalente. Il se bat contre lui-même. Mais dans l’IA, c’est différent. La compétition est féroce, et même OpenAI pourrait être débauché par Anthropic.
Un cofondateur de xAI a dit l’année dernière : « Deux choses m’ont surpris : d’abord, la brutalité de la compétition ; ensuite, le peu d’opportunités d’innovation applicative dans l’ère de l’IA, tout étant déjà mangé par les modèles. »
L’ascension d’Anthropic représente la plus spectaculaire inversion dans l’industrie de l’IA cette année. Elle a aussi changé la donne : il y a un an, on se battait pour le nombre d’utilisateurs en B2C ou la génération vidéo, maintenant (temporairement) la bataille se joue en B2B et en codage.
Bien sûr, l’histoire de xAI est aussi celle de « l’argent qui arrive trop vite, trop abondamment ».
Je pense que les amis qui quittent xAI aujourd’hui ne regretteront pas leur décision. xAI est devenue la légende la plus rapide de la Silicon Valley pour faire fortune. En un an, elle a levé des dizaines de milliards de dollars lors de sa première levée, puis fusionné avec SpaceX pour atteindre une valorisation de 2500 milliards de dollars. Et ses 9 cofondateurs sont presque tous devenus milliardaires, avec des ingénieurs clés touchant plusieurs dizaines de millions à un milliard de dollars. L’argent coule à flots dans la Silicon Valley. S’ils relancent une startup, ils auront tous les moyens de poursuivre leurs passions, plutôt que de chercher à faire vite de l’argent.
Les ingénieurs anxieux, encore plus ceux qui font de la recherche
Discuter avec des ingénieurs, c’est comme partager une étrange connivence : tout le monde admet qu’il ne code presque plus, mais ils font semblant que ce n’est pas grave, car ils seront bientôt armés par l’IA, et pourront éliminer ceux qui n’ont pas encore adopté l’IA.
Aujourd’hui, 80 % des compétences clés des développeurs sont remplacées par des modèles, et ceux qui restent le font parce que ces modèles se trompent parfois, et qu’il faut surveiller. Mais cette surveillance pourrait bientôt ne plus être nécessaire.
Une idée plus radicale : ce qu’on appelle aujourd’hui une « organisation native IA » a l’air très sexy — faire que chaque département rationalise ses flux de travail, digitalise les tâches pouvant être automatisées par l’IA, et en fasse des compétences. Mais en réalité, c’est une distillation humaine de soi-même : transformer ses capacités en compétences pour la machine, que l’entreprise possède, ce qui revient à une IA intégrée. La question morale est : faut-il licencier ? Aujourd’hui, Meta le fait.
Même si tout le monde se bat pour maximiser les tokens, on sent une anxiété profonde qui traverse toute la Silicon Valley.
Ce qui m’a encore plus surpris, c’est que cette anxiété se propage aussi chez les chercheurs.
Les chercheurs sont la crème de la crème. Ce ne sont pas tous les « chercheurs » en général, mais ceux qui, dans les grandes entreprises d’IA (OpenAI, Anthropic, DeepMind, etc.), conçoivent les modèles, innovent en algorithmes. La différence avec les ingénieurs, c’est que : les ingénieurs « construisent » — ils codent, déploient, optimisent ; les chercheurs « imaginent » — ils proposent de nouvelles méthodes d’entraînement, conçoivent des architectures, mènent des expériences pour tester des hypothèses.
Et maintenant, même leur travail est en train d’être automatisé. C’est ce que font certains collègues de DeepMind, qui entraînent des modèles avec d’autres modèles, dans une logique d’auto-évolution de l’IA, qui fait fureur cette année. Ce qui est en train d’être éliminé, ce sont d’abord les ingénieurs, et d’ici la fin de l’année, les chercheurs seront aussi concernés.
Ce n’est pas une idée nouvelle. Andrej Karpathy a lancé l’auto-recherche (auto research), et aujourd’hui, divers outils et frameworks pour scientifiques de l’IA suivent cette tendance. Mais la plupart de ces systèmes ne vont jusqu’à « publier un papier » — l’IA vous aide à faire des expériences et à rédiger des articles, mais l’humain reste juge.
Les entreprises comme OpenAI, Anthropic, Google veulent aller plus loin : faire que la boucle soit entièrement automatisée, jusqu’à la mise à jour du modèle lui-même, pas seulement en améliorant les détails, mais en laissant l’IA trouver la prochaine grande rupture. Si cela fonctionne, ce sera une véritable substitution du chercheur. Il y a plus d’un an, Google DeepMind expérimentait déjà cela : laisser le modèle décider de la prochaine expérience à faire, l’évaluer lui-même, puis suivre la voie la plus prometteuse. C’est la prochaine étape de l’auto-entraînement.
Et les chercheurs ont aussi une motivation à se faire licencier : leur coût. La recherche coûte cher. La plupart des chercheurs dans le monde ne sont que quelques milliers, avec des salaires allant de plusieurs centaines de milliers à plusieurs millions de dollars par an.
« À l’avenir, 10 personnes feront le travail de 100, en gagnant 20 % du salaire, et 90 % seront au chômage. »
Et les licenciements seront plus importants que ce que les chiffres laissent penser. La première vague de suppression concerne souvent les sous-traitants. Cela signifie que l’Inde, les Philippines, qui ont longtemps fourni le support client, la labellisation de données ou la gestion financière pour l’Occident, seront parmi les premières touchées. La « marche vers la croissance » par le secteur des services, qui a permis à certains pays en développement de monter en gamme, pourrait être en train d’être dévorée par l’IA.
Tout le monde regarde Meta. Si cette expérience réussit — si ses revenus ne chutent pas, et si l’efficacité augmente vraiment — les autres grands groupes suivront rapidement, et les licenciements deviendront la norme dans l’industrie. La mécanique d’auto-accélération est brutale : au début, personne n’ose licencier, de peur de démoraliser. Mais une fois la tendance enclenchée, ça s’accélère, et on ne regrette plus.
Mais en même temps, de nouveaux postes apparaissent.
De nombreuses startups recrutent un nouveau rôle : « AI builder » — un profil combinant chef de produit, développeur front-end et back-end. D’autres fusionnent data scientist et ingénieur ML, ou encore créent des profils hybrides pour la création de contenu, la publicité et l’opération.
La demande pour ces nouveaux rôles dans la Silicon Valley est très forte, mais le problème principal, c’est qu’on ne sait pas comment les recruter. On ne peut pas se fier aux CV, car ces profils n’existent pas encore, et leurs compétences sont souvent cachées dans leurs projets personnels. On ne peut pas non plus tester leurs compétences en codant en direct, car leur capacité clé est « esthétique + utilisation de l’IA ». Certaines startups ont déjà commencé à faire cela : générer automatiquement un environnement simulé selon les besoins de l’employeur, et faire passer un test en situation réelle avec des outils IA. C’est comme un test de codage, mais pour une compétence totalement nouvelle.
Quand l’IA pourra tout faire, la valeur humaine ne sera plus « ce que je sais faire », mais « ce que je pense qu’il faut faire ou ne pas faire ».
Deux valorisations pour une levée, Nvidia doit miser à chaque « table »
Après tout ce qui a été dit sur ceux qui sont remplacés — ingénieurs, chercheurs, financiers — il y a un rôle qui n’a pas été touché, et qui devient même de plus en plus comme un patron occulte dans cette redistribution.
Ce monde de l’innovation distribuée est en réalité très centralisé.
Ce centre, c’est Nvidia.
Je pensais que la rareté des cartes avait été atténuée l’année dernière. En partie, oui. En milieu 2025, certains « neo cloud » soutenus par Nvidia — ces nouveaux fournisseurs de GPU dans la vague IA — ont rencontré des difficultés de financement, leur croissance a ralenti, et quelques entreprises ont même été vendues. Mais cette fois, je constate que la rareté est revenue, et de façon encore plus extrême.
Un signe concret : si vous pouvez fournir une API stable, comme celle de Claude, avec une disponibilité au 99e percentile, vous pouvez vendre votre API deux à trois fois le prix officiel.
Après la forte demande d’Anthropic, les interruptions d’API se multiplient, ce qui pose problème pour beaucoup de produits agents basés sur Claude.
Autrefois, faire du routage (routing) consistait à être moins cher que l’officiel pour attirer du trafic. Maintenant, la stabilité devient une ressource rare. Plusieurs startups ont déjà gagné beaucoup d’argent avec cela, et des versions miniatures de Coreweave ou Nebius émergent comme des champignons après la pluie.
Et cette fois, le goulot d’étranglement n’est pas seulement la distribution des GPU. Elad Gil a récemment écrit une réflexion que je partage : la capacité des fabricants de mémoire (Hynix, Samsung, Micron) doit encore s’étendre au moins deux ans. Cela signifie qu’avant 2028, aucune entreprise d’IA ne pourra significativement différencier ses performances par la puissance de calcul. La contrainte physique renforce la concentration du marché des grands modèles — ce n’est pas un manque d’effort, c’est la lenteur du cycle de fabrication.
La structure de pouvoir derrière est claire : celui qui possède des cartes est puissant, et c’est Nvidia qui décide de leur distribution. Aujourd’hui, les entreprises cotées comme CoreWeave, Lambda, Nebius dépendent toutes de Nvidia.
La stratégie de Nvidia est plus profonde que ce que je pensais. Selon un investisseur de Reflection, cette neo lab qui a levé ses premiers fonds en se concentrant sur le codage, a été approchée par Huang Renxun (CEO de Nvidia). Huang lui aurait dit : « Ne faites pas de codage, faites plutôt « l’Open Source Model américain » — je vous finance pour faire des modèles open source américains, je vous donne des cartes. » Reflection a alors changé radicalement de cap.
Le marché financier américain a aussi connu des structures inhabituelles : lors d’une même levée, deux valorisations différentes sont proposées. Les investisseurs proches de la startup, ou ayant investi tôt, optent pour une valorisation basse ; les grands acteurs comme Nvidia, qui ont beaucoup d’argent, se positionnent sur la valorisation haute. Ce phénomène commence aussi à apparaître en Chine.
Mais aussi puissantes soient-elles, Nvidia ne peut pas tout contrôler. La rareté des ressources est une réalité physique.
L’opposition contre les centres de données s’intensifie dans tout le pays. En ce moment, une centaine de projets de data centers sont bloqués, dont 40 sont carrément abandonnés. Le Maine a adopté une loi interdisant la construction de nouveaux data centers. Une ville a approuvé un projet de 6 milliards de dollars, mais la moitié des membres ont été démis de leurs fonctions par vote nocturne, et les nouveaux élus ont pour seul objectif d’annuler cette décision.
Le manque de capacité n’est pas dû à une insuffisance de produits ou d’utilisateurs, mais à l’incapacité du monde physique à suivre la cadence du numérique.
C’est une autre forme de « décalage ».
Le système de valorisation de la Silicon Valley est en train d’être réécrit
Commençons par un chiffre.
Le PIB américain est d’environ 30 000 milliards de dollars. OpenAI et Anthropic génèrent chacune un chiffre d’affaires annuel d’environ 30 milliards, ce qui représente 0,1 % du PIB américain. Si d’ici la fin de l’année, leur chiffre d’affaires atteint 100 milliards, et en ajoutant les revenus du cloud et autres, l’IA représenterait environ 1 % du PIB américain. En quelques années, cette part est passée de presque zéro à 1 %.
Ce rythme est sans précédent. Mais, de façon étrange, plus la croissance est rapide, plus les investisseurs ont du mal à fixer une valorisation — le cadre de valorisation de la Silicon Valley s’effondre face à cette croissance.
J’ai discuté plusieurs fois avec des amis du marché secondaire, et un terme revient souvent : « ré-rationalisation » (re-rationalization).
Ces dernières années, pour l’IA, la logique de valorisation était basée sur les flux de trésorerie futurs : peu importe si l’entreprise perdait de l’argent aujourd’hui, on pariait sur ses revenus futurs dans 3 ou 5 ans. Mais ce modèle est en train de se fissurer.
Le problème vient du modèle de valorisation le plus fondamental, le DCF (discounted cash flow). En pratique, on prévoit les flux de trésorerie sur 10 ans, puis on calcule une valeur terminale, en supposant que l’entreprise continuera à fonctionner de façon stable. La valeur terminale représente généralement 70 à 80 % de la valorisation totale.
Mais deux choses ont changé : d’abord, on ne peut plus prévoir 10 ans, mais seulement 3, voire 1, car après cela, l’industrie pourrait changer radicalement ; ensuite, la valeur terminale devient impossible à estimer, car la stabilité supposée n’est plus garantie si l’IA peut tout bouleverser à tout moment. La stabilité n’est plus une hypothèse fiable.
Un ami qui fait de l’investissement secondaire m’a donné une métaphore : les entreprises qui ne sont pas dans la voie principale de l’IA ressemblent à une « bombe nucléaire » prête à exploser, dont on sait qu’elle finira par tout bouleverser, mais on ne sait pas quand. La question n’est plus « que se passerait-il si je ne suis pas bouleversé », mais « à quelle vitesse je peux réagir si je le suis ». C’est une toute autre logique de valorisation.
SaaS a été la première industrie à être réévaluée par Wall Street. En 2023, selon le flux de trésorerie disponible, il fallait près de 100 ans pour rentabiliser Snowflake. Aujourd’hui, sa valorisation a été divisée par deux. ServiceNow, Workday suivent la même tendance. Ce n’est que le début.
Inversement, seules les grandes entreprises de grands modèles pourraient encore être évaluées par DCF, car leur croissance future semble plus stable, moins sujette à la disruption. Elles ne seront pas « détruites », mais plutôt limitées par la physique du monde.
Les startups qui recrutent aujourd’hui disent : « salaire un peu plus bas, mais options, qui vaudront beaucoup dans 15-20 ans ». Mais si cette hypothèse n’est plus valable, la réaction la plus rationnelle des employés sera : « Ne me donnez plus d’options, donnez-moi du cash. »
Cela pourrait aussi modifier la structure des coûts et la logique de financement des entreprises.
Les VC aussi souffrent. Au cours des 3 à 6 derniers mois, presque tous les fonds de la Silicon Valley ont investi dans au moins une neo lab. Ces chercheurs issus de grands laboratoires d’IA ont levé plusieurs milliards de dollars avec leurs idées. Mais aujourd’hui, tout le monde pense que c’était peut-être un peu impulsif, un peu cher. Pourquoi ont-ils investi ? Parce que si la startup réussit, sa croissance sera si forte qu’on aura l’impression que la valorisation initiale était bon marché.
Un investisseur m’a dit franchement : « Soit ça passe de zéro à 100, soit ça échoue complètement. Plutôt que de faire un investissement cher en A, autant tenter la chance avec une neo lab qui a un potentiel infini. »
Autrefois, on pensait qu’1 dollar de ARR valait 1 dollar, que ce soit pour un modèle, une application ou une infrastructure. Mais cette équation est en train d’être brisée.
Les agents verticaux ont un multiple d’environ 5, ceux généralistes autour de 10, et les modèles, comme Anthropic, peuvent atteindre 20-30 fois l’ARR (par exemple, Anthropic 30 milliards de dollars d’ARR, 800 milliards de dollars de valorisation, soit 26,7 fois). Il y a un an, je pensais qu’on pouvait simplement appliquer un multiple unique à l’ARR pour estimer la valorisation, mais aujourd’hui, cette méthode est totalement obsolète.
L’orange amère et la liste noire de l’IA
La Silicon Valley traverse une crise profonde de confiance.
Lors de ce voyage, j’ai entendu à plusieurs reprises la même discussion : acheter du Bitcoin, construire des bunkers, installer des vitres pare-baille chez soi. Ce n’est pas une blague.
Récemment, la Silicon Valley s’est mise à cultiver des « orange amère » (citronnier épineux), car ses branches portent des épines de 4 pouces, et toute tentative de franchir la barrière coûte cher.
Le Wall Street Journal a même rapporté une « forteresse » à 15 millions de dollars : un jardin en béton avec des branches d’orange amère, un fossé derrière, un système de détection laser, une porte blindée de 3 pouces d’épaisseur avec 13 verrous, une salle de refuge sécurisée de 2000 livres, et un aménagement paysager conçu comme une forteresse.
Les entreprises de sécurité résidentielle pour PDG ont connu leur croissance la plus forte depuis 2003. Après l’assassinat du PDG d’UnH, dans la rue de Manhattan, cette tendance s’est accélérée.
Et maintenant, le tir a atteint la porte des grands de l’IA.
Dans la nuit du 11 avril, un jeune de 20 ans, portant un sweat Champion, a volé du Texas à la Californie, avec une bonbonne d’essence, et s’est posté devant la maison de Sam Altman, d’une valeur de 27 millions de dollars, pour y lancer une bombe incendiaire.
Une heure et demie plus tard, il s’est présenté au siège d’OpenAI, a brisé une vitre avec une chaise, et a crié : « Je vais tout brûler ici, tuer tout le monde à l’intérieur. »
Le FBI a retrouvé un document sur lui, intitulé « Dernier avertissement ». Il y avait les noms et adresses de plusieurs PDG et investisseurs en IA.
Deux jours plus tard, dans la nuit du dimanche, la maison d’Altman a été de nouveau attaquée : une Honda s’est arrêtée devant, un bras a sorti une arme, et a tiré sur la maison avant de s’enfuir.
Ce n’est pas un incident isolé. Fin mars, une grande manifestation anti-IA a eu lieu dans le centre de San Francisco, avec des pancartes « Stop the AI Race » (Arrêtez la course à l’IA) et « Don’t Build Skynet » (Ne construisez pas Skynet), devant les bureaux d’Anthropic, OpenAI et xAI. Le sénateur Bernie Sanders a averti au Congrès : « L’humanité pourrait vraiment perdre le contrôle de cette planète. »
En discutant avec des amis de xAI, j’ai appris que Musk est aussi très inquiet d’être victime d’une attaque armée, ce qui est un secret ouvert dans le cercle.
La peur derrière tout cela est simple : si l’IA contrôle la majorité de la production, l’humain ne sera plus nécessaire pour faire tourner l’économie. La société basée sur « combien tu contribues » et « combien tu mérites » s’effondrera. Il ne restera qu’une structure de pouvoir minimale : celui qui contrôle les GPU et l’électricité, contrôle tout. La hiérarchie ne sera pas élargie, mais aplatie : d’un côté, une minorité, de l’autre, tous les autres.
Dans deux ans, lors de la prochaine élection américaine, le sujet le plus brûlant sera la relation entre l’IA et la société. Il pourrait même y avoir un mouvement de type Luddisme dans l’ère de l’IA.
L’inflation aux États-Unis reste élevée. Ayant vécu longtemps en Californie, je n’ai jamais vu un prix de l’essence à 7 dollars. Fin février, Citrini a publié un rapport « Global Intelligence Crisis » (Crise mondiale de l’intelligence artificielle), qui imagine une crise économique en 2028, causée par le succès excessif de l’IA…
Épilogue
Dans l’avion pour Pékin, en feuilletant mes notes de ces deux dernières semaines, je me rends compte que je n’ai écrit qu’un seul mot : « impossible à suivre ».
YC ne suit pas, la sécurité du code de Meta ne suit pas, la gestion de xAI ne suit pas, les chercheurs ne suivent pas, la capacité de calcul ne suit pas, le cadre de valorisation ne suit pas, la résilience psychologique de la société ne suit pas… Au point que la Silicon Valley ne suit même plus elle-même.
Mais je veux finir en citant une phrase d’un ami d’Anthropic, Dario Amodei, qui aurait dit en interne : « Avec l’aide de l’IA, le cancer a en quelque sorte été vaincu. Pas qu’il ait disparu, mais il pourrait devenir une maladie chronique non mortelle, à condition que le coût du traitement baisse. »
Je ne sais pas si cette déclaration est trop optimiste, mais ce que nous voyons le plus dans la Silicon Valley, c’est l’essor de l’IA pour la santé et la biotech. Beaucoup de grandes entreprises de modèles ne connaissent pas la médecine, mais veulent utiliser l’IA pour transformer ce secteur.
Ces deux semaines m’ont montré à quel point tout va vite, et cela peut vraiment faire peur. Mais si l’IA peut, en quelques années, transformer le cancer en maladie chronique ou accélérer la science