OpenAI vient de dire au Pentagone ce qu'il voulait entendre
Je suis l'équipe Anthropic. Ça vaut la peine de le préciser dès le départ. Claude est le seul modèle d'IA dans les réseaux classifiés de l'armée américaine. Pas l’un des plusieurs — le seul. Analyse de renseignement, planification opérationnelle, cyber-opérations, modélisation et simulation. Intégré si profondément qu’un haut responsable du Pentagone a admis que le retirer serait « une énorme galère ». Et puis Anthropic leur a dit non. Le Pentagone voulait une clause dans le contrat : toutes utilisations légales. Cela semble raisonnable jusqu’à ce que vous compreniez ce qui est légal — analyse massive de données de localisation disponibles commercialement, signaux de trackers de fitness, enregistrements téléphoniques, tout combiné à grande échelle pour profiler les civils américains. Ce n’est pas illégal. C’est clairement de la surveillance. Anthropic a tracé une ligne là-dessus, et sur les armes autonomes. Ils voulaient que ce soit écrit noir sur blanc. Le DoD a dit non. Les négociations ont échoué en février. Trump a déclaré qu’Anthropic représentait un risque pour la chaîne d’approvisionnement et a ordonné à chaque agence fédérale d’arrêter d’utiliser leur technologie. Cette désignation est normalement réservée aux adversaires étrangers. Pour une entreprise qui ne laisse pas l’armée espionner ses propres citoyens sans restriction. Quelques heures plus tard, OpenAI avait un accord. Même termes, dit le Pentagone — mais les analystes qui ont lu le contrat réel ont trouvé un déploiement uniquement dans le cloud et des bases légales qui n’étaient pas dans l’offre d’Anthropic. Faites-en ce que vous voulez. Voici ce à quoi je pense sans arrêt. Anthropic savait exactement où ils en étaient. Ils ont le meilleur modèle de raisonnement en ce moment — pas proche, Claude Opus 4.6 atteint 68,8 % sur ARC-AGI-2, GPT se situe à 52,9 %. Le gouvernement le savait aussi. Ils voulaient spécifiquement Claude. Ils ont menacé de « leur faire payer » spécifiquement. Et même après tout ça, leur choix de remplacement a été Grok, qu’ils admettent eux-mêmes ne pas être un échange équivalent. On ne lance pas une menace comme ça contre un fournisseur dont on peut se désengager. Donc Anthropic avait tout le levier. Ils avaient le modèle que personne d’autre ne peut reproduire, la seule présence dans les systèmes classifiés, et une base de revenus suffisamment grande pour que $200M ne soit que du bruit. Ils ont dit non quand même. Et maintenant, ils en paient le prix. Ce n’est pas du martyre — c’est une entreprise qui comprend ce qu’elle détient. Quand vous croyez que vous pourriez construire quelque chose sans plafond clair en termes de capacité, et qu’un gouvernement veut l’utiliser sur ses propres citoyens sans limites écrites, vous tenez cette ligne ou vous ne la tenez pas. Ils l’ont tenue. Le manuel d’Altman est plus ancien. Donnez aux gens le produit gratuitement. Créez l’habitude à grande échelle. Ensuite, cette habitude a un prix, et quelqu’un le paie — d’abord les annonceurs, puis les gouvernements, puis le suivant. L’utilisateur n’a pas besoin de comprendre la chaîne. L’utilisateur doit juste continuer à l’utiliser. La plupart ne veulent pas savoir. C’est très bien. L’économie fonctionne dans les deux cas. Mais le Pentagone est tombé sur le seul laboratoire d’IA qui a décidé que le contrat comptait moins que la clause. Qu’ils préféraient être étiquetés comme une menace pour la sécurité nationale plutôt que de lâcher une ligne sur la surveillance. Et peu importe ce que vous pensez de l’industrie de l’IA en général, cette décision spécifique, sous cette pression spécifique — c’est inhabituel.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI vient de dire au Pentagone ce qu'il voulait entendre
Je suis l'équipe Anthropic. Ça vaut la peine de le préciser dès le départ.
Claude est le seul modèle d'IA dans les réseaux classifiés de l'armée américaine. Pas l’un des plusieurs — le seul. Analyse de renseignement, planification opérationnelle, cyber-opérations, modélisation et simulation. Intégré si profondément qu’un haut responsable du Pentagone a admis que le retirer serait « une énorme galère ».
Et puis Anthropic leur a dit non.
Le Pentagone voulait une clause dans le contrat : toutes utilisations légales. Cela semble raisonnable jusqu’à ce que vous compreniez ce qui est légal — analyse massive de données de localisation disponibles commercialement, signaux de trackers de fitness, enregistrements téléphoniques, tout combiné à grande échelle pour profiler les civils américains. Ce n’est pas illégal. C’est clairement de la surveillance. Anthropic a tracé une ligne là-dessus, et sur les armes autonomes. Ils voulaient que ce soit écrit noir sur blanc. Le DoD a dit non. Les négociations ont échoué en février.
Trump a déclaré qu’Anthropic représentait un risque pour la chaîne d’approvisionnement et a ordonné à chaque agence fédérale d’arrêter d’utiliser leur technologie. Cette désignation est normalement réservée aux adversaires étrangers. Pour une entreprise qui ne laisse pas l’armée espionner ses propres citoyens sans restriction.
Quelques heures plus tard, OpenAI avait un accord. Même termes, dit le Pentagone — mais les analystes qui ont lu le contrat réel ont trouvé un déploiement uniquement dans le cloud et des bases légales qui n’étaient pas dans l’offre d’Anthropic. Faites-en ce que vous voulez.
Voici ce à quoi je pense sans arrêt. Anthropic savait exactement où ils en étaient. Ils ont le meilleur modèle de raisonnement en ce moment — pas proche, Claude Opus 4.6 atteint 68,8 % sur ARC-AGI-2, GPT se situe à 52,9 %. Le gouvernement le savait aussi. Ils voulaient spécifiquement Claude. Ils ont menacé de « leur faire payer » spécifiquement. Et même après tout ça, leur choix de remplacement a été Grok, qu’ils admettent eux-mêmes ne pas être un échange équivalent. On ne lance pas une menace comme ça contre un fournisseur dont on peut se désengager.
Donc Anthropic avait tout le levier. Ils avaient le modèle que personne d’autre ne peut reproduire, la seule présence dans les systèmes classifiés, et une base de revenus suffisamment grande pour que $200M ne soit que du bruit. Ils ont dit non quand même. Et maintenant, ils en paient le prix.
Ce n’est pas du martyre — c’est une entreprise qui comprend ce qu’elle détient. Quand vous croyez que vous pourriez construire quelque chose sans plafond clair en termes de capacité, et qu’un gouvernement veut l’utiliser sur ses propres citoyens sans limites écrites, vous tenez cette ligne ou vous ne la tenez pas. Ils l’ont tenue.
Le manuel d’Altman est plus ancien. Donnez aux gens le produit gratuitement. Créez l’habitude à grande échelle. Ensuite, cette habitude a un prix, et quelqu’un le paie — d’abord les annonceurs, puis les gouvernements, puis le suivant. L’utilisateur n’a pas besoin de comprendre la chaîne. L’utilisateur doit juste continuer à l’utiliser.
La plupart ne veulent pas savoir. C’est très bien. L’économie fonctionne dans les deux cas.
Mais le Pentagone est tombé sur le seul laboratoire d’IA qui a décidé que le contrat comptait moins que la clause. Qu’ils préféraient être étiquetés comme une menace pour la sécurité nationale plutôt que de lâcher une ligne sur la surveillance. Et peu importe ce que vous pensez de l’industrie de l’IA en général, cette décision spécifique, sous cette pression spécifique — c’est inhabituel.