L’actualité IA provenant d’OpenAI cette semaine a un tranchant marqué : la société a lancé une bourse Safety Fellowship rémunérée, offrant des indemnités hebdomadaires de 3 850 dollars à des chercheurs externes étudiant ce qui pourrait mal tourner avec une IA avancée — annoncée dans les heures qui ont suivi une enquête du New Yorker rapportant qu’OpenAI avait dissous ses équipes internes de sécurité et retiré discrètement le mot « safely » de sa déclaration de mission à l’IRS.
Résumé
OpenAI a annoncé la fellowship le 6 avril comme « un programme pilote visant à soutenir la recherche indépendante en matière de sécurité et d’alignement et à développer la prochaine génération de talents ». Le programme verse 3 850 dollars par semaine, soit plus de 200 000 dollars annualisés, plus environ 15 000 dollars de calcul mensuel et de mentorat de la part de chercheurs d’OpenAI. Les fellows travaillent depuis l’espace de travail Berkeley de Constellation ou à distance, et les candidatures se clôturent le 3 mai. La fellowship n’est pas limitée aux spécialistes de l’IA : OpenAI recrute aussi en cybersécurité, en sciences sociales et en interaction homme-machine en plus de l’informatique.
Le timing est l’histoire. L’enquête de Ronan Farrow dans The New Yorker, publiée le même jour, documente qu’OpenAI a dissous trois organisations internes consécutives de sécurité sur une période de 22 mois. L’équipe de superalignement a été arrêtée en mai 2024 après le départ des co-responsables Ilya Sutskever et Jan Leike. Leike a écrit en partant que « la culture et les processus de sécurité ont été relégués au second plan au profit de produits brillants ». L’équipe AGI Readiness a été suivie en octobre 2024. L’équipe Mission Alignment a été dissoute en février 2026, seulement après 16 mois. Le New Yorker a aussi rapporté qu’au moment où un journaliste a demandé à s’entretenir avec des chercheurs en sécurité existentielle d’OpenAI, un représentant de la société a répondu : « Que voulez-vous dire par sécurité existentielle ? Ce n’est pas, comme, une chose. »
La fellowship ne remplace explicitement pas l’infrastructure interne. Les fellows reçoivent des crédits d’API et des ressources de calcul, mais aucun accès aux systèmes, positionnant le programme comme un financement de recherche à distance (arm’s-length) plutôt que comme une reconstruction des équipes dissoutes.
L’agenda de recherche couvre sept domaines prioritaires : l’évaluation de la sécurité, l’éthique, la robustesse, des mesures d’atténuation évolutives, des méthodes de sécurité préservant la confidentialité, la supervision agentique et les domaines de mauvais usages de haute gravité. À la fin du programme en février 2027, chaque fellow doit produire une sortie substantielle — un article, un benchmark ou un dataset. Aucune qualification académique spécifique n’est requise ; OpenAI a déclaré qu’elle accorde la priorité à la capacité de recherche, au jugement technique et à la capacité d’exécution.
Comme crypto.news l’a rapporté, la confiance dans les engagements de sécurité déclarés par les entreprises d’IA de pointe est un signal de marché qui influence l’allocation de capitaux à travers l’infrastructure IA, les jetons IA, et les protocoles DePIN et d’agents IA situés à l’intersection de la crypto et de l’intelligence artificielle. Comme crypto.news l’a noté, la trajectoire de dépenses d’OpenAI et la crédibilité de ses priorités opérationnelles sont suivies de près par les investisseurs qui évaluent le secteur de l’infrastructure IA — un secteur avec un chevauchement croissant avec des systèmes basés sur la blockchain. La question de savoir si des fellows externes, travaillant sans accès interne, peuvent influencer de manière significative le développement des modèles est celle à laquelle les recherches du premier cohort commenceront à répondre au début de 2027.