Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Je viens de remarquer des détails intéressants concernant Sam Altman et ce qu'il fait avec OpenAI. Le conflit entre ce qu'il dit publiquement et ce qu'il fait en coulisses est remarquable.
Commençons par un événement récent à San Francisco, le 10 avril vers 03h40. Un homme de 20 ans nommé Daniel Moreno-Gama a lancé une bombe incendiaire contre la porte de l'appartement d'Altman. Le feu a pris à la porte puis il a fui. Environ une heure plus tard, la même personne est apparue près du bureau d'OpenAI et a menacé de mettre le feu à nouveau, avant d'être arrêtée.
Deux jours plus tard, le 12 avril à 01h40, une Honda stationnée devant une autre maison d'Altman en haut d'une colline. Un passager a tendu la main par la fenêtre et a tiré sur la maison. La vidéosurveillance a enregistré la plaque d'immatriculation. Par la suite, deux suspects ont été arrêtés, tous deux inculpés de tir par négligence.
Ce qui est intéressant, c'est que le suspect de la première attaque, Moreno-Gama, est une personne préoccupée par l'IA avancée. Il a écrit sur les réseaux sociaux, citant Dune, pour argumenter que l'échec à aligner l'IA représente un risque pour l'existence de l'humanité. Il critique les leaders technologiques qui risquent le destin de l'humanité pour poursuivre une idéologie « post-humaniste ».
Après la première attaque, Altman a publié un article de blog, acceptant la position morale des opposants, et appelant à un débat public « moins direct et moins comparatif ». Il a également répondu à un article approfondi du New Yorker publié peu avant l'attaque, écrivant : « J'ai sous-estimé le pouvoir de la narration dans les médias et la faiblesse des mots ». Deux jours plus tard, sa résidence a été à nouveau tirée.
Cela s’inscrit dans une tendance plus large. En décembre 2024, le PDG d’UnitedHealthcare a été tué par balle devant un hôtel. Le suspect était un diplômé d’une université de premier plan, laissant un message critiquant l’industrie de l’assurance santé. L’affaire a suscité une réaction inhabituelle sur les réseaux sociaux, avec de nombreux utilisateurs exprimant leur sympathie pour le suspect.
Après cet incident, la sécurité des dirigeants est passée de « privilège » à « nécessité de survie ». Selon Fortune, les attaques physiques contre les dirigeants de grandes entreprises ont augmenté de 225 % depuis 2023. Dans le S&P 500, 33,8 % des entreprises ont déclaré des dépenses de sécurité pour leurs dirigeants dans leur rapport financier de 2025, contre 23,3 % en 2020.
Le coût moyen de sécurité pour une entreprise s’élève à 130 000 dollars, en hausse de 20 % par rapport à l’année précédente, doublant en cinq ans. L’industrie de l’IA est la dernière à en ressentir l’impact, et de manière la plus visible.
Les dépenses de sécurité des PDG des 10 principales entreprises technologiques en 2024 ont dépassé 45 millions de dollars. Mark Zuckerberg a dépensé plus de 27 millions, dépassant le total combiné des PDG d’Apple, Google et quatre autres. Jensen Huang de NVIDIA a dépensé 3,5 millions en 2025, en hausse de 59 % par rapport à l’année précédente. Sunai Pichai de Google a dépensé 8,27 millions, en hausse de 22 %.
Mais l’industrie de l’IA a quelque chose que d’autres industries n’ont pas : ses créateurs croient aussi que cette technologie pourrait détruire la civilisation. En 2025, le centre de recherche PUI a interrogé 28 333 personnes dans le monde, et seulement 16 % se disaient enthousiasmés par l’IA, tandis que 34 % étaient préoccupés. Ce qui est contre-intuitif, c’est que les personnes ayant un haut niveau d’éducation et de revenus sont plus inquiètes de l’IA qui pourrait devenir incontrôlable.
Récemment, la maison d’un membre du conseil municipal d’Indianapolis, Ron Jibson, a été tirée 13 fois. Son enfant de 8 ans s’est réveillé au bruit des coups de feu. Sur la porte, une note manuscrite disait : « Interdisez les centres de données ». Le FBI est intervenu pour enquêter. Des chercheurs de l’Université de Georgetown ont indiqué que ces centres deviennent la cible de groupes extrémistes anti-technologie et anti-gouvernement.
Cette peur n’est pas un secret dans l’industrie, mais elle n’est pas exprimée ouvertement. Altman a construit un bunker dans le Wyoming en 2016, la même année où OpenAI a été fondée. Au moment où il déclarait sur scène que l’IA était la plus grande opportunité de l’humanité, il préparait en réalité ses armes et se préparait à une force civile.
Le récit principal d’OpenAI ces cinq dernières années a été de souligner la gravité de la menace « existentielle » de l’AGI, pour attirer l’attention des gouvernements sur la régulation, faire comprendre aux investisseurs les risques, et faire prendre conscience à l’industrie que cette compétition est cruciale. La phrase « c’est la technologie la plus dangereuse de l’histoire de l’humanité » a été largement diffusée. Après sa publication, elle ne s’arrêtera pas dans le seul secteur technologique : elle sera relayée et, dans certains cas, deviendra un ordre d’action.
Moreno-Gama a écrit sur Instagram : « La croissance exponentielle combinée à un décalage de cohérence équivaut à un risque pour la survie ». Cette argumentation trouve ses origines dans plusieurs documents fondamentaux en sécurité de l’IA, soutenus ou approuvés par OpenAI.
Le 27 février dernier, OpenAI a signé un contrat avec le ministère de la Défense américain pour permettre à l’armée d’utiliser ChatGPT sur des réseaux classifiés. Le même jour, Altman a exprimé son soutien à la position d’Anthropic, qui limite l’usage militaire de l’IA.
Le désinstallation de ChatGPT a augmenté de 295 % en une journée, avec une augmentation de 775 % des critiques d’une étoile en 24 heures. Le mouvement QuitGPT a rassemblé plus de 1,5 million de participants. Le 21 mars, environ 200 manifestants ont défilé à San Francisco, traversant Anthropic, OpenAI et xAI, demandant aux trois PDG de suspendre le développement d’IA avancée. La même période, Londres a organisé la plus grande marche contre l’IA jamais vue.
Les bunkers et la sécurité d’Altman sont conçus pour faire face à deux types de risques différents : l’un venant de l’extérieur, l’autre de ce qu’il construit lui-même. Il prend ces risques très au sérieux en privé, mais en public, il n’en admet qu’un seul.
Une enquête approfondie du New Yorker, publiée la même semaine que la première attaque, a interviewé plus de 100 témoins. La principale critique se résume à deux mots : « peu crédible ». L’article cite un ancien membre du conseil d’administration d’OpenAI qui qualifie Altman de « personne à la personnalité antisociale » et « non liée à la vérité ». Plusieurs collègues expliquent qu’il a changé d’attitude sur la sécurité de l’IA à plusieurs reprises, et qu’il restructure le pouvoir si nécessaire.
Dans son post, Altman admet qu’il a tendance à éviter les conflits. Il construit une narration publique selon laquelle « l’IA est une menace existentielle » pour mobiliser des fonds et faire avancer la régulation. Mais, en fin de compte, cet outil lui a échappé, a tourné en boucle, puis est revenu frapper à sa porte.