*Données dernièrement actualisées : 2026-04-17 06:29 (UTC+8)
Au 2026-04-17 06:29, Anthropic (ANTHROPIC) est coté à €0, avec une capitalisation boursière totale de --, un ratio cours/bénéfices (P/E) de 0,00 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €0 et €0. Le prix actuel est de 0,00 % au-dessus du plus bas de la journée et de 0,00 % en dessous du plus haut de la journée, avec un volume de trading de --. Au cours des 52 dernières semaines, ANTHROPIC a évolué entre €0 et €0, et le prix actuel est à 0,00 % de son plus haut sur 52 semaines.
Statistiques clés de ANTHROPIC
En savoir plus sur Anthropic (ANTHROPIC)
Articles de Gate Learn
Anthropic "coupe" Windsurf, le codage AI devient une "guerre par procuration" entre les géants de l'IA
L'acquisition par OpenAI de la plateforme de programmation IA Windsurf a provoqué un émoi dans l'industrie, tandis que l'arrêt par Anthropic de l'approvisionnement du modèle Claude à Windsurf a intensifié la concurrence sur le marché.
2025-06-11
Les 72 heures de la crise d'identité d'Anthropic
En l’espace de soixante-douze heures, Anthropic a fait face à un ultimatum du Pentagone, à des accusations publiques d’Elon Musk et au retrait de ses propres engagements de sécurité. De son refus de concevoir des armes militaires autonomes à la révision de RSP 3.0 et l’abandon de la ligne rouge « pause training », cette société — reconnue comme un acteur majeur de l’« AI sûre » — doit désormais gérer un écart croissant entre son image de marque et sa réalité opérationnelle. Cet article examine les enjeux politiques, les pressions sur la valorisation et l’effritement du narratif de sécurité qui alimentent cette crise identitaire.
2026-03-05
Fuite du code source de Claude Code : Analyse sectorielle approfondie — Anthropic envisage bien plus qu'un assistant de codage IA
L’incident de fuite du code source de Claude Code révèle qu’il ne s’agit pas seulement d’une erreur d’ingénierie : il constitue aussi une première illustration de la stratégie produit d’Anthropic, qui semble privilégier les opérations en arrière-plan, l’exécution automatisée, la collaboration multi-agents et l’automatisation des autorisations. Cet article propose, sous l’angle de l’industrie, une analyse des axes que pourrait emprunter Anthropic avec Claude Code.
2026-04-02Blogs
Combien de grands modèles de langage d’IA GateRouter a-t-il intégrés ? Dernières données en date d’avril 2026
Au 7 avril 2026, GateRouter a officiellement intégré plus de 20 modèles d’IA de premier plan, couvrant les principaux fournisseurs mondiaux d’IA tels que OpenAI, Anthropic, Google, xAI et DeepSeek.
2026-04-07
Démêler le débat sur l’éthique et la souveraineté dans l’IA : éclairages du secteur sur le refus d’Anthropic face au Département de la Défense
Anthropic, une entreprise spécialisée dans l’intelligence artificielle, a choisi de renoncer à un contrat de 200 millions de dollars plutôt que d’accorder au département de la Défense des États-Unis un accès illimité à ses modèles.
2026-02-28
Les demandes de faillite de FTX augmentent sur les marchés de gré à gré, l'État récupère 7,3 milliards de dollars
La valeur des réclamations pour faillite de FTX augmente à mesure que la bourse récupère des actifs d’une valeur de plus de 7,3 milliards de dollars.
2023-10-10
FAQ de Anthropic (ANTHROPIC)
Quel est le cours de l'action Anthropic (ANTHROPIC) aujourd'hui ?
Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Anthropic (ANTHROPIC) ?
Quel est le ratio cours/bénéfice (P/E) de Anthropic (ANTHROPIC) ? Que signifie-t-il ?
Quelle est la capitalisation boursière de Anthropic (ANTHROPIC) ?
Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Anthropic (ANTHROPIC) ?
Faut-il acheter ou vendre Anthropic (ANTHROPIC) maintenant ?
Quels sont les facteurs pouvant influencer le cours de l’action Anthropic (ANTHROPIC) ?
Comment acheter l'action Anthropic (ANTHROPIC) ?
Avertissement sur les risques
Avertissement
Autres Marchés de Trading
Anthropic (ANTHROPIC) Dernières Actualités
Sequoia Capital lève $7 milliards pour un nouveau fonds piloté par Alfred Lin et Pat Grady
Message de Gate News, 17 avril — Sequoia Capital a levé environ $7 milliards pour un nouveau fonds co-géré par Alfred Lin et Pat Grady, marquant le premier grand cycle de levées de fonds de la société sous leur direction. Le capital est destiné à soutenir de grandes entreprises privées, en particulier des startups d’IA, dont OpenAI et Anthropic, qui nécessitent d’importants investissements dans les infrastructures de calcul. Le fonds de $7 milliards est d’environ deux fois la taille du fonds de 3,4 milliards de dollars que Sequoia a levé en 2022, offrant nettement plus de capital à déployer dans le secteur de l’IA gourmand en investissements. Cette levée de fonds reflète un changement stratégique chez Sequoia. Historiquement, la société a évité de financer des concurrents directs au sein de la même catégorie — en 2020, elle a renoncé à un investissement de $21 millions dans la société de paiements Finix afin d’éviter des conflits avec la société de portefeuille Stripe. Aujourd’hui, Sequoia détient des participations dans des entreprises d’IA concurrentes, notamment OpenAI et xAI (, l’aventure d’IA d’Elon Musk), signalant une nouvelle approche de la construction du portefeuille à l’ère de l’IA.
2026-04-17 01:13Anthropic publie Claude Opus 4.7 avec des garde-fous de cybersécurité
Message de Gate News, 17 avril — Anthropic a annoncé Claude Opus 4.7, un modèle d’IA doté de garde-fous conçus pour bloquer les requêtes de cybersécurité à haut risque. La publication s’appuie sur Claude Opus 4.6, lancé en février, et précède un déploiement plus large des modèles Mythos de classe plus avancés d’Anthropic. Mythos Preview, présenté plus tôt ce mois-ci, reste plus performant que Opus 4.7, mais il n’est actuellement disponible que pour un nombre limité d’entreprises via Project Glasswing, le programme de cybersécurité d’Anthropic. Opus 4.7 apporte d’importantes améliorations aux flux de travail agentiques et aux capacités de vision. Les performances de codage autonome sont passées à 64,3 % sur SWE-bench Pro, un banc d’essai largement utilisé pour des tâches d’ingénierie logicielle, contre 53,4 % dans la version précédente. La gestion d’images prend désormais en charge une résolution supérieure à trois fois, avec une précision de perception visuelle améliorée de 54,5 % à 98,5 % sur des tests standard. Des limitations volontaires en matière de cybersécurité ont été mises en place pendant l’entraînement ; sur CyberGym, un banc d’essai des performances de cybersécurité, Opus 4.7 a obtenu 73,1 %, en dessous des 83,1 % de Mythos Preview. Anthropic a restreint Mythos Preview après des tests effectués avant la mise sur le marché, qui ont révélé des milliers de vulnérabilités présentant une sévérité élevée, y compris une faille dans OpenBSD non détectée depuis 27 ans. Les chercheurs en sécurité menant des recherches sur les vulnérabilités, des tests d’intrusion ou des exercices de red team peuvent s’adresser au Cyber Verification Program d’Anthropic pour un accès défensif sans refus par défaut. Les retours liés aux garde-fous d’Opus 4.7 permettront d’informer les futures publications de modèles.
2026-04-16 04:31Les équipes d’OpenAI, d’Anthropic et de Google s’associent pour lutter contre la distillation des modèles d’IA par des concurrents chinois
Message de Gate News, 16 avril — OpenAI, Anthropic et Google (filiale d’Alphabet) ont commencé à collaborer pour contrer les efforts de concurrents chinois visant à extraire des résultats de modèles d’IA de pointe américains afin de renforcer leurs propres capacités, d’après Bloomberg. Les trois entreprises partagent des informations via le Frontier Model Forum, une organisation professionnelle à but non lucratif cofondée par OpenAI, Anthropic, Google et Microsoft en 2023. L’initiative vise à identifier les tentatives d’extraction de données à visée adversariale qui enfreignent les conditions de service. L’extraction de données désigne des techniques utilisées pour reproduire les performances de modèles d’IA avancés en analysant leurs sorties, permettant aux concurrents de développer des systèmes comparables sans accès direct à une technologie protégée par brevet ou propriété exclusive.
2026-04-15 07:17Anthropic introduit une vérification d’identité pour Claude afin de prévenir les abus et garantir la conformité
Message de Gate News, le 15 avril — Anthropic a déployé un mécanisme de vérification d’identité pour certains cas d’usage de Claude, visant à empêcher les abus, à faire respecter les politiques d’utilisation et à satisfaire aux obligations légales. Le processus est alimenté par Persona et nécessite que les utilisateurs soumettent une pièce d’identité photo délivrée par un gouvernement, avec éventuellement une vérification en direct par selfie. Anthropic a indiqué que les données de vérification sont utilisées uniquement pour confirmer l’identité et ne seront pas utilisées pour l’entraînement du modèle, le marketing ou la publicité. Les utilisateurs qui échouent à la vérification peuvent réessayer plusieurs fois pendant le processus ou soumettre un formulaire pour obtenir une assistance manuelle. Les comptes peuvent être suspendus en cas de violation répétée des politiques d’utilisation ou des conditions de service, d’inscription depuis des régions non prises en charge, ou si l’utilisateur a moins de 18 ans.
2026-04-15 03:51Anthropic s’oppose au projet de loi sur la responsabilité en matière d’IA de l’Illinois soutenu par OpenAI
Message de Gate News, 15 avril — Anthropic s’oppose au projet de loi de l’Illinois SB 3444, soutenu par OpenAI. Le texte protégerait les laboratoires d’IA de toute responsabilité en cas de préjudice de grande ampleur causé par l’utilisation abusive de leurs modèles, à condition qu’ils rédigent et publient leurs propres cadres de sécurité. Des sources au fait du dossier ont indiqué qu’Anthropic avait exhorté le sénateur de l’État Bill Cunningham et d’autres législateurs à modifier le projet de loi ou à l’abandonner. Le bureau du gouverneur JB Pritzker a déclaré qu’il ne soutenait pas l’idée d’accorder un bouclier total à la “big tech” contre la responsabilité. OpenAI a affirmé que la mesure réduirait les risques et soutiendrait une approche harmonisée des règles des États en matière d’IA. Des critiques, dont Thomas Woodside du Secure AI Project, ont fait valoir que le projet de loi pourrait pratiquement éliminer la responsabilité actuelle fondée sur la common law. La semaine dernière, Anthropic a soutenu un projet de loi distinct en Illinois qui exigerait des plans de sécurité publique et des audits menés par des tiers pour les développeurs d’IA de pointe.





































































































































































































































































