Un juge fédéral américain à San Francisco a temporairement bloqué la désignation par le Pentagone de la société d’IA Anthropic comme un risque pour la chaîne d’approvisionnement, interrompant une directive ordonnant aux agences fédérales de cesser d’utiliser son chatbot Claude. La juge Rita Lin a statué que les actions du gouvernement semblaient arbitraires et potentiellement retaliatrices, affirmant qu’il n’y avait aucune base légale pour qualifier une entreprise américaine de menace pour la sécurité nationale simplement parce qu’elle désapprouvait la politique gouvernementale.



Le différend a commencé après l’échec des négociations concernant un contrat avec le Pentagone qui aurait permis une utilisation militaire de l’IA d’Anthropic sans restrictions. Anthropic s’est opposée à l’utilisation de sa technologie pour des armes autonomes létales et une surveillance domestique de masse, ce qui a incité l’administration à envisager une interdiction à l’échelle du gouvernement. L’injonction du tribunal permet à Anthropic de continuer à opérer avec les agences fédérales pendant que le procès se poursuit.
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Contient du contenu généré par l'IA
  • Récompense
  • 1
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
DONMADOLLARvip
· Il y a 1h
2026 GOGOGO 👊
Répondre0
  • Épingler