Anthropic 執行長阿莫迪(Dario Amodei)接受「經濟學人」主編貝多斯(Zanny Minton Beddoes)訪談,解釋為何 Anthropic 反對五角大樓的部分合約條款。他認為 Anthropic 的立場不僅是基於民主價值理念,更在於擔憂現有的 AI 模型是否足夠可靠能應用在軍事防禦,以及最終應該由誰來控制它,阿莫迪同時透露出希望與政府有對話空間,商討簽署更明確的 AI 條款。
阿莫迪:Claude 尚未能成為軍事全自動化模型
Anthropic 執行長阿莫迪堅持 Claude 不得用於大規模監控或自主武器後,川普政府下令禁止聯邦機構使用該公司提供的模型工具,如今 Claude 被美國標籤為 AI 風險供應商。阿莫迪表示 Anthropic 的主要模型 Claude 尚未準備好用於全自動軍事應用場景,他認為作為一家私人 AI 供應商,要向政府客戶解釋如何妥善使用模型非易事,但他認為這是有必要的安全措施。
阿莫迪澄清說道,Anthropic 與五角大樓簽訂了一份範圍有限的合同,目前這份合約沒有出現問題,而他們擔心的是未來的使用範圍。軍事全自動化將創造一個 AI 可以控制數百萬架無人機而無需遵循傳統軍事規範的場景,而這個應用範圍如果不限定規範,將會無法控制。
Anthropic 如何證明限制武器使用範圍為合理?
阿莫迪與經濟學人的對話中解釋了限制 Claude 指揮無人機用於全自動武器的原因基於兩點:Claude 可靠性不足和缺乏人類治理監督框架(影片 0:00-0:18,5:48-5:58)。
Claude 可靠性不足:阿莫迪認為 Claude 模型尚不足以支援全自動軍事應用場景,將其比喻為就像是飛機商應該要公佈某些飛行駕駛方式會不安全(影片 0:05-0:49)。
缺乏人類治理監督框架:阿莫迪擔憂缺乏人類規範來管理一支由無人機組成的軍隊,可能會導致一個人就能控制數百萬件武器,而無需承擔傳統的軍事責任(影片5:48-6:55)。
如何處理軍事人工智慧的意見分歧?
阿莫迪透過與經濟學人的對話訪談向川普政府表示希望 Anthropic 與政府能一起以更細緻的方式處理人工智慧應用上的意見分歧,他強調人工智慧供應商和政府應好好討論現有模型的可靠性和治理規範,以應對 AI 可能帶來的風險,阿莫迪認為人工智慧供應商有責任明確說明模型在某些高風險應用上是否有成熟度。
阿莫迪提議先簽訂涵蓋已達成共識用例的有限合約,使雙方能夠在應用擴展到更具爭議性的工作任務前,建立模型操作規範,但當前需要展開討論,以找到一個共識與平衡點,既不能使私營公司權力過大,也不能使政府權力絕對不可挑戰。
Anthropic 之名源自「人類學」,揭示了創辦人阿莫迪的初心:打造一家以人為本的 AI 企業。這份執著,讓他成為少數敢公開向美國政府叫板、並直指中國竊取 Claude 技術的高科技公司執行長。Anthropic 如何在堅持理念與配合國家安全之間取得平衡,將成為 AI 軍事化發展的重要分水嶺。這場關乎技術主權與倫理邊界的僵局如何化解?全球都在看。
這篇文章 Anthropic執行長:Claude不足應用於軍事,期待簽署更明確條款 最早出現於 鏈新聞 ABMedia。