🔥 WCTC S8 全球交易賽正式開賽!
8,000,000 USDT 超級獎池解鎖開啟
🏆 團隊賽:上半場正式開啟,預報名階段 5,500+ 戰隊現已集結
交易量收益額雙重比拼,解鎖上半場 1,800,000 USDT 獎池
🏆 個人賽:現貨、合約、TradFi、ETF、閃兌、跟單齊上陣
全場交易量比拼,瓜分 2,000,000 USDT 獎池
🏆 王者 PK 賽:零門檻參與,實時匹配享受戰鬥快感
收益率即時 PK,瓜分 1,600,000 USDT 獎池
活動時間:2026 年 4 月 23 日 16:00:00 - 2026 年 5 月 20 日 15:59:59 UTC+8
⬇️ 立即參與:https://www.gate.com/competition/wctc-s8
#WCTCS8
我剛注意到關於山姆·奧特曼以及他與OpenAI所做事情之間的有趣細節
他公開說的話與幕後所做的事之間的矛盾並不普通
讓我們從最近在舊金山發生的事件開始,4月10日大約凌晨3:40,一名20歲男子丹尼爾·莫雷諾-卡馬向奧特曼的公寓門投擲燃燒彈,火焰燒毀了門口,然後他逃走了。
大約一小時後,同一個人出現在OpenAI辦公室附近,威脅要點火,隨後被逮捕。
兩天後,即4月12日凌晨1:40,一輛本田車停在奧特曼另一棟房子旁的山坡上,乘客伸出手向房子開火。
監控錄像記錄了車牌號碼,之後逮捕了兩名嫌疑人,兩人都被控以過失射擊罪。
有趣的是,對第一次攻擊的嫌疑人莫雷諾-卡馬,是一個對高階AI感到擔憂的人。
他在社交媒體上寫道,引用《沙丘》的內容,反駁AI失控是人類存續的風險,批評科技領導者冒著人類命運的危險追求“後人類主義”思想。
在第一次攻擊後,奧特曼發表了一篇博客文章,承認反對者的道德立場,並呼籲進行“較少直接和比較性”的公共討論。
他還回應了《紐約客》近期刊載的一篇深度文章,寫道:“我低估了媒體故事的力量和話語的影響。”
兩天後,他的住所再次遭到槍擊。
這件事與一個更大的趨勢相關:2024年12月,聯合健康保險公司CEO在酒店外被槍殺,嫌疑人是一名頂尖大學畢業生,留下批評醫療保險行業的留言。
此案在社交媒體上引發異常反應,許多用戶表達對嫌疑人的同情。
事件之後,企業高管的安全由“特權”轉變為“生存必需品”。
根據《財富》報導,自2023年以來,大型公司高管遭受身體攻擊的比例增加了225%,在標普500公司中,這一比例達到33.8%。
2025年財務報告中,管理層安全支出佔比為23.3%,而2020年為20%。
平均安全支出為13萬美元,比去年增加20%,五年內翻倍。
AI產業成為這一趨勢中最新且最顯著的受益者。
2024年,十大科技公司CEO的安全支出合計超過4500萬美元,
其中,Mark Zuckerberg單獨花費超過2700萬美元,超過Apple、Google及其他四家公司的CEO總和。
NVIDIA的黃仁勳在2025年的支出為350萬美元,比去年增加59%;
Google的Sundar Pichai支出為827萬美元,增長22%。
但AI產業擁有其他產業所沒有的東西:
創始人自己也相信這項技術可能會摧毀文明。
2025年,普伊研究中心調查了來自全球28,333人的意見,結果顯示,只有16%的人對AI感到興奮,34%則表示擔憂。
更令人驚訝的是,受過高等教育和高收入的人群,反而對AI失控更為擔憂。
最近,印第安納波利斯市議員Ron Jibson的家遭到13槍掃射,
8歲的兒子從槍聲中醒來,門上有一張手寫的紙條寫著“禁止建立資料中心”。
FBI介入調查,華盛頓哥倫比亞大學的研究人員指出,資料中心正成為反科技和反政府激進團體的目標。
這種恐懼在產業內並不秘密,但未被公開談論。
奧特曼在2016年在懷俄明州建造了堡壘,與OpenAI成立的年份相同。
他在舞台上說,AI是人類最大的機遇,但同時,他也在積累武器,為民兵做準備。
OpenAI過去五年的核心敘事是強調“存在級別”威脅的嚴重性,
以促使政府重視監管,讓投資者理解風險,並讓產業認識到這場競賽不能失敗。
一句話:“這是人類歷史上最危險的技術”,一旦傳播開來,不僅僅局限於科技界,還會傳遞出去,甚至在某些情況下成為行動的命令。
莫雷諾-卡馬在Instagram上寫道:“指數級進展與不一致的結合,等於生存的風險。”
這一論點源自多份AI安全研究的核心文件,許多都由OpenAI支持或認可。
今年2月27日,OpenAI與美國國防部簽署協議,允許軍方在國防秘密網絡上使用ChatGPT。
同一天,奧特曼表達支持Anthropic限制軍事用途AI的立場。
一天內,卸載ChatGPT的次數激增295%,一星評價增加了775%;
“QuitGPT”運動的參與者累計超過150萬人。
3月21日,約200人在舊金山舉行示威,反對由Anthropic、OpenAI和xAI領導的AI高階技術開發,呼籲三位CEO停止進一步研發。
同時,倫敦也舉行了史上最大規模的反AI示威。
奧特曼的堡壘和安全人員設計來應對兩種不同的風險:
一種來自外部人士,另一種來自他正在建立的事物。
他個人非常重視這兩種風險,但公開場合只承認其中一種。
《紐約客》在第一次攻擊一週內刊載了一篇深度報導,
由兩名記者採訪了超過100名知情人士,主要論點只有兩個詞:“不可信”。
文章引用前OpenAI董事會成員的話,稱奧特曼是“具有反社會人格的人”,並“不受事實約束”。
多位同事描述他反覆改變對AI安全的立場,並在必要時調整權力結構。
在他的貼文中,奧特曼承認自己傾向於避免衝突,
他建立了“AI是存續威脅”的公共敘事,作為籌款和監管談判的工具。
但最終,這個工具失控,轉而反噬,回到他的門前。