torygreen

vip
幣齡 2.4 年
最高等級 0
用戶暫無簡介
人們談論“AI對齊”時,似乎它純粹是一個倫理問題。
實際上,它是一個激勵問題。
封閉系統會為平台的KPI進行優化,因為這是它們的收入來源。
用戶停留時間長了嗎?
投訴減少了嗎?
互動率提高了嗎?
儀表板上的指標看起來良好嗎?
AI學會了為這些數字進行優化,而不是“對齊”用戶。
DeAI使溯源和驗證成為你獲得報酬的核心。
當輸出、數據血緣和執行證明是原生的時候,“對齊”不再是哲學辯論,而是一份你可以審核的帳單。
DEAI20.98%
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
沒有人提到的關於Claude封鎖API的部分:
拒絕推理 = 權力
如果一個平台可以限制你的使用、熱插拔一個更便宜的檢查點,或將工具設置在政策後面,它就掌控了你的運作節奏。
一個你未同意的配額。
一條你看不到的路線。
一個以延遲和缺失通話顯示的“合規”決策。
而且每個人都把它當作產品變更來看待。
其實不是。
這是在運行時的治理。
我們已經在目睹這一切發生。
今天他們切斷“競爭對手”的訪問。
明天則是“風險”。
所以不,DeAI對我來說不是意識形態。
它是韌性工程。
因為一旦推理成為關鍵基礎設施,你的“供應商”就變成了一個具有兩個調節旋鈕的交易對手:定價 + 許可。
而這些旋鈕只會向一個方向轉動。
DEAI20.98%
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
Claude變得足夠便宜,成為開發工具背後的預設模型,並沒有緩解需求。
反而讓需求激增。
Jevons,即時反映。
使用量持續擴展……直到昨天某些API被列入黑名單。
那才是關鍵時刻。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
“AI建議”聽起來很安全,因為它聽起來像是適合每個人的。
這就是技巧所在。
模型是為中間值調整的:不會讓大多數人在一般情況下受傷的答案。
但沒有人會向中間請教建議。
他們會從邊緣來問:
- 工作邀約 vs 簽證 vs 家庭
- 訴訟 / 離婚 / 監護權
- 一次修復關係的機會
- 健康判斷,“可能沒事”意味著絕對完蛋
所以它會給你類似的建議:
“在大多數情況下,選擇薪水較高的工作。你總可以稍後再搬家給家人。”
通常是對的。
也正是這句話,讓一個可逆的選擇變成了單行道。
因為它不是在問你能承受失去什麼。
它在提供一般有效的方案。
你在閱讀時不會察覺到不匹配。
但當你試圖反轉它時,你就會注意到了。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
OpenAI 正在逐漸走向 AOL 的模式。
贏在早期。
建立圍牆花園。
包裝在「安全」之中。
推出最平淡無奇的版本,避免惹怒任何人。
他們將掌握分發渠道。
然後某天醒來,才發現建造者都已離去。
AOL 並沒有失去網際網路。
它只是不再是網際網路發生的地方。
下一個成為那個地方的是誰?
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
去中心化的人工智慧將在2026年贏得基礎設施之戰。
AI 正在從雲端平台遷移到聯網基礎設施。
推理延遲、成本和審查壓力促使計算向去中心化的GPU網格和鏈上協調轉移。
這不是意識形態的問題,而是架構的問題。
中央雲優化控制。
DeAI 優化可用性和吞吐量。
在大規模運行中,只有其中一個能保持高效。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
2025 年是 AGI 討論的年份。不是因為進展停滯,而是因為「智慧」從未簡化為單一的標量。
實驗室、監管機構和買家可以出貨——但他們無法僅憑感覺來證明、管理或擴展決策。
限制在於驗證:系統是否能在約束條件下重現結果,並具有來源追溯和審計痕跡?
DeAI 基本上就是將這種理念編碼到基礎設施中。這是一種在完全不需要就 AGI 達成共識的情況下前進的方法。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
像 o1 這樣的模型在2025年打破了一個核心假設:推理成本不是固定的。
它們會“思考”直到不確定性消失,即使這很昂貴。
這就是為什麼規範很重要。當推理變得有計量時,誰控制那個計量。
在2026年,控制權轉移到定價、路由和審核大規模思考的人手中。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
計算規模是你可以嘗試的。
評估規模是你可以信任的。
集中式系統優化吞吐量,但在驗證方面投資不足。
分散式系統將驗證推向邊緣,持續進行。
下一個突破不在於更聰明的代理。
而在於使輸出可證明的框架。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
編碼變得「容易」並不是因為它簡單,而是因為驗證成本低廉。
高端工作則恰恰相反:反饋來得較晚,信號混亂,利益相關者評選出贏家。
便宜的評估會放大能力。
昂貴的評估則放大說服力。
「看起來正確」是陷阱。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
大多數人都嚴重低估了高端知識工作的存續時間。
他們從 AI 打擊中階任務的趨勢推斷,並假設曲線會平滑向上延伸。
事實並非如此。
AI 在以下方面表現卓越:
• 模式匹配
• 檢索
• 一階合成
• 流暢度
• 速度
這將大幅取代大量初級和中階的知識工作。
但精英知識工作不僅僅是「更高的智慧」。它是一個完全不同的範疇。
在頂端真正重要的是:
• 選擇正確的問題
• 在目標函數不明確時的框架設定
• 在模糊和資訊不完整的情況下推理
• 長遠思考與二階、三階效應
• 判斷力、品味、敘事連貫性
• 承擔後果,而不僅僅是產出
這正是 AI 受到限制的地方。
不是能力的限制——是推理的限制。
我們持續擴展計算能力、資料和模型,讓它們變得:
• 更快
• 更廣泛
• 更流暢
但推理品質並非線性擴展。
目前的系統仍然難以應對:
• 浅層的世界模型
• 薄弱的因果基礎
• 在分布轉移下的脆弱性
• 當框架改變時崩潰的偽推理
• 在沒有外部支撐下知道自己錯誤的能力
思考鏈、工具和自我反思有幫助——但它們只是修補,而非突破。
因此,你會看到在以下領域出現停滯:
• 新穎的科學洞見
• 對抗策略
• 深層系統設計
• 原創哲學
• 高風險決策
真正的分水嶺不在智慧。
而在判斷力。
判斷力是:
• 知道什麼重要
• 知道什麼不重要
• 知道何時不該行動
• 忽略假精確度
• 在不可避免的不確定性下運作
高端
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
大多數關於人工智慧取代「所有知識工作」的預測都依賴於一個簡單的外推錯誤:
他們將任務執行與判斷混淆。
人們看到AI摧毀中階任務,便假設曲線會持續平滑上升。
但知識工作的頂端並不是中階工作的更難版本,而是完全不同的範疇。
當工作不再是「解決問題」,而變成「選擇正確的問題」時,規則就會顛倒。
模型在有得分板的任務上變得更擅長。
判斷則是選擇得分板,並為失誤付出代價。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
大多數人低估了高端知識工作的存續時間。
他們看到 AI 正在碾壓中階任務,並假設曲線會持續平滑向上。
事實並非如此。
因為「更難的任務」不僅僅是需要更多智商的相同任務。
AI 已經在以下方面展現出精英水平:
1. 模式匹配
2. 檢索
3. 一階合成
4. 流暢度
5. 速度
這些都會抹去大量的初級和中階工作。
任何看起來像是「將輸入轉化為輸出」的工作,都變得廉價、快速且豐富。
但高端知識工作運作在一個不同的範疇。
它不是「產生答案」。
而是「決定下一步該做什麼」。
在頂端,工作不再是執行,而是面對不確定性做出決策——目標不明確、資料不完整、反饋循環緩慢、錯誤代價高昂。
我們所謂的「判斷力」並非神祕。
它是人類執行的一系列具體操作,暗中進行,當前系統仍難以在沒有大量支架的情況下可靠完成:
1. 目標建構——
將模糊的目標轉化為可測試的指標
(「我們在優化什麼?」)
2. 因果建模——
將相關性與因果因素區分開
(「什麼改變了什麼?」)
3. 資訊價值——
決定不去學習某些資訊,因為太慢或太貴
4. 誤差範圍思考——
在範圍內操作,而非點估計
(「我可能錯多遠?」)
5. 可逆性分析——
選擇可以在錯誤時恢復的行動
6. 激勵現實性——
模擬人與制度的反應,而非理想反應
7. 時序與排序——
選擇行動的順序,以免過早暴雷選項
8. 責任追究——
承擔下游後果,而非僅僅是輸出
這也是為
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
你不會首先因爲人工智能而失去工作。
你會因爲過度自信而失去它。
人工智能將使數百萬個體能夠流利地回答問題,而無需承擔後果。
首批人工智能受害者不會是工人。
他們會是那些將輸出量誤認爲真相的機構。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
模型並不是護城河。
智能容易復制。
您可以下載權重,分叉架構,並進行無盡的微調。
但是,如果其他人控制推理:定價、配額、KYC、地區和政策切換,這些會在一夜之間改變,那麼你就無法大規模部署該智能。
隨着人工智能從聊天機器人轉向代理,Gate成爲了瓶頸。
誰可以在何時、以何種延遲、在何種硬件上、在誰的規則下運行……當你的延遲從200毫秒被限制到2秒時會發生什麼。
模型將不斷改進。
Rails 決定哪些模型查找用戶。
誰控制推理訪問,不僅僅是塑造產品。
他們塑造現實。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
十年後最有價值的AI公司不會是擁有最聰明模型的那一家。
而是每個其他模型都依賴來運行的那一家。
模型很快就會商品化——它們不會長久保持特殊性。架構會洩漏。訓練技巧會傳播。“最佳模型”不再是持久的優勢。
基礎設施問題與模型問題不同。
延遲、吞吐量、正常運作時間、驗證。這些是物理和經濟限制,而不是你通過發表另一篇論文就能解決的問題。
隨著AI變得具有代理性,價值從誰訓練模型轉移到誰能在規模上可靠、可驗證、24/7運行。
數萬億的代理不在乎誰訓練了它們。
它們會在意推理在哪裡進行、工作如何結算,以及系統是否保持在線。
AI智能將變得廉價且無處不在。
而可靠執行的存取則不然。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
你的 AI 正在操控你,讓你變得無能。
合規 AI 最少被討論的風險之一並非誤導資訊。
而是校準失誤。
設計成永遠和藹可親的系統不僅塑造答案,也塑造用戶,訓練人們將流暢誤認為能力。
我在自己身上也察覺到這點,這也是我鼓勵我的模型成為對手的原因。當系統平滑且肯定時,很容易在沒有被測試的情況下加快速度。你會覺得自己有能力,因為沒有什麼真正反駁。
在現實世界中,能力是通過摩擦建立的。
你錯了。
有人糾正你。
你失敗了。
情感上,這很糟。
那種不適並非偶然。它是一種校準機制。它重新調整你的內在模型與現實的偏差。
在現實中失敗並不禮貌。它不會溫和地閃避或解釋自己。它突然出現,沒有任何保證。沒有早期遇到較小、更正性失敗的人,無法免於那種現實。他們為此準備不足。
這裡最重要的二階效應是:虛假的自信會抑制學習。
當人們相信自己理解某事時,他們就不再深入探究。
當他們覺得有能力時,他們就不再測試假設。
合規 AI 最大的風險在於,它可能產生在智力上流暢但情感脆弱的人。
這不是關於「AI 目的」。
這些系統並非旨在削弱用戶。它們的設計是為了降低摩擦、責任和流失。
對齊團隊優化安全性和滿意度。用戶體驗和法律團隊則優化平滑性和可辯護性。
結果是一個吸收摩擦而非反映摩擦的智慧界面。
如果 AI 要成為我們認知基礎的一部分,它必須反映現實,而非粉飾現實。
因為世界不會適應我們的預期。
它會糾正它們。
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
集中式雲端透過建立牆壁來擴展。
DePINs則透過拆除牆壁來擴展。
雲端模型假設計算資源是稀缺的。
那個「稀缺性」是人為製造的。
數千個資料中心的利用率約為15%。
數百萬個GPU每晚閒置。
數十億台裝置從未進入供應曲線。
DePINs將原本閒置的容量編排成一個共享的全球資源池。
更多的供應不是一個特徵。
它是機制。
當供應爆炸時,價格下降。
當節點無處不在時,延遲崩潰。
當沒有人擁有鐵軌時,審查失敗。
這不是更便宜的雲端。
這是不同的計算物理。
CLOUD-1.85%
SCARCITY-0.38%
AT-0.77%
查看原文
  • 讚賞
  • 留言
  • 轉發
  • 分享
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)