10,000 USDT 悬賞,尋找跟單金牌星探!🕵️
挖掘頂級帶單員,贏取高額跟單體驗金!
立即參與:https://www.gate.com/campaigns/4624
🎁 三大活動,獎金疊滿:
1️⃣ 慧眼識英:發帖推薦帶單員,分享跟單體驗,抽 100 位送 30 USDT!
2️⃣ 強力應援:曬出你的跟單截圖,為大神打 Call,抽 120 位送 50 USDT!
3️⃣ 社交達人:同步至 X/Twitter,憑流量贏取 100 USDT!
📍 標籤: #跟单金牌星探 #GateCopyTrading
⏰ 限時: 4/22 16:00 - 5/10 16:00 (UTC+8)
詳情:https://www.gate.com/announcements/article/50848
🚨 突發:OpenAI 發布了一篇文章,證明 ChatGPT 總是會捏造事實。
不是有時候。不是等下一次更新。是永遠。他們用數學證明了這一點。
即使擁有完美的訓練數據和無限的計算能力,AI 模型仍然會自信滿滿地告訴你一些完全錯誤的事情。這不是他們正在修復的漏洞。這揭示了這些系統在根本層面上的運作方式。
而他們自己的數據也非常殘酷。OpenAI 的推理模型 o1 在 16% 的情況下會產生幻覺。它們的新模型 O3?33%。它們的新 o4-mini?48%。他們最新模型提供的資訊中,幾乎一半可能是捏造的。所謂的“更智能”模型,實際上在說真相方面越來越差。
這就是為什麼這無法修正的原因。語言模型的運作原理是根據概率預測下一個詞。當遇到不確定的情況時,它們不會停止,也不會提示。它們會假設,並且以絕對的信心進行推測,因為這正是它們被訓練的目的。
研究人員分析了用來衡量這些模型質量的十大人工智慧標準。十個標準中,有九個對“我不知道”與給出完全錯誤答案的評分相同:零分。整個測試系統字面上是在懲罰誠實,獎勵猜測。
因此,AI 學會了最佳策略:永遠猜測。永不承認不確定。即使在捏造時也看起來很有信心。
OpenAI 提出的解決方案是什麼?讓 ChatGPT 在不確定時說“我不知道”。他們的數據顯示,這將意味著約 30% 的問題沒有答案。想像一下,三成的提問都會得到“我不夠有信心回答”的回應。用戶會在夜裡離開。修正方案存在,但會毀掉這個產品。
這不僅僅是 OpenAI 的問題。DeepMind 和清華大學也獨立得出了相同的結論。世界上三大頂尖的 AI 實驗室,分別獨立工作,皆一致認為:這是永久性的。
每次 ChatGPT 給你答案時,問問自己:這是真的,還是僅僅是自信的假設?
這是 Come-from-Beyond 👇 的回應:
他們開始理解為什麼
#QUBIC #Aigarth .* 將“說‘我不知道’”的能力放在核心關注點上
$QUBIC