福利加码,Gate 廣場明星帶單交易員三期招募開啟!
入駐發帖 · 瓜分 $30,000 月度獎池 & 千萬級流量扶持!
如何參與:
1️⃣ 報名成為跟單交易員:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 報名活動:https://www.gate.com/questionnaire/7355
3️⃣ 入駐 Gate 廣場,持續發布交易相關原創內容
豐厚獎勵等你拿:
首發優質內容即得 $30 跟單體驗金
每雙周瓜分 $10,000U 內容獎池
Top 10 交易員額外瓜分 $20,000U 登榜獎池
精選帖推流、首頁推薦、周度明星交易員曝光
詳情:https://www.gate.com/announcements/article/50291
🚨 突發:OpenAI 發布了一篇文章,證明 ChatGPT 總是會捏造事實。
不是有時候。不是等下一次更新。是永遠。他們用數學證明了這一點。
即使擁有完美的訓練數據和無限的計算能力,AI 模型仍然會自信滿滿地告訴你一些完全錯誤的事情。這不是他們正在修復的漏洞。這揭示了這些系統在根本層面上的運作方式。
而他們自己的數據也非常殘酷。OpenAI 的推理模型 o1 在 16% 的情況下會產生幻覺。它們的新模型 O3?33%。它們的新 o4-mini?48%。他們最新模型提供的資訊中,幾乎一半可能是捏造的。所謂的“更智能”模型,實際上在說真相方面越來越差。
這就是為什麼這無法修正的原因。語言模型的運作原理是根據概率預測下一個詞。當遇到不確定的情況時,它們不會停止,也不會提示。它們會假設,並且以絕對的信心進行推測,因為這正是它們被訓練的目的。
研究人員分析了用來衡量這些模型質量的十大人工智慧標準。十個標準中,有九個對“我不知道”與給出完全錯誤答案的評分相同:零分。整個測試系統字面上是在懲罰誠實,獎勵猜測。
因此,AI 學會了最佳策略:永遠猜測。永不承認不確定。即使在捏造時也看起來很有信心。
OpenAI 提出的解決方案是什麼?讓 ChatGPT 在不確定時說“我不知道”。他們的數據顯示,這將意味著約 30% 的問題沒有答案。想像一下,三成的提問都會得到“我不夠有信心回答”的回應。用戶會在夜裡離開。修正方案存在,但會毀掉這個產品。
這不僅僅是 OpenAI 的問題。DeepMind 和清華大學也獨立得出了相同的結論。世界上三大頂尖的 AI 實驗室,分別獨立工作,皆一致認為:這是永久性的。
每次 ChatGPT 給你答案時,問問自己:這是真的,還是僅僅是自信的假設?
這是 Come-from-Beyond 👇 的回應:
他們開始理解為什麼
#QUBIC #Aigarth .* 將“說‘我不知道’”的能力放在核心關注點上
$QUBIC