我一開始並未想到機器能建立信任。


Mira 讓我開始思考這是否真的有可能。

在人類歷史的大部分時間裡,信任一直依賴於人類。機構驗證資訊。專家核查事實。編輯審查研究。甚至線上系統最終也依賴人類的監督來判斷資訊的可靠性。

但人工智慧開始能比人類更快產生資訊,甚至超越人類的驗證速度。

模型可以在幾秒內撰寫報告、生成程式碼、分析市場,並回答複雜問題。問題在於,AI 的輸出具有概率性。它們經常聽起來很有信心,即使其中可能包含錯誤或幻覺。這種可靠性差距已成為在高風險環境中使用 AI 的最大障礙之一。

Mira 以不同的方式來處理這個問題。

它不依賴單一的 AI 系統,而是將 AI 回應拆分成較小的事實聲明。這些聲明接著由多個 AI 模型在去中心化的驗證網絡中獨立檢查。如果模型達成共識,該聲明就被視為已驗證。

換句話說,信任來自於一致的意見。

沒有單一模型決定什麼是正確的。整個網絡通過分散式驗證和共識機制共同驗證資訊,旨在減少幻覺和偏見。

這改變了信任的結構。

不再是問一個 AI 是否正確,而是問多個獨立智慧是否得出相同的結論。驗證成為一個網絡過程,而非集中式權威。

如果這個模型奏效,AI 系統或許能開始更自主地運作。交易代理、研究工具和基礎設施系統可以依賴經過驗證的輸出,而非原始預測。

人類仍會設計規則。

但確認真相的過程可以在網絡內部完成。

這也引出了 Mira 提出的真正問題。

不是機器是否能產生資訊。

而是機器是否能彼此充分驗證,以至於信任不再需要從人類開始。
MIRA0.43%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言