🔥 Gate 廣場活動|#发帖赢Launchpad新币KDK 🔥
KDK|Gate Launchpad 最新一期明星代幣
以前想參與? 先質押 USDT
這次不一樣 👉 發帖就有機會直接拿 KDK!
🎁 Gate 廣場專屬福利:總獎勵 2,000 KDK 等你瓜分
🚀 Launchpad 明星項目,走勢潛力,值得期待 👀
📅 活動時間
2025/12/19 12:00 – 12/30 24:00(UTC+8)
📌 怎麼參與?
在 Gate 廣場發帖(文字、圖文、分析、觀點都行)
內容和 KDK 上線價格預測/KDK 項目看法/Gate Launchpad 機制理解相關
帖子加上任一話題:#发帖赢Launchpad新币KDK 或 #PostToWinLaunchpadKDK
🏆 獎勵設定(共 2,000 KDK)
🥇 第 1 名:400 KDK
🥈 前 5 名:200 KDK / 人(共 1,000 KDK)
🥉 前 15 名:40 KDK / 人(共 600 KDK)
📄 注意事項
內容需原創,拒絕抄襲、洗稿、灌水
獲獎者需完成 Gate 廣場身份認證
獎勵發放時間以官方公告為準
Gate 保留本次活動的最終解釋權
探索在人工智慧中的Web3案例
動機與挑戰
目前的人工智慧領域由中心化、封閉源和寡占的科技巨頭所主導。少數幾家公司控制著最高性能的模型,這在很大程度上是由於極端集中化的力量促進了模型的開發和推論。
創建一個機器學習模型通常包括三個主要階段:預先訓練、微調和推論。這些階段對於開發出一個強大且準確的模型,能夠很好地泛化到新的、未見過的數據,至關重要。
預訓練階段
在預訓練階段,模型訓練於一個大型的、通用的資料集。此資料集與最終模型要執行的任務無關,而是旨在幫助模型學習各種特徵和模式。例如,在語言模型的情況下,這可能涉及從大量的文本語料庫中學習語言結構、語法和廣泛的詞彙。這裡的目標是開發一個對將要處理的資料的基本結構有很好理解的模型,無論是文字、圖像或其他形式的資料。
在預訓練階段存在一些集中力量:
此外,依賴專有資料集進行模型訓練引入了重要的倫理考量和延續偏見的風險。 AI 演算法本質上是從基礎資料中得出操作範式的,並由此產生內在的偏見,從而很容易被嵌入和複製。這種情況強調了在開發過程中進行細緻審查和道德監督的必要性,確保模型反映公平和有意的模式和關聯。 2. 資源需求- 已經確定,模型的效果與訓練資料的數量呈對數增強關係,這表明受益於最廣泛的GPU 計算週期的模型通常表現最佳。這種動態在預訓練階段引入了一個重要的集中化影響,由主要的科技和數據公司所擁有的規模經濟和生產力優勢所推動。這一趨勢在產業巨頭OpenAI、Google、亞馬遜、微軟和Meta 的主導地位中顯而易見。這些公司擁有並經營全球大多數的資料中心,並且可以獲得NVIDIA 最新、最先進的硬體設備。
微調階段
模型經過預訓練後,進行微調。在這個階段,模型會在一個較小的、特定任務的資料集上進行進一步訓練。目的是調整模型在預訓練過程中學習到的權重和特徵,使其更適合當前的特定任務。這可能涉及教授語言模型理解醫學術語,或訓練影像辨識模型區分不同種類的鳥類。
微調階段使模型能夠專注並提高在對終端使用者感興趣的任務上的效能。再次,在微調階段中存在一些集中力量,其中最重要的是封閉源模型和可驗證性。
在微調階段,模型的參數被細化和設置,塑造其功能和性能。主流趨勢是朝著專有的人工智慧模型發展,例如OpenAI 的GPT 系列和Google 的Gemini,這意味著這些模型的內部運作和參數並未公開。因此,當使用者請求推理時,他們無法驗證回應是否真的來自他們認為正在互動的模型。
這種缺乏透明度可能會對使用者造成不利影響,特別是在信任和可驗證性至關重要的情況下。例如,在醫療領域,人工智慧模型可能會幫助診斷疾病或建議治療方法,但醫生無法確認模型推斷的來源和準確性,可能會導致不信任甚至誤診。如果醫療專業人員無法確定AI 的建議是基於最可靠和最新的模型,後果可能直接影響患者的照護和結果,強調了AI 部署中透明度和問責制的重要性。
推理階段
推理階段是模型實際應用的階段。此時,模型已經經過訓練和微調,準備好對新資料進行預測。在AI 模型的情況下,這可能意味著回答問題、翻譯語言或提供推薦。這個階段是將訓練好的模型應用於實際問題的階段,通常也是模型價值實現的階段。
在推理階段,導致集中化的因素有:
因此,這一局勢越來越被少數強大的參與者所主導,抑制了競爭和創新。這種中心化不僅影響了人工智慧發展的多樣性,也限制了對人工智慧好處的獲取,僅限於一小部分資金充裕的組織,從而在技術生態系統中造成了重大不平衡。
在中心化的人工智慧領域中,出現了一些反覆出現的主題,特別是關於Web2 公司的演變。最初作為開放網路成立的這些實體,通常會將焦點轉向最大化股東價值。這種轉變經常導致他們關閉網絡,調整演算法以阻止外部鏈接,這通常與用戶的最佳利益相反。
這種公司激勵與用戶需求不一致的情況通常發生在組織成熟並獲得外部資金的時候。事實上,我們已經在OpenAI 身上看到了這種現象,它最初是一個非營利組織,旨在使人工智慧的使用普及化,這說明產業中的重心轉變可以如何顯現。這很容易歸咎於這些個別公司,但我們認為這反映了科技業內部集中力量引發的系統性問題,這種集中力量往往導致公司激勵與廣泛用戶需求之間的不一致。
可能的未來:人工智慧與Web3
加密世界為人工智慧提供了一個基礎,使得資訊和價值的交流變得無縫、開放和安全。區塊鏈技術提供了一個清晰和可追溯的系統,用於管理交易和記錄數據。在加密貨幣和人工智慧的交匯處,出現了許多機會,兩個領域可以相互增強和從對方的能力中受益。
激勵對齊
分散運算在模型開發的預訓練和微調階段具有重要價值。基礎模型通常需要大量的GPU 運算週期,通常在集中的資料中心中運行這些過程。分散的實體基礎設施網路(DePIN)可以提供分散的、無需許可的運算存取。透過加密貨幣的經濟激勵,軟體可以自主地補償硬體使用,無需中央治理實體。這使得網路的使用者能夠控製網絡,調整激勵機制,並確保資料和模型提供者得到足夠的補償。
可驗證性
目前的人工智慧基礎設施主要傾向於專有模型,使用者需要信任推理提供者透過指定模型執行查詢並產生合法的輸出。在這個背景下,密碼學證明系統成為了一項關鍵技術,提供了一種在區塊鏈上驗證模型輸出的機制。這個過程使用戶能夠提交查詢,推理提供者使用約定的模型進行處理,隨後產生一個帶有加密證明的輸出。這個證明作為可驗證的證據,證明查詢確實透過指定的模型進行了處理。
這些措施的主要目標是將繁重的運算任務轉移到鏈下環境,同時確保結果可以在鏈上進行驗證。這種方法不僅減輕了區塊鏈上的計算負擔,還透過提供不可變的證據來引入透明度和可信度的層次,證明了鏈下計算的準確性和完成性。
將這些密碼學證明納入AI 模型驗證過程中,解決了與封閉源AI 系統相關的幾個關鍵問題。它減輕了不透明或未經驗證的計算風險,增強了計算過程的完整性,並促進了使用者和推理提供者之間基於信任的關係。此外,這種方法與更廣泛的去中心化和透明系統的趨勢一致,呼應了區塊鏈技術的基本原則。
可組合性
去中心化金融和區塊鏈網路的主要優勢之一就是它們所能實現的可組合性。可組合性允許在DeFi 中廣泛使用“貨幣樂高”,即將不同的協議和輸出組合在一起,以創建新的應用程式。儘管這種模組化性引入了新的風險形式到系統中,但也簡化了開發者的應用開發,增加了創新和開發速度,並能夠提供更簡單的用戶體驗和便利性。
類似於加密貨幣為金融產品提供了可組合性,它也將為人工智慧網路和應用程式創造可組合性,透過作為一個無需許可和無需信任的層級,人工智慧模組可以在其上構建並獨立工作,同時與其他模組保持互聯,形成能夠提供各種服務的網路。透過區塊鏈網路效應和加密貨幣,去中心化的人工智慧專案和應用可以相互連接,完成人工智慧的整體架構。
例如,可以使用Akash 或Filecoin 預處理的資料來使用Marlin、Gensyn 或Together 訓練模型。經過微調後,這些訓練好的模型可以透過Bittensor 回應使用者查詢(推理)。儘管看起來更複雜,但最終用戶只需與一個前端進行交互,而開發人員和應用程式則可以透過建立在不同的堆疊和應用程式之上獲益。
透過分散式網路實現的組合性的另一個重要面向是資料組合性。隨著用戶對擁有自己產生的數據越來越感興趣,並要求能夠在不同的人工智慧協議之間攜帶數據,他們將要求他們的數據不受限於封閉的環境。分散化和開源的AI 應用程式使資料可移植。
資料保護
分散式運算,結合外部資料和隱私解決方案,為使用者提供了更多對其資料的自主權,使其成為比集中式對應方案更具吸引力的選擇。特別是,像完全同態加密(FHE)這樣的方法,允許在不需要先解密資料的情況下對加密資料進行計算。
透過FHE,可以使用加密的資料集來訓練機器學習模型,從而在整個訓練過程中保持資料的隱私和安全。這提供了一個端到端的安全解決方案,具有強大的加密保證,允許在邊緣網路中進行保護隱私的模型訓練,並允許開發能夠保護用戶隱私並利用先進的人工智慧能力的人工智慧系統。
FHE 的角色擴展到在雲端環境中安全地運行加密資料上的大型語言模型。這不僅保護用戶的隱私和敏感訊息,還增強了在具有固有隱私的應用程式上運行模型的能力。隨著人工智慧在各個領域的整合,尤其是金融等敏感領域,對於像全同態加密這樣能夠防止潛在資訊外洩的技術的需求變得至關重要。
自動升級能力
AI 可用於根據一系列的變更和條件來維護、更新和自動升級智慧合約。例如,AI 可以在協議方面使用,根據風險和其他市場條件的變化來調整風險參數。一個常見的例子是貨幣市場。貨幣市場目前依賴外部組織或DAO 決策來調整借貸資產的風險參數。 AI 代理可以簡化更新和升級特定參數,與人類和DAO 組織相比,這將是一個明顯的改進,因為人類和DAO 組織可能會慢而低效。
分散式人工智慧的挑戰
分散式人工智慧面臨一系列挑戰,特別是在平衡密碼學的開源性與人工智慧的安全問題以及人工智慧的運算需求方面。在密碼學中,開源對於確保安全至關重要,但在人工智慧領域,公開模型或其訓練資料會增加其遭受對抗性機器學習攻擊的風險。利用這兩項技術開發應用程式面臨重大的挑戰。此外,人工智慧在區塊鏈中的應用,如基於人工智慧的套利機器人、預測市場和決策機制,引發了公平性和操縱性的問題。人工智慧有潛力提高這些領域的效率和決策能力,但存在著人工智慧無法完全掌握人類驅動的市場動態細微差別的風險,從而導致意想不到的後果。
另一個令人擔憂的領域是將人工智慧用作加密應用程式的介面。雖然人工智慧可以幫助用戶在複雜的加密貨幣世界中導航,但它也存在風險,例如容易受到對抗性輸入的影響,或導致用戶過度依賴人工智慧做出重要決策。此外,將人工智慧整合到區塊鏈應用的規則中,例如DAO 或智慧合約,存在著風險。對抗性機器學習可能會利用人工智慧模型的弱點,導致被操縱或不正確的結果。確保人工智慧模型準確、使用者友好且免受操縱是一個重大挑戰。
此外,將人工智慧與零知識證明或多方運算結合不僅計算密集,而且還面臨高運算成本、記憶體限制和模型複雜性等障礙。零知識機器學習(zkML)的工具和基礎設施目前仍處於不發達狀態,這個領域缺乏熟練的開發人員。這些因素導致了在zkML 能夠在適合消費品的規模上實施之前需要大量的工作。
小結
在維持區塊鏈的去中心化精神和確保人工智慧系統可靠性的同時,平衡去中心化和信任尤其重要,特別是在人工智慧使用可信任硬體或特定資料治理模型的情況下。在本文的下一部分中,我們將深入探討能夠支援分散式人工智慧的技術以及Marlin 基礎設施在實現這一目標中的關鍵作用。
第二部分:實作技術概述
在本文的前一部分中,我們探討了集中式人工智慧的缺點以及Web3 如何緩解這些問題。然而,在鏈上運行模型是不可能的,因為需要支付極高的Gas 費用。試圖增加底層區塊鏈的運算能力將增加驗證者的節點要求,這可能會降低去中心化,由於小型的家庭驗證者將面臨困難。
在接下來的章節中,我們將介紹一些在Web3 中進一步發展人工智慧所必需的流行工具和技術,即零知識證明(ZKPs)、全同態加密(FHE)和可信任執行環境(TEEs)。
ZKP 和ZKML
零知識證明(ZKP)對於人工智慧和Web3 特別重要,因為它們可以提高擴充性和隱私保護。它們允許在鏈下進行計算,然後在鏈上進行驗證(驗證計算),這比在區塊鏈的所有節點上重新執行計算要高效得多,從而減輕了網路負載並支援更複雜的操作。 zkML 可以使AI 模型在鏈上環境中運作。這確保了這些鏈下計算的輸出是可信且經過驗證的。
此外,zkML 可以驗證機器學習過程的特定方面,例如確認某個特定模型用於進行預測,或者某個模型是在特定資料集上進行訓練的。 zkML 也可以用於驗證計算過程。例如,它允許計算提供者透過可驗證的證據證明他們已經使用了正確的模型處理資料。這對於依賴去中心化計算提供者(如Akash)並希望確保計算的準確性和完整性的開發人員尤其重要。
zkML 對於需要在其資料上運行模型但希望保持資料私密性的使用者也很有用。他們可以在自己的資料上執行模型,產生證明,並隨後驗證正確模型的使用,而不會損害資料的隱私性。
FHE
如前所述,完全同態加密(FHE)允許直接在加密資料上進行計算,而無需先解密。該技術在人工智慧領域有重要應用,特別是在機器學習和敏感資料處理方面。
FHE 的主要應用之一是使用加密資料集進行機器學習模型的訓練。這種方法確保資料在整個訓練過程中保持加密和安全。作為結果,FHE 提供了一種全面的安全解決方案,從機器學習流程的開始到結束都能保持資料的隱私。這在邊緣網路中尤其重要,資料安全和隱私至關重要,與集中式資料中心相比,運算資源通常更有限。
利用全同態加密技術可以開發出既保護用戶隱私又能充分利用人工智慧先進能力的系統。透過確保資料在儲存和處理過程中保持加密,全同態加密(FHE)提供了強大的密碼保證,防止未經授權的存取和資料外洩。這在處理敏感資訊的場景中尤其重要,例如醫療應用中的個人資料或機密的財務記錄。
全同態加密(FHE)將其實用性擴展到雲端環境中大型語言模型的運作。透過使這些模型能夠處理加密數據,全同態加密(FHE)確保用戶隱私和敏感資訊得到保護。隨著越來越多的人工智慧應用在雲端環境中部署,資料安全成為一個重要議題,這種能力變得越來越重要。在需要嚴格保密的領域,如法律、醫療和金融業,能夠在加密資料上安全運行模型的能力增強了人工智慧的適用性。
全同態加密(FHE)解決了保護敏感資料免受潛在資訊外洩和未經授權存取的關鍵需求。在那些資料隱私不僅僅是偏好而是法規要求的領域,全同態加密(FHE)提供了一種在不損害資料安全和合規標準的情況下利用人工智慧的方法。
### 球座
可信执行环境(TEEs)在训练和执行人工智能推理方面具有显著优势,特别是在安全保证、隔离、数据隐私和保护方面。由于 TEE 作为安全的隔离环境,它们为数据和计算提供了强大的安全性和完整性。 第一個主要好處是提高了安全保障的保證。 TEEs 專門設計用於對抗具有廣泛可信任運算基礎(TCBs)的系統中的漏洞,這些基礎包括作業系統核心、裝置驅動程式和程式庫。由於其較大的攻擊面,這些組件更容易受到攻擊。透過提供安全的執行環境,TEE 可以保護關鍵應用程序,即使主機作業系統被入侵,也能保持隔離區內軟體的完整性和機密性。
另一個關鍵優勢是隔離。在隔離區內,程式碼和資料被安全地存儲,並且僅限於隔離區內的程式碼才能存取。這種設計防止了外部訪問,包括來自其他虛擬機器或超級監視器的訪問,從而保護免受物理攻擊和來自其他虛擬機器的威脅。
TEE(可信任執行環境)有助於遠端驗證流程,以驗證軟體是否在真實的TEE 內執行。這項功能對於確保在隔離區內運行的軟體的真實性和完整性至關重要。它使得遠端實體與可信任執行環境之間建立了信任,確保軟體及其執行環境是安全的,並且沒有被篡改。
最後,TEE 在資料保護方面表現出色。 TEE 的硬體實現的安全特性保護計算的機密性和完整性。這包括對代碼和資料(如密鑰)進行安全配送到隔離區內。 TEE 還建立了可信任通訊通道,用於檢索計算結果和輸出,確保資料在隔離區內的整個生命週期中保持安全。這些特性使得TEE 成為訓練人工智慧和執行人工智慧推理的理想環境,特別是在需要高水準安全和資料完整性的應用程式中。
馬林牡蠣
Marlin Oyster 是一個供開發人員部署自訂運算任務或服務於可信任執行環境的開放平台。類似英特爾的SGX 和AWS 的Nitro Enclaves。透過Oyster,開發者可以在隔離環境中執行程式碼,並確保主機或其中的任何其他應用程式都無法改變可信任執行環境中的計算的完整性。除了可信任執行環境(TEE)提供的運算完整性和機密性保證外,Oyster 平台還提供額外的好處:
基準
在zkML 框架和TEE ML(Oyster)之間的基準比較中,效能指標顯示Oyster 的效率更高。具體而言,Oyster 框架在所有測試的機器學習模型中顯示出明顯較低的總計算時間。
对于 Iris 数据的普通最小二乘模型,zkML 框架(RisQ)需要超过 32 秒进行证明和验证,而 Oyster 只需 0.047 秒完成任务。同样,在相同数据集上,神经网络使用 zkML(EZKL 框架)对于 500 个输入的总时间超过了 212 秒,而 Oyster 只需要 0.045 秒。这个处理时间上的显著差异表明 Oyster 在这些情况下效率更高。
在MNIST 資料集上,LeNet 模型進一步加深了這項觀察。 EZKL 的zkML 框架需要60 秒的驗證和證明時間,而Oyster 僅需要0.056 秒。即使DDKang 的zkML 框架表現比EZKL 更好,總時間約為3.33 秒,但仍不如Oyster 的0.056 秒。
总体而言,数据显示,与测试的 zkML 框架相比,Oyster 为机器学习任务提供了更高效的解决方案。它更快的计算时间表明,对于提供的基准测试,Oyster 可以在显著较少的处理时间内处理相同的任务,从而在效率和速度方面更具优势。
為了廣泛採用可驗證的、去中心化的人工智慧,離鏈加密驗證系統必須超越執行簡單任務,例如普通最小平方法計算。所需的關鍵進展是處理更複雜任務的能力,具體而言,是透過流行的LLMs 有效地運行提示。這需要提高運算能力、演算法效率和可擴展性,以處理現代LLMs 的複雜和資源密集型需求,從而在分散的框架內實現更複雜和多樣化的人工智慧應用。 zkML 框架仍處於初級階段,目前階段它們處理這些提示的能力受到嚴重影響,因為產生zk 證明是一項計算密集型任務。
尽管尚未展示 zkML 协议处理 LLMs 的提示,但可以合理地假设 Oyster 的可信 TEE 和这些 zkML 框架之间的处理时间差异至少与之前讨论的示例一样显著。使用 Marlin 的 Oyster,可以建立各种 LLMs 的基准测试结果:
評估計數:回應中的標記數量;評估持續時間:產生反應所花費的奈秒時間
GPT2-XL 在Oyster 內部的基準測試結果:
隔離區配置:12 CPU, 28 GB 記憶體(c6a.4xlarge)
提示語:以太坊是由社群運作的技術
結果:“以太坊是由社區運營的技術,使互聯網能夠正常運行。就像Linux 對計算機的影響一樣,以太坊將賦予互聯網在未來的功能。”
產生輸出所花費的時間:22.091819524765015 秒
每秒標記數:1.6295624703815754 秒
第二部:結論
人工智慧技術的發展和分發越來越被一小部分擁有先進硬體和複雜模型的大型企業所主導。這種集中程度引發了對審查制度、固有偏見以及驗證人工智慧系統的完整性和公平性的擔憂。相較之下,加密貨幣的基本原則——即無需許可和抵制審查——為實現人工智慧技術的民主化提供了一條途徑。
區塊鏈技術的去中心化和開源性使得去中心化人工智慧能夠與中心化對手競爭。這是透過DePINs、加密證明和使用公私鑰對等機制實現的,這些機制共同確保了人工智慧的安全、透明和公平的發展和使用。為了實現去中心化人工智慧的全部潛力,尤其是在區塊鏈生態系統中,需要一個強大的鏈下運算基礎設施。這對於高效、準確和可驗證地處理複雜的人工智慧任務至關重要。
目前,可信任執行環境(TEE)成為滿足此要求的最可行解決方案。 TEE 為程式碼提供了一個安全且隔離的執行空間,保護正在處理的資料的機密性和完整性。這使得它們成為區塊鏈上用於AI 應用所需的鏈下計算的最佳選擇。隨著領域的發展,像zkML、FHE 技術的進步以及可信任執行環境(TEE)的增強對於去中心化人工智慧生態系統克服當前的限制至關重要。這項進展將促進更加開放、可訪問和安全的人工智慧領域,與加密社群的去中心化理念一致。