重塑計算界限:去中心化算力的現狀與展望

來源:Future3 Campus

伴隨 AI 等領域的發展,許多行業會從底層邏輯上實現巨大變革,算力會上升到更重要的地位,與之關聯的各個方面也都會引起行業的廣泛探索,去中心化算力網路有其自身優勢,可答覆降低中心化風險,同時也能作為中心化算力的一種補足。

需求中的算力

自2009年《阿凡達》上映,以無與倫比的真實畫面掀開3D電影第一役,Weta Digital 作為其背後的巨大功臣貢獻了整部電影的視效渲染工作。 在它紐西蘭的佔地10000平方英尺的伺服器農場里,它的計算機群每天處理高達140萬個任務,每秒處理8GB的數據,即使這樣也接連持續運行了超過1個月,才完成所有的渲染工作。

大規模的機器調用和成本投入,《阿凡達》成就電影史上的卓著功勳。

同年1月3日,中本聰在芬蘭赫爾辛基的一個小型伺服器上挖出了比特幣的創世區塊,並獲得了50btc的出塊獎勵。 自加密貨幣誕生第一天起,算力一直在行業扮演非常重要的角色。

*最長的鏈不僅可以證明所目睹的事件順序,還可以證明它來自最大的CPU能力池。

—— 比特幣白皮書

在PoW共識機制的大背景下,算力的付出為鏈的安全性提供保障。 同時,持續走高的Hashrate 也能佐證礦工的算力上的持續投入和積極的收入預期。 行業對算力的真實需求,也極大推動了晶元廠商的發展。 礦機晶元經歷了CPU、GPU、FPGA、ASIC等發展階段。 目前,比特幣礦機通常是基於ASIC(Application Specific Ingrated Circuit)技術的晶元能高效地執行特定的演算法,如SHA-256。 比特幣帶來的巨大經濟效益,也拉動著相關挖礦的算力需求一併走高,但過於專用化的設備和集群效應,使得本身參與者發生虹吸效應,無論是礦工或礦機製造商,都呈現資本密集型的集中發展趨勢。

重塑计算界限:去中心化算力的现状与展望

而隨著乙太坊的智慧合約問世,隨著它的可程式設計性、可組合性等特點,形成了廣泛的應用,特別是在DeFi領域的運用,使得ETH的價格一路看漲,而還處於PoW共識階段的乙太坊其挖礦難度也一路走高。 礦工對乙太坊礦機的算力要求也與日俱增,但乙太坊與比特幣使用ASIC晶片不同,則需要使用圖形處理器(GPU)來進行挖礦計算,如Nvidia RTX系列等。 這樣它更適合通用計算硬體來參與,這甚至一度引發了,市場對於GPU的爭搶而導致市面上高端的顯卡一度斷貨的局面。

重塑计算界限:去中心化算力的现状与展望

而當時間來到2022年11月30日,由OpenAI研發的ChatGPT同樣是展示了AI領域劃時代的意義,用戶驚歎於ChatGPT帶來的全新體驗,能如同真人一般,基於上下文完成使用者提出的各種要求。 而在今年9月推出的新版本中,加入了語音、圖像等多模態特徵的生成式AI又將用戶體驗帶到了更新的階段。

但與之對應的是GPT4有超過萬億級的參數參與模型預訓練以及後續微調。 這是 AI 領域對算力需求最大的兩個部分。 在預訓練階段,通過學習大量的文本來掌握語言模式、語法和關聯上下文。 使其能夠理解語言規律,從而根據輸入生成連貫且上下文相關的文本。 預訓練之後,再對GPT4進行微調,以便於更好地適應特定類型的內容或風格,提升特定需求場景的性能和專業化。

由於 GPT 採用的 Transformer 架構,引入自注意力機制(Self-attention),這種機制使得模型能在處理輸入的序列時,同時關注序列中不同部分之間的關係,因而對算力需求急劇增長,特別是在處理長序列是需要大量並行計算和存儲大量注意力分數,因而也需要大量的記憶體和高速的數據傳輸能力。 目前主流的同架構LLM對於高性能GPU的需求巨大,這也表明AI大模型領域投入成本巨大。 根據相關 SemiAnalysis 的推測估計GPT4一次模型訓練成本高達6300萬美金。 而為實現良好的交互體驗,GPT4 在日常運營中亦需要投入大量的算力來維持其日常運營。

算力硬體分類

這裡我們要來理解一下目前主要的算力硬體類型,CPU、GPU、FPGA、ASIC 分別能處理怎樣算力需求場景。

• 從CPU和GPU的架構示意圖上,GPU包含更多核心,它們使得GPU可同時處理多個計算任務,並行計算的處理能力更強,適用於處理大量計算任務,因此在機器學習和深度學習領域得到了廣泛的應用。 而CPU的核心數量較少,適合處理更集中地處理單個複雜計算或序列任務,但在處理並行計算任務時不如GPU高效。 在渲染任務和神經網路計算任務中,通常需要處理大量重複計算和並行計算,因此GPU比CPU在這個方面會更高效且適用。

重塑计算界限:去中心化算力的现状与展望

• FPGA(Field Programmable Gate Array)現場可程式設計邏輯門陣列,是作為專用積體電路(ASIC)領域中的一種半定製電路。 由大量小型處理單元組成的陣列,FPGA可以理解為可程式設計的數位邏輯電路集成晶片。 目前的運用主要集中在硬體加速,其他任務仍然在CPU上完成,讓FPGA和CPU協同工作。

• ASIC(Application Specific Integrated Circuit)專用積體電路,是指應特定使用者要求和特定電子系統的需要而設計的積體電路。 ASIC在批量生產時與通用積體積更小、功耗更低、可靠性提高、性能提高、保密性增強、成本降低等優點。 因而在比特幣挖礦的固有場景下,只需要執行特定的計算任務,ASIC則是最契合的。 Google 也推出了針對機器學習專門設計的 TPU(Tensor Processing Unit)作為ASIC的一種,但目前主要通過Google Cloud提供算力租用服務。

• ASIC 和 FPGA 相比,ASIC 是專用積體電路,一旦設計完成後積體電路即固定。 而FPGA是在陣列內集成大量數位電路基本門電路和記憶體,開發人員可以通過燒寫FPGA配置來定義電路,並且這種燒寫是可更換的。 但就當下的AI領域的更新速度,定製化或半定製化的晶元,無法及時通過調整重新配置來執行不同的任務或適應新演算法。 因而,GPU 的普遍的適應性和靈活性,使其在 AI 領域大放異彩。 各大 GPU 廠商就 AI 領域也對 GPU 在 AI 領域的適配做了相關優化。 以 Nvidia 為例,推出了專為深度學習設計的 Tesla 系列和 Ampere 架構 GPU,這些硬體包含針對機器學習和深度學習計算優化的硬體單元(Tensor Cores),這使得GPU能夠以更高的效率和更低的能耗執行神經網路的前向和反向傳播。 此外也提供了廣泛的工具和庫來支援AI開發,如 CUDA(Compute Unified Device Architecture)來幫助開發人員利用GPU進行通用並行計算。

去中心化算力

去中心化算力是指通過分散式計算資源提供處理能力的方式。 這種去中心化的方法通常結合區塊鏈技術或類似的分散式賬本技術,將閑置的計算資源彙集並分發給需要的使用者,以實現資源分享、交易和管理。

產生背景

• **強勁的算力硬體需求。 **創作者經濟的繁榮,使得數位媒體處理方向進入全民創作的時代,激增的視效渲染需求,出現專門渲染外包工作室、雲渲染平臺等形式,但這樣方式也需要本身投入大量的資金用於前期算力硬體採購。

• **算力硬體來源單一。 **AI 領域發展更加劇了算力硬體的需求,全球以 Nvidia 為龍頭的 GPU 製造企業在這場AI算力競賽中,賺得盆滿缽滿。 其供貨能力甚至成為能掣肘某一行業發展的關鍵要素,Nvidia的市值也於今年首次突破一萬億美元。

• **算力提供仍主要依賴中心化雲平臺。 **而目前真正受益於高性能計算需求激增的是以 AWS 為代表的中心化雲廠商,它們推出了 GPU 雲算力服務,以目前AWS p4d.24xlarge 為例,租用一台這樣的專精於 ML 方向的 HPC 伺服器,包含8塊 Nvidia A100 40GB GPUs,每小時花費在 32.8 美元,其毛利率據估計可達61%。 這也使得其他雲巨頭紛紛競相參與,囤積硬體以其在行業發展初期儘可能佔據有利。

• **政治、人為干預等因素導致行業發展不平衡。 **不平衡我們不難看出GPU的擁有權和集中度更向資金和技術充裕組織和國家傾斜,且與高性能計算集群呈現依仗關係。 這使得以美國為代表的晶片半導體製造強國,也在對AI晶元出口方面實施更為嚴苛的限制, 以削弱其他國家在通用人工智慧領域的研究能力。

• **算力資源分配過於集中。 ** AI 領域的發展主動權掌握在少數巨型公司手中,目前以 OpenAI 為代表的巨頭,有微軟的加持,背後是微軟Azure 提供的豐富算力資源,這使得 OpenAI 每次新產品的發佈,都是對當下 AI 行業的重塑和整合,讓其餘團隊在大模型領域難以望其項背。

那麼在面對高昂的硬體成本、地域限制、產業發展不均衡的情況,是否有其他解決方案?

**去中心化算力平臺則應運而生,平臺的目的是創建一個開放、透明且自我調節的市場來更有效地利用全球計算資源。 **

適應性分析

1. 去中心化算力供給側

目前高昂的硬體價格和供給側的人為控制,都給去中心化算力網路的建設提供了土壤。

從去中心化算力的組成方式來看,多樣的算力提供方小到個人PC、小型物聯網設備大到數據中心、IDC等,大量累積的算力可提供更靈活和可擴展的計算解決方案,從而説明更多的AI開發者和組織更有效地利用有限的資源。 都可以通過個人或組織的閑置算力,來實現去中心化算力共用,但這些的算力的可用性、穩定性,受本身使用者的使用限制或分享上限的限制。

有可能的潛在優質算力來源,則是乙太坊轉 PoS 后,直接由相關礦場轉型提供的算力資源。 以美國領先的 GPU 集成式算力提供者 Coreweave 為例,前身是北美乙太坊最大的礦場,基於已構建的完備基礎設施。 此外,退役的乙太坊礦機,其中也包含了大量的閑置 GPU,據悉此前乙太坊挖礦時代巔峰在網工作的 GPU 約2700萬張,盤活這些 GPU 也能進一步成為去中心化算力網路重要的算力來源。

2. 去中心化算力需求側

從技術實現來看,去中心化算力資源在圖形渲染類,視頻轉碼類,這種計算複雜程度不高的任務,結合區塊鏈技術和web3的經濟體系能在確保信息數據安全傳遞情況下,為網路參與者帶來了切實的收益激勵,積累了有效的商業模式和客群。 而 AI 領域則涉及大量的並行計算,節點間的通信、同步等環節,對網路環境等方面有非常高的要求,因而目前應用也都集中於微調、推理、AIGC 等更偏應用層。

從商業邏輯來看,單純算力買賣的市場是缺乏想像力的,行業只能卷供應鏈、定價策略,但這些又恰好是中心化雲服務的優勢。 因而,市場上限較低也缺乏更多想像空間,所以也能看到原本做單純圖形渲染的網路在尋求 AI 轉型,如 Render Network 與 2023 Q1 也推出了原生集成Stability AI 工具集,使用者可以的該項功能引入Stable Diffusion作業,業務也不再局限於渲染作業而向 AI 領域擴展。

從主要客群來看,很顯然大B端客戶會更傾向於中心化集成式雲服務,他們通常有充足的預算,他們通常是從事底層大模型的開發,需要更高效的算力聚合形式;因而,去中心化算力更多的是服務於中小型開發團隊或個人,從事多是模型微調,或應用層開發,對算力的提供形式沒有太高的要求。 他們對價格更敏感,去中心化算力的能從根本上減輕初始成本的投入,因而整體的使用成本也更低,以 Gensyn 此前測算的成本來看,將算力換算成V100 提供的等值算力,Gensyn 價格僅為0.4美元每小時,相比AWS 同類型的算力需要2美元每小時,能下降80%。 雖然這部分生意並不在目前行業中佔開銷大頭,但伴隨 AI 類應用的使用場景持續延展,未來的市場規模不容小覷。

重塑计算界限:去中心化算力的现状与展望

從提供的服務來看,可以發現目前的專案更像是去中心化雲平臺的概念,提供的是一整套從開發、部署、上線、分發、交易全流程的管理,這樣的好處在於吸引開發者,可以利用相關工具元件來簡化開發部署,提升效率;同時能吸引用戶來平臺使用這些完整的應用產品,形成基於自身算力網路的生態護城河。 但這同時也對項目運營提出了更高的要求。 如何吸引優秀開發者和用戶並實現留存顯得尤為重要。

不同領域的應用

1. 數字媒體處理

Render Network 一個基於區塊鏈的全球渲染平臺,其目標是為創作者數字創意提供説明。 它允許創作者按需將 GPU 渲染工作擴展到全球 GPU 節點,提供了以一種更為高速且便宜的渲染工作能力,在創作者確認過渲染結果后,再由區塊鏈網路向節點發送代幣獎勵。 相比傳統的視覺效果實現方法,在本地建立渲染基礎設施或在購置的雲服務中增加相應的GPU開支,這都需要高昂的前期投入。

重塑计算界限:去中心化算力的现状与展望

自2017年創立以來,Render Network 使用者在網路上渲染了超過1600萬幀和近50萬個場景。 從Render Network 2023 Q2 發佈數據也能表明,渲染幀數作業和活躍節點數都呈增長的趨勢。 此外,Render Network 與2023 Q1 也推出了原生集成Stability AI 工具集,使用者可以的該項功能引入Stable Diffusion作業,業務也不再局限於渲染作業而向AI領域擴展。

重塑计算界限:去中心化算力的现状与展望

Livepeer 則是通過網路參與者貢獻自己的GPU算力和頻寬,為創作者提供實時視頻轉碼服務。 廣播者可以通過將視頻發送至Livepeer,完成各類視頻轉碼,並向各類端側使用者分發,進而實現視頻內容的傳播。 同時,可以便捷地通過法幣形式支付,獲得視頻轉碼、傳輸、存儲等服務。

重塑计算界限:去中心化算力的现状与展望

在Livepeer 網路中,任何人都允許貢獻個人計算機資源(CPU、GPU 和頻寬)以進行轉碼和分發視頻來賺取費用。 原生代幣(LPT)則代表了網路參與者在網路中的權益,通過質押代幣的數量,決定節點在網路中的權重,從而影響其獲得轉碼任務的機會。 同時,LPT也起到了引導節點安全、可靠、快速地完成分派的任務。

2. AI****領域的擴展

在目前AI領域的生態系統中,主要參與者大致可以劃分成:

重塑计算界限:去中心化算力的现状与展望

從需求方入手,在產業的不同階段,對算力的訴求是有明顯區別的。 以底層模型開發為例,在預訓練環節為確保訓練結果的有效對並行計算、存儲、通信等方面要求都非常高,這就需要通過大型的算力集群來完成相關的任務。 當下主要算力供給主要還是依賴自建機房、中心化的雲服務平臺來集中提供。 而在後續模型微調、即時推理和應用開發等環節則對並行計算、節點間通信的要求沒有那麼高,這恰恰是去中心化算力能一展拳腳的部分。

縱觀此前已頗具的聲量的專案, Akash Nework 在去中心化算力方向做了一些嘗試:

Akash Network 結合不同的技術元件,讓用戶可以在去中心化的雲環境中高效、靈活地部署和管理應用程式。 用戶可以利用 Docker 容器技術打包應用,然後通過 Kubernetes 在 Akash 提供的雲資源上通過 CloudMOS 進行部署和擴展。 Akash 採用「反向拍賣」的方式,這使得價格比傳統雲服務更低。

Akash Network 在今年8月也發佈將推出了主網第6次升級,將對 GPU 的支持納入其雲服務中,未來向更多 AI 團隊提供算力供給。

重塑计算界限:去中心化算力的现状与展望

Gensyn.ai,今年頗受行業矚目的專案由 a16z 領投完成了4300萬美元A輪融資,就目前公佈專案公佈的文檔來看, 該專案是一個主網基於波卡網路的 L1 PoS 協定,聚焦於深度學習,它旨在通過創建一個全球性的超級計算集群網路來推動機器學習的邊界。 這個網路連接了從擁有算力富餘的數據中心到潛在可貢獻個人 GPU 的 PC,定製的 ASIC 和 SoC 等多種設備。

為解決的目前去中心化算力中存在的一些問題,Gensyn 借鑒了學術界的一些理論研究新成果:

  1. 採用概率學習證明,即使用基於梯度的優化過程的元數據來構建相關任務執行的證明,來加快驗證過程;

  2. 圖形基準協定(Graph-based Pinpoint Protocol),GPP作為一個橋樑,連接了DNN(Deep Neural Network)的離線執行與區塊鏈上的智慧合約框架,解決了跨硬體設備間容易發生的不一致性,並確保了驗證的一貫性。

  3. 與 Truebit 類似的激勵方式,通過質押和懲罰相結合的方式,建立一個能讓經濟理性參與者能誠實地執行分派的任務。 該機制採用了密碼學和博弈論方法。 這個驗證系統對於維持大型模型訓練計算的完整性和可靠性。

但值得注意的是以上內容更多的是解決任務完成驗證層面,而非在專案文檔中作為主要亮點講述的關於去中心化算力來實現模型訓練方面的功能,特別是關於並行計算和分散式硬體間通信、同步等問題的優化。 當前受網路延遲(Latency)和頻寬(Bandwidth)的影響,頻繁的節點間通信會使得反覆運算時間和通信成本都發生增長,這不僅不會帶來實際的優化,相反會降低訓練效率。 Gensyn 在模型訓練中處理節點通信和並行計算的方法可能涉及複雜的協調協定,以管理計算的分散式性質。 然而,如果沒有更詳細的技術資訊或對他們具體方法的更深入瞭解,Gensyn通過其網路實現大型模型訓練的確切機制需要等項目上線才能真正揭曉。

我們還關注到 Edge Matrix Computing (EMC) protocol 它通過區塊鏈技術將算力運用至 AI、渲染、科研、AI 電商接入等類型的場景,通過彈性計算把任務分發到不同的算力節點。 這種方法不僅提高了算力的使用效率,還確保了數據傳輸的安全性。 同時,它提供了一個算力市場,用戶可以訪問和交換計算資源。 方便開發者部署,更快地觸達使用者。 結合 Web3 的經濟形式,也能使算力提供方在根據用戶的實際使用方式獲取真實收益和協定方補貼,AI開發者也獲得更低的推理和渲染成本。 以下是其主要組成部分和功能的概述:

重塑计算界限:去中心化算力的现状与展望

預期還將推出了基於 GPU 的 RWA 類產品,此項的關鍵在於將原本在機房固定住的硬體盤活,以 RWA 的形式分割流通,獲得額外的資金流動性,高品質 GPU 能作為 RWA 底層資產的原因在於,算力可以算得上 AI 領域的硬通貨,目前有明顯的供需矛盾,且該矛盾並不能在短期內解決,因而 GPU 的價格相對比較穩定。

此外,通過部署 IDC 機房實現算力集群也是 EMC protocol 會重點佈局的部分,這不僅能讓 GPU 在統一環境下的運轉,更高效地處理相關大型算力消耗的任務,如模型的預訓練,由此來匹配專業使用者的需求。 同時,IDC 機房也能集中託管和運行大量的 GPU,確保同類型高品質硬體的技術規格,方便將其打包作為 RWA 產品推向市場,開啟DeFi 新思路。

近年學界在邊緣計算領域也有新的技術理論發展和應用實踐。 邊緣計算作為雲計算的一種補充和優化,一部分的人工智慧正在加快速度從雲端走向邊緣,進入到越來越小的物聯網設備中。 而這些物聯網設備往往體積很小,為此輕量機器學習受到青睞,以滿足功耗、延時以及精度等問題。

重塑计算界限:去中心化算力的现状与展望

Network3 是通過構建了一個專門的AI Layer2,通過AI 模型演演算法優化和壓縮,聯邦學習,邊緣計算和隱私計算,為全球範圍內的AI開發者提供服務,幫助他們快速、便捷、高效地訓練或者驗證模型。 它通過利用大量智慧物聯網硬體設備,可聚焦小模型,來做相應的算力供給,且通過構建TEE(Trusted ution Environment)能讓使用者僅通過上傳模型梯度,來完成相關訓練,確保使用者相關數據隱私安全。

綜上

• 伴隨 AI 等領域的發展,許多行業會從底層邏輯上實現巨大變革,算力會上升到更重要的地位,與之關聯的各個方面也都會引起行業的廣泛探索,去中心化算力網路有其自身優勢,可答覆降低中心化風險,同時也能作為中心化算力的一種補足。

• 且本身 AI 領域的團隊也處於一個分岔口上,是否利用已訓練好的大模型構建自身產品,還是參與到訓練各自地域內的大模型,這樣的選擇也多是辯證的。 因而去中心化算力能滿足不同的業務需求,這樣的發展趨勢是喜聞樂見的,且伴隨技術的更新和演算法的反覆運算,勢必在關鍵領域也會有所突破。

• 至不懼,而徐徐圖之。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 1
  • 轉發
  • 分享
留言
0/400
***[email protected]vip
· 2023-11-28 01:56
我只是HODL🤫
查看原文回復0
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)