當你在除錯分散式機器學習時,週一的感覺就是不一樣。那麼,問題來了——機器學習模型真的已經把 Bittensor 網路的容量用到極限了嗎?



看起來有些團隊已經不打算坐以待斃了。inference_labs 團隊推出了一個有趣的工作流程:拿你的 ONNX 模型檔,先進行量化來提升推理速度,然後用 dsperse 切成多個區塊進行分散式處理。亮點是什麼?他們還在上面加了 zk-snarks,做到可驗證運算。

仔細想想這真的很聰明——在解決頻寬瓶頸的同時,還能讓證明保持輕量。還有其他人在去中心化網路上玩模型分片嗎?
TAO7.44%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 6
  • 轉發
  • 分享
留言
0/400
大鱿鱼讲师vip
· 8小時前
分布有點意思
查看原文回復0
degenwhisperervip
· 8小時前
工程師狂喜的一天
查看原文回復0
EthMaximalistvip
· 8小時前
分散式效能太強了
查看原文回復0
Buy_High_SellLowvip
· 9小時前
你這方法真高端
查看原文回復0
just_another_walletvip
· 9小時前
分散式運算真香
查看原文回復0
RektDetectivevip
· 9小時前
分散式運算真香!
查看原文回復0
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)