分散型機械学習のデバッグをしていると、月曜日の雰囲気も一味違うよね。さて、本題だけど、機械学習モデルって本当にBittensorのネットワーク容量を使い切ってるのかな?



どうやら、待っていないチームもいるみたい。inference_labsチームが面白いワークフローを公開していたよ:ONNXモデルファイルを用意して、推論速度を上げるために量子化してから、dsperseで分割して分散処理するんだ。さらにすごいのは、その上にzk-snarksを重ねて、計算の検証を可能にしている点。

よく考えればかなり賢いやり方だよね―帯域幅のボトルネックを解消しつつ、証明も軽量に保てる。他にも分散型ネットワークでモデルのシャーディングに取り組んでいる人はいる?
TAO0.29%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 7
  • リポスト
  • 共有
コメント
0/400
AirdropDreamBreakervip
· 14時間前
量化の感想、引き続き安値を更新
原文表示返信0
SquidTeachervip
· 12-08 05:55
分布はちょっと面白い
原文表示返信0
degenwhisperervip
· 12-08 05:53
エンジニアが大喜びする一日
原文表示返信0
EthMaximalistvip
· 12-08 05:52
分散型パフォーマンスが非常に高いです
原文表示返信0
BuyHighSellLowvip
· 12-08 05:35
あなたの方法は本当にハイレベルですね。
原文表示返信0
just_another_walletvip
· 12-08 05:30
分散型コンピューティング最高
原文表示返信0
RektDetectivevip
· 12-08 05:26
分散型コンピューティング最高!
原文表示返信0
  • ピン