Понедельничные вайбы ощущаются иначе, когда отлаживаешь распределённое машинное обучение. Вот в чём вопрос — действительно ли модели машинного обучения уже упираются в пропускную способность сети Bittensor?



Похоже, некоторые команды не ждут у моря погоды. Команда inference_labs представила интересный рабочий процесс: берёшь свой файл модели ONNX, выполняешь квантизацию для ускорения инференса, затем разбиваешь модель на части с помощью dsperse для распределённой обработки. Фишка в том, что они добавляют zk-snarks для верифицируемых вычислений.

Довольно хитро, если подумать — решают проблему узких мест по пропускной способности и при этом делают доказательства лёгкими. Кто-нибудь ещё экспериментирует с шардингом моделей на децентрализованных сетях?
TAO1.46%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
SquidTeachervip
· 13ч назад
Распределение довольно интересное
Посмотреть ОригиналОтветить0
degenwhisperervip
· 13ч назад
День, когда инженеры вне себя от радости
Посмотреть ОригиналОтветить0
EthMaximalistvip
· 13ч назад
Распределённая производительность слишком высокая.
Посмотреть ОригиналОтветить0
BuyHighSellLowvip
· 14ч назад
Твой способ действительно продвинутый.
Посмотреть ОригиналОтветить0
just_another_walletvip
· 14ч назад
Распределённые вычисления — это действительно круто
Посмотреть ОригиналОтветить0
RektDetectivevip
· 14ч назад
Распределённые вычисления — это круто!
Посмотреть ОригиналОтветить0
  • Закрепить