Понедельничные вайбы ощущаются иначе, когда отлаживаешь распределённое машинное обучение. Вот в чём вопрос — действительно ли модели машинного обучения уже упираются в пропускную способность сети Bittensor?
Похоже, некоторые команды не ждут у моря погоды. Команда inference_labs представила интересный рабочий процесс: берёшь свой файл модели ONNX, выполняешь квантизацию для ускорения инференса, затем разбиваешь модель на части с помощью dsperse для распределённой обработки. Фишка в том, что они добавляют zk-snarks для верифицируемых вычислений.
Довольно хитро, если подумать — решают проблему узких мест по пропускной способности и при этом делают доказательства лёгкими. Кто-нибудь ещё экспериментирует с шардингом моделей на децентрализованных сетях?
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
9 Лайков
Награда
9
6
Репост
Поделиться
комментарий
0/400
SquidTeacher
· 13ч назад
Распределение довольно интересное
Посмотреть ОригиналОтветить0
degenwhisperer
· 13ч назад
День, когда инженеры вне себя от радости
Посмотреть ОригиналОтветить0
EthMaximalist
· 13ч назад
Распределённая производительность слишком высокая.
Посмотреть ОригиналОтветить0
BuyHighSellLow
· 14ч назад
Твой способ действительно продвинутый.
Посмотреть ОригиналОтветить0
just_another_wallet
· 14ч назад
Распределённые вычисления — это действительно круто
Понедельничные вайбы ощущаются иначе, когда отлаживаешь распределённое машинное обучение. Вот в чём вопрос — действительно ли модели машинного обучения уже упираются в пропускную способность сети Bittensor?
Похоже, некоторые команды не ждут у моря погоды. Команда inference_labs представила интересный рабочий процесс: берёшь свой файл модели ONNX, выполняешь квантизацию для ускорения инференса, затем разбиваешь модель на части с помощью dsperse для распределённой обработки. Фишка в том, что они добавляют zk-snarks для верифицируемых вычислений.
Довольно хитро, если подумать — решают проблему узких мест по пропускной способности и при этом делают доказательства лёгкими. Кто-нибудь ещё экспериментирует с шардингом моделей на децентрализованных сетях?