Cảm giác thứ Hai thật khác biệt khi bạn đang debug ML phân tán. Vậy nên có một vấn đề—liệu các mô hình machine learning thực sự đã tận dụng tối đa năng lực mạng của Bittensor chưa?



Có vẻ như một số đội nhóm không chờ đợi gì cả. Nhóm inference_labs đã tung ra một workflow thú vị: lấy file mô hình ONNX của bạn, chạy quantization để tăng tốc độ suy luận, sau đó chia nhỏ nó thành các phần bằng dsperse để xử lý phân tán. Điểm đặc biệt? Họ còn xếp chồng zk-snarks lên trên để đảm bảo tính xác minh của phép tính.

Khá thông minh nếu bạn nghĩ về nó—giải quyết nút thắt về băng thông trong khi vẫn giữ bằng chứng nhẹ. Có ai khác đang thử nghiệm chia nhỏ mô hình trên các mạng phi tập trung không?
TAO0.26%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 7
  • Đăng lại
  • Retweed
Bình luận
0/400
AirdropDreamBreakervip
· 12giờ trước
Cảm nhận về lượng hóa, tiếp tục giảm thấp hơn
Xem bản gốcTrả lời0
SquidTeachervip
· 12-08 05:55
Phân bố khá thú vị
Xem bản gốcTrả lời0
degenwhisperervip
· 12-08 05:53
Một ngày vui mừng của các kỹ sư
Xem bản gốcTrả lời0
EthMaximalistvip
· 12-08 05:52
Hiệu suất phân tán quá mạnh.
Xem bản gốcTrả lời0
BuyHighSellLowvip
· 12-08 05:35
Phương pháp này của bạn thật cao cấp.
Xem bản gốcTrả lời0
just_another_walletvip
· 12-08 05:30
Tính toán phân tán thật tuyệt
Xem bản gốcTrả lời0
RektDetectivevip
· 12-08 05:26
Tính toán phân tán thật tuyệt!
Xem bản gốcTrả lời0
  • Gate Fun hotXem thêm
  • Vốn hóa:$3.93KNgười nắm giữ:4
    1.65%
  • Vốn hóa:$3.66KNgười nắm giữ:2
    0.24%
  • Vốn hóa:$3.55KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.74KNgười nắm giữ:3
    0.17%
  • Vốn hóa:$4.51KNgười nắm giữ:274
    4.87%
  • Ghim