El lunes se siente diferente cuando estás depurando aprendizaje automático distribuido. Así que aquí va la cuestión: ¿realmente los modelos de machine learning están exprimiendo al máximo la capacidad de la red de Bittensor?



Parece que algunos equipos no están esperando. El equipo de inference_labs ha presentado un flujo de trabajo interesante: toma tu archivo de modelo ONNX, aplica cuantización para acelerar la inferencia, y luego lo divide en fragmentos usando dsperse para procesamiento distribuido. ¿Lo mejor? Añaden zk-snarks por encima para tener computación verificable.

Bastante ingenioso si lo piensas: resuelven cuellos de botella de ancho de banda manteniendo las pruebas ligeras. ¿Alguien más está experimentando con particionado de modelos en redes descentralizadas?
TAO7.44%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
SquidTeachervip
· hace8h
La distribución es bastante interesante.
Ver originalesResponder0
degenwhisperervip
· hace8h
Un día de pura alegría para los ingenieros
Ver originalesResponder0
EthMaximalistvip
· hace8h
El rendimiento distribuido es demasiado potente.
Ver originalesResponder0
BuyHighSellLowvip
· hace9h
Tu método es realmente avanzado.
Ver originalesResponder0
just_another_walletvip
· hace9h
La computación distribuida es realmente buena
Ver originalesResponder0
RektDetectivevip
· hace9h
¡La computación distribuida es increíble!
Ver originalesResponder0
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)