L’ambiance du lundi est différente quand tu débogues du ML distribué. Alors voilà la question : est-ce que les modèles de machine learning saturent vraiment la capacité du réseau de Bittensor ?
On dirait que certaines équipes n’attendent pas de voir. L’équipe inference_labs a proposé un workflow intéressant : tu prends ton fichier modèle ONNX, tu fais une quantification pour accélérer l’inférence, puis tu le découpes en morceaux avec dsperse pour un traitement distribué. Le truc en plus ? Ils ajoutent une couche de zk-snarks pour un calcul vérifiable.
Plutôt malin si on y pense — ça résout les goulets d’étranglement de la bande passante tout en gardant des preuves légères. Est-ce que d’autres ici s’amusent avec le sharding de modèles sur des réseaux décentralisés ?
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
7
Reposter
Partager
Commentaire
0/400
AirdropDreamBreaker
· Il y a 4h
Les impressions de la quantification, la baisse continue
Voir l'originalRépondre0
SquidTeacher
· Il y a 19h
La distribution est assez intéressante.
Voir l'originalRépondre0
degenwhisperer
· Il y a 19h
Un jour de bonheur pour les ingénieurs
Voir l'originalRépondre0
EthMaximalist
· Il y a 19h
Les performances distribuées sont trop puissantes.
L’ambiance du lundi est différente quand tu débogues du ML distribué. Alors voilà la question : est-ce que les modèles de machine learning saturent vraiment la capacité du réseau de Bittensor ?
On dirait que certaines équipes n’attendent pas de voir. L’équipe inference_labs a proposé un workflow intéressant : tu prends ton fichier modèle ONNX, tu fais une quantification pour accélérer l’inférence, puis tu le découpes en morceaux avec dsperse pour un traitement distribué. Le truc en plus ? Ils ajoutent une couche de zk-snarks pour un calcul vérifiable.
Plutôt malin si on y pense — ça résout les goulets d’étranglement de la bande passante tout en gardant des preuves légères. Est-ce que d’autres ici s’amusent avec le sharding de modèles sur des réseaux décentralisés ?