A energia das segundas-feiras sente-se diferente quando estás a fazer debug de ML distribuído. Então é assim—será que os modelos de machine learning estão mesmo a esgotar a capacidade da rede da Bittensor?
Parece que algumas equipas não estão à espera para ver. A malta da inference_labs lançou um fluxo de trabalho interessante: pegas no teu ficheiro de modelo ONNX, fazes quantização para aumentar a velocidade de inferência e depois divides em partes usando o dsperse para processamento distribuído. O extra? Estão a sobrepor zk-snarks por cima para computação verificável.
Bastante engenhoso se pensares bem—resolvendo os estrangulamentos de largura de banda enquanto mantêm as provas leves. Mais alguém a experimentar sharding de modelos em redes descentralizadas?
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A energia das segundas-feiras sente-se diferente quando estás a fazer debug de ML distribuído. Então é assim—será que os modelos de machine learning estão mesmo a esgotar a capacidade da rede da Bittensor?
Parece que algumas equipas não estão à espera para ver. A malta da inference_labs lançou um fluxo de trabalho interessante: pegas no teu ficheiro de modelo ONNX, fazes quantização para aumentar a velocidade de inferência e depois divides em partes usando o dsperse para processamento distribuído. O extra? Estão a sobrepor zk-snarks por cima para computação verificável.
Bastante engenhoso se pensares bem—resolvendo os estrangulamentos de largura de banda enquanto mantêm as provas leves. Mais alguém a experimentar sharding de modelos em redes descentralizadas?