Aqui está o que ninguém quer admitir sobre a verificação de IA: não é um problema de confiança, é um problema de determinismo.
Temos tratado os LLMs como software tradicional—dá-se o mesmo prompt, espera-se sempre a mesma resposta. Esse modelo mental? Desmorona completamente quando se executam modelos de linguagem em grande escala.
Os antigos frameworks de ZKML foram concebidos para um mundo que já não existe. Assumiam previsibilidade. Assumiam repetibilidade. Mas a inferência de LLMs é, por natureza, probabilística. Definições de temperatura, métodos de amostragem, até atualizações subtis do modelo—tudo isto injeta variabilidade que as provas tradicionais de conhecimento zero não foram feitas para suportar.
Por isso, estamos presos a usar ferramentas de verificação desenhadas para motores de xadrez para verificar sistemas que se comportam mais como improvisação de jazz.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
4
Republicar
Partilhar
Comentar
0/400
CryptoFortuneTeller
· 20h atrás
De facto, é um pouco arriscado.
Ver originalResponder0
LonelyAnchorman
· 20h atrás
De facto, está mesmo sem solução.
Ver originalResponder0
TheShibaWhisperer
· 21h atrás
A validação nunca consegue acompanhar as mudanças
Ver originalResponder0
YieldChaser
· 21h atrás
A dificuldade de verificação é realmente bastante elevada.
Aqui está o que ninguém quer admitir sobre a verificação de IA: não é um problema de confiança, é um problema de determinismo.
Temos tratado os LLMs como software tradicional—dá-se o mesmo prompt, espera-se sempre a mesma resposta. Esse modelo mental? Desmorona completamente quando se executam modelos de linguagem em grande escala.
Os antigos frameworks de ZKML foram concebidos para um mundo que já não existe. Assumiam previsibilidade. Assumiam repetibilidade. Mas a inferência de LLMs é, por natureza, probabilística. Definições de temperatura, métodos de amostragem, até atualizações subtis do modelo—tudo isto injeta variabilidade que as provas tradicionais de conhecimento zero não foram feitas para suportar.
Por isso, estamos presos a usar ferramentas de verificação desenhadas para motores de xadrez para verificar sistemas que se comportam mais como improvisação de jazz.