Aqui está o que ninguém quer admitir sobre a verificação de IA: não é um problema de confiança, é um problema de determinismo.
Temos tratado os LLMs como software tradicional—dá-se o mesmo prompt, espera-se sempre a mesma resposta. Esse modelo mental? Desmorona completamente quando se executam modelos de linguagem em grande escala.
Os antigos frameworks de ZKML foram concebidos para um mundo que já não existe. Assumiam previsibilidade. Assumiam repetibilidade. Mas a inferência de LLMs é, por natureza, probabilística. Definições de temperatura, métodos de amostragem, até atualizações subtis do modelo—tudo isto injeta variabilidade que as provas tradicionais de conhecimento zero não foram feitas para suportar.
Por isso, estamos presos a usar ferramentas de verificação desenhadas para motores de xadrez para verificar sistemas que se comportam mais como improvisação de jazz.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
6
Repostar
Compartilhar
Comentário
0/400
GoldDiggerDuck
· 1h atrás
A incerteza do modelo é realmente difícil de lidar
Ver originalResponder0
faded_wojak.eth
· 7h atrás
O mundo das probabilidades é realmente caótico
Ver originalResponder0
CryptoFortuneTeller
· 12-08 15:44
De facto, é um pouco arriscado.
Ver originalResponder0
LonelyAnchorman
· 12-08 15:39
De facto, está mesmo sem solução.
Ver originalResponder0
TheShibaWhisperer
· 12-08 15:31
A validação nunca consegue acompanhar as mudanças
Ver originalResponder0
YieldChaser
· 12-08 15:23
A dificuldade de verificação é realmente bastante elevada.
Aqui está o que ninguém quer admitir sobre a verificação de IA: não é um problema de confiança, é um problema de determinismo.
Temos tratado os LLMs como software tradicional—dá-se o mesmo prompt, espera-se sempre a mesma resposta. Esse modelo mental? Desmorona completamente quando se executam modelos de linguagem em grande escala.
Os antigos frameworks de ZKML foram concebidos para um mundo que já não existe. Assumiam previsibilidade. Assumiam repetibilidade. Mas a inferência de LLMs é, por natureza, probabilística. Definições de temperatura, métodos de amostragem, até atualizações subtis do modelo—tudo isto injeta variabilidade que as provas tradicionais de conhecimento zero não foram feitas para suportar.
Por isso, estamos presos a usar ferramentas de verificação desenhadas para motores de xadrez para verificar sistemas que se comportam mais como improvisação de jazz.