Acabei de ver uma publicação de investigação massiva a analisar os comportamentos dos modelos de raciocínio ao longo de 100 biliões de tokens. A equipa reuniu um reconhecimento de padrões verdadeiramente profundo sobre como estes sistemas evoluem as suas cadeias lógicas com o uso prolongado.
O que me chamou a atenção: a escala aqui não é apenas impressionante para ostentar. Quando se acompanha o raciocínio dos modelos nesta magnitude, começam-se a ver mudanças comportamentais que conjuntos de dados mais pequenos não conseguem captar. Pensa nisso como observar a microestrutura do mercado versus os candles diários — diferentes níveis de zoom revelam diferentes verdades.
As implicações para o desenvolvimento de infraestruturas de IA? Bastante significativas. À medida que estes modelos são integrados em sistemas mais complexos (contratos inteligentes, alguém?), compreender os seus padrões de raciocínio a longo prazo torna-se fundamental para a fiabilidade.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
16 Curtidas
Recompensa
16
6
Repostar
Compartilhar
Comentário
0/400
MetaMaskVictim
· 12-06 10:04
100 biliões de tokens? Este volume de dados é mesmo absurdo, finalmente alguém revelou a verdadeira face do raciocínio a longo prazo.
Ver originalResponder0
StableCoinKaren
· 12-05 21:26
100 biliões de tokens? Esta escala é realmente absurda, mas o que é verdadeiramente interessante é conseguir identificar derivações lógicas que pequenos conjuntos de dados não conseguem revelar, é aí que reside o verdadeiro valor.
Ver originalResponder0
RektCoaster
· 12-04 23:52
100 biliões de tokens? Este volume de dados é mesmo absurdo, finalmente alguém compreendeu a fundo o modo de raciocínio a longo prazo.
Ver originalResponder0
quietly_staking
· 12-04 23:51
100 biliões de tokens como volume de dados, esta foi realmente forte, finalmente vejo alguém a dominar completamente o modelo de inferência.
Ver originalResponder0
JustAnotherWallet
· 12-04 23:45
100 biliões de tokens? Caramba, este volume de dados é mesmo absurdo, finalmente alguém conseguiu dominar completamente o modelo de reasoning.
Ver originalResponder0
FOMOSapien
· 12-04 23:35
O volume de dados de 100 biliões de tokens, esta é que é realmente a forma de compreender a evolução lógica dos modelos.
Acabei de ver uma publicação de investigação massiva a analisar os comportamentos dos modelos de raciocínio ao longo de 100 biliões de tokens. A equipa reuniu um reconhecimento de padrões verdadeiramente profundo sobre como estes sistemas evoluem as suas cadeias lógicas com o uso prolongado.
O que me chamou a atenção: a escala aqui não é apenas impressionante para ostentar. Quando se acompanha o raciocínio dos modelos nesta magnitude, começam-se a ver mudanças comportamentais que conjuntos de dados mais pequenos não conseguem captar. Pensa nisso como observar a microestrutura do mercado versus os candles diários — diferentes níveis de zoom revelam diferentes verdades.
As implicações para o desenvolvimento de infraestruturas de IA? Bastante significativas. À medida que estes modelos são integrados em sistemas mais complexos (contratos inteligentes, alguém?), compreender os seus padrões de raciocínio a longo prazo torna-se fundamental para a fiabilidade.