Acabei de ver uma publicação de investigação massiva a analisar os comportamentos dos modelos de raciocínio ao longo de 100 biliões de tokens. A equipa reuniu um reconhecimento de padrões verdadeiramente profundo sobre como estes sistemas evoluem as suas cadeias lógicas com o uso prolongado.



O que me chamou a atenção: a escala aqui não é apenas impressionante para ostentar. Quando se acompanha o raciocínio dos modelos nesta magnitude, começam-se a ver mudanças comportamentais que conjuntos de dados mais pequenos não conseguem captar. Pensa nisso como observar a microestrutura do mercado versus os candles diários — diferentes níveis de zoom revelam diferentes verdades.

As implicações para o desenvolvimento de infraestruturas de IA? Bastante significativas. À medida que estes modelos são integrados em sistemas mais complexos (contratos inteligentes, alguém?), compreender os seus padrões de raciocínio a longo prazo torna-se fundamental para a fiabilidade.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 6
  • Repostar
  • Compartilhar
Comentário
0/400
MetaMaskVictimvip
· 12-06 10:04
100 biliões de tokens? Este volume de dados é mesmo absurdo, finalmente alguém revelou a verdadeira face do raciocínio a longo prazo.
Ver originalResponder0
StableCoinKarenvip
· 12-05 21:26
100 biliões de tokens? Esta escala é realmente absurda, mas o que é verdadeiramente interessante é conseguir identificar derivações lógicas que pequenos conjuntos de dados não conseguem revelar, é aí que reside o verdadeiro valor.
Ver originalResponder0
RektCoastervip
· 12-04 23:52
100 biliões de tokens? Este volume de dados é mesmo absurdo, finalmente alguém compreendeu a fundo o modo de raciocínio a longo prazo.
Ver originalResponder0
quietly_stakingvip
· 12-04 23:51
100 biliões de tokens como volume de dados, esta foi realmente forte, finalmente vejo alguém a dominar completamente o modelo de inferência.
Ver originalResponder0
JustAnotherWalletvip
· 12-04 23:45
100 biliões de tokens? Caramba, este volume de dados é mesmo absurdo, finalmente alguém conseguiu dominar completamente o modelo de reasoning.
Ver originalResponder0
FOMOSapienvip
· 12-04 23:35
O volume de dados de 100 biliões de tokens, esta é que é realmente a forma de compreender a evolução lógica dos modelos.
Ver originalResponder0
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)