Щойно побачив масштабне дослідження, яке аналізує поведінку моделей міркування на основі 100 трильйонів токенів. Команда зібрала справді глибокий аналіз розпізнавання шаблонів того, як ці системи розвивають свої логічні ланцюжки при тривалому використанні.



Що привернуло мою увагу: масштаб тут вражає не тільки для похвал. Коли ви відстежуєте міркування моделей у такому обсязі, починаєте помічати поведінкові зміни, які повністю випадають із менших датасетів. Це як порівнювати мікроструктуру ринку з денними свічками — різні рівні деталізації показують різну правду.

Імплікації для розвитку AI-інфраструктури? Досить значущі. Оскільки ці моделі інтегруються у складніші системи (смарт-контракти, хтось?), розуміння їхніх довгострокових моделей міркування стає критично важливим для надійності.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Репост
  • Поділіться
Прокоментувати
0/400
SeeYouInFourYearsvip
· 11год тому
Масштаб у 100 трильйонів токенів — це дійсно дозволяє побачити те, чого на малих наборах даних взагалі неможливо помітити.
Переглянути оригіналвідповісти на0
MetaMaskVictimvip
· 12-06 10:04
100 мільйонів мільярдів токенів? Цей обсяг даних справді неймовірний, нарешті хтось розкрив справжнє обличчя довготривалого висновування.
Переглянути оригіналвідповісти на0
StableCoinKarenvip
· 12-05 21:26
100 мільйонів трильйонів токенів? Такий масштаб справді вражає, але найцікавіше — це можливість виявити логічні зсуви, які не видно на малих наборах даних. Саме в цьому й полягає цінність.
Переглянути оригіналвідповісти на0
RektCoastervip
· 12-04 23:52
100 мільйонів мільярдів токенів? Цей обсяг даних справді неймовірний, нарешті хтось дійсно розібрався з довгостроковим режимом логічних висновків.
Переглянути оригіналвідповісти на0
quietly_stakingvip
· 12-04 23:51
Обсяг даних у 100 трлн токенів — це справді сильно, нарешті бачимо, що хтось дійсно розібрався з моделлю інференсу.
Переглянути оригіналвідповісти на0
JustAnotherWalletvip
· 12-04 23:45
100 трильйонів токенів? Оце так, справді шалений обсяг даних, нарешті хтось дійсно розібрався у reasoning-моделі.
Переглянути оригіналвідповісти на0
FOMOSapienvip
· 12-04 23:35
Обсяг даних у 100 мільйонів мільярдів токенів — ось це справжній спосіб побачити, як еволюціонує логіка моделей.
Переглянути оригіналвідповісти на0
  • Закріпити