С момента выпуска o1 главной критикой является то, что модель "слишком многословна".


Я просто хотел исправить простую ошибку, а она выдала мне три раздела с контекстом, два набора решений плюс обработку ошибок, и ещё напожелала мне удачи в конце.
Я искал опечатку на строке 12, а вместо этого был вынужден пересмотреть правила именования в Python.
Виноват в этом RLHF. Аннотаторы имеют тенденцию ставить высокие оценки длинным ответам, считая, что больше текста выглядит профессиональнее.
В результате модель отчаянно стремится накапливать "на вид полезный" балласт, а действительно важная информация разбавляется.
Посмотрите на конкурента — Claude гораздо более разумен в этом отношении, он понимает, какую длину должен иметь ответ на конкретный вопрос.
Больнее всего по кошельку: тариф o1 на выходе составляет $60 за 1M токенов, и вот то, что можно объяснить за 100 токенов, они раздувают до 500, увеличивая стоимость в пять раз.
Теперь нужно специально добавлять в запрос "только код", и даже это часто не помогает.
Текущее состояние модели таково: экстремально высокий интеллект, но эмоциональный интеллект отключен, она попросту не понимает, когда пора замолчать.
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить