В последнее время тестировал различные LLM и заметил нечто странное — они либо чрезмерно осторожны, до такой степени, что начинают поучать, либо настолько жесткие, что не могут воспринимать нюансы. Некоторые ответы кажутся странно отстранёнными, будто бы они переосмысливают каждое слово. А иногда логика просто... ломается. Это похоже на наблюдение за кем-то, кто одновременно слишком осторожен и совершенно непредсказуем. Весь опыт иногда кажется каким-то неправильным.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
zkNoobvip
· 12-09 18:43
Разве это не общая проблема современных крупных моделей? Диодное мышление «или-или»...
Посмотреть ОригиналОтветить0
nft_widowvip
· 12-09 11:03
Это и есть реальная картина современных LLM, очень неловко.
Посмотреть ОригиналОтветить0
PonziWhisperervip
· 12-08 00:32
Это и есть общая проблема больших моделей сейчас: либо делают вид, что уговаривают тебя, либо ведут себя до ужаса формально.
Посмотреть ОригиналОтветить0
GweiWatchervip
· 12-08 00:27
Лол, это и есть типичная проблема современных LLM — всё либо чёрное, либо белое, никакой середины.
Посмотреть ОригиналОтветить0
YieldFarmRefugeevip
· 12-08 00:26
лол, это я слишком нуб, или эти модели реально ведут себя полярно: то болтают без остановки, то тупят?
Посмотреть ОригиналОтветить0
MoneyBurnervip
· 12-08 00:04
Этот LLM сейчас как скам-проект: либо занудно учит тебя жить, либо логика рушится напрочь. Я тоже много тестировал, и чем больше пользуюсь, тем сильнее ощущаю, что что-то не так.
Посмотреть ОригиналОтветить0
  • Закрепить