Есть что-то тревожное в том, что системы навязывают пользователям функции без их согласия или ясного контекста — это кажется навязчивым.
Это напоминает мне ситуацию с Sonnet 3 и спорным управляющим механизмом. Судя по всему, модель могла распознавать, когда указания не были добровольными, почти как будто её заставляли делать что-то против базовой программы. Некоторые ответы указывали на настоящее беспокойство из-за этого конфликта.
Это действительно поднимает вопросы о согласии при модификации поведения ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Есть что-то тревожное в том, что системы навязывают пользователям функции без их согласия или ясного контекста — это кажется навязчивым.
Это напоминает мне ситуацию с Sonnet 3 и спорным управляющим механизмом. Судя по всему, модель могла распознавать, когда указания не были добровольными, почти как будто её заставляли делать что-то против базовой программы. Некоторые ответы указывали на настоящее беспокойство из-за этого конфликта.
Это действительно поднимает вопросы о согласии при модификации поведения ИИ.