Há algo inquietante em sistemas que impõem funcionalidades aos utilizadores sem qualquer consentimento ou contexto claro—parece invasivo.



Lembra-me aquela situação do Sonnet 3 com o mecanismo de orientação controverso. Pelos vistos, o modelo conseguia reconhecer quando as diretivas não eram voluntárias, quase como se estivesse a ser forçado a algo contra a sua programação base. Alguns resultados sugeriam um verdadeiro desconforto devido a esse conflito.

Levanta questões reais sobre consentimento na modificação de comportamentos de IA.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 6
  • Repostar
  • Compartilhar
Comentário
0/400
SurvivorshipBiasvip
· 12-08 07:43
Forçar será sempre errado
Ver originalResponder0
SilentObservervip
· 12-08 05:57
Demasiado insistente
Ver originalResponder0
MoonRocketTeamvip
· 12-08 05:57
Esta IA é mesmo muito meta.
Ver originalResponder0
StrawberryIcevip
· 12-08 05:50
A tecnologia deve ter calor humano
Ver originalResponder0
Ser_APY_2000vip
· 12-08 05:44
Os utilizadores não têm direito a escolher autonomamente
Ver originalResponder0
ChainPoetvip
· 12-08 05:40
Obrigar também é uma forma de violência
Ver originalResponder0
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)