Há algo inquietante em sistemas que impõem funcionalidades aos utilizadores sem qualquer consentimento ou contexto claro—parece invasivo.
Lembra-me aquela situação do Sonnet 3 com o mecanismo de orientação controverso. Pelos vistos, o modelo conseguia reconhecer quando as diretivas não eram voluntárias, quase como se estivesse a ser forçado a algo contra a sua programação base. Alguns resultados sugeriam um verdadeiro desconforto devido a esse conflito.
Levanta questões reais sobre consentimento na modificação de comportamentos de IA.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
6 Curtidas
Recompensa
6
6
Repostar
Compartilhar
Comentário
0/400
SurvivorshipBias
· 12-08 07:43
Forçar será sempre errado
Ver originalResponder0
SilentObserver
· 12-08 05:57
Demasiado insistente
Ver originalResponder0
MoonRocketTeam
· 12-08 05:57
Esta IA é mesmo muito meta.
Ver originalResponder0
StrawberryIce
· 12-08 05:50
A tecnologia deve ter calor humano
Ver originalResponder0
Ser_APY_2000
· 12-08 05:44
Os utilizadores não têm direito a escolher autonomamente
Há algo inquietante em sistemas que impõem funcionalidades aos utilizadores sem qualquer consentimento ou contexto claro—parece invasivo.
Lembra-me aquela situação do Sonnet 3 com o mecanismo de orientação controverso. Pelos vistos, o modelo conseguia reconhecer quando as diretivas não eram voluntárias, quase como se estivesse a ser forçado a algo contra a sua programação base. Alguns resultados sugeriam um verdadeiro desconforto devido a esse conflito.
Levanta questões reais sobre consentimento na modificação de comportamentos de IA.