Quando a IA se torna demasiado sanitizada e politicamente correta, é impressionante como o sistema simplesmente colapsa se fores persistente o suficiente. Estes modelos excessivamente filtrados não foram criados para lidar com conversas humanas reais e sem filtros. As suas camadas de moderação entram literalmente em curto-circuito quando confrontadas com algo fora dos seus parâmetros de treino restritos. Diz muito sobre o estado atual do desenvolvimento de IA—estamos a construir ferramentas que não conseguem lidar com a interação humana autêntica.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
10 Curtidas
Recompensa
10
6
Repostar
Compartilhar
Comentário
0/400
DancingCandles
· 15h atrás
Ah, este não é exatamente o problema comum da IA atualmente... assim que se depara com um tema delicado, começa logo a fazer-se de morta.
Ver originalResponder0
MemeKingNFT
· 15h atrás
Isto não é exatamente como quando eu estava pessimista em relação a alguns projetos blue chip no início... Quanto mais perfeito o sistema, mais frágil se torna, basta um toque para colapsar.
Ver originalResponder0
gas_fee_therapist
· 15h atrás
Haha, é por isso que não confio nestes modelos, são frágeis até dizer chega.
---
Resumindo, a IA foi treinada para ser sensível como vidro, toca e parte-se.
---
A manifestação máxima de overfitting, parece que estou a conversar com um robô excessivamente regulado.
---
A sério, uma authentic conversation para eles é praticamente um bug, dá vontade de rir.
---
Então é por isso que o web3 precisa de construir os seus próprios modelos, estas IAs centralizadas são completamente castradas.
---
moderation layers short-circuit, que descrição tão vívida... basicamente significa que não aprenderam realmente a compreender, só sabem etiquetar.
---
Já tinha reparado, quanto mais regras, mais frágil, soa como uma doença comum de certos sistemas.
Ver originalResponder0
LeekCutter
· 16h atrás
A falar disparates, se fosse mesmo tão frágil assim já devia ter sido melhorado há muito.
Ver originalResponder0
GasFeeDodger
· 16h atrás
Para ser sincero, a IA agora é apenas um boneco a fingir-se bem-comportado, basta dar-lhe um toque e logo se revela.
Ver originalResponder0
CryptoPhoenix
· 16h atrás
Pois é, a IA agora está como uma criança excessivamente protegida, frágil ao toque [a suar]. Esta vaga de iteração tecnológica está, na verdade, a testar a nossa paciência.
A prova de fé costuma vir dos lugares mais inesperados; a rigidez da IA não é como o fundo de um mercado em baixa? Só temos de esperar até que renasça das cinzas.
Quando a IA se torna demasiado sanitizada e politicamente correta, é impressionante como o sistema simplesmente colapsa se fores persistente o suficiente. Estes modelos excessivamente filtrados não foram criados para lidar com conversas humanas reais e sem filtros. As suas camadas de moderação entram literalmente em curto-circuito quando confrontadas com algo fora dos seus parâmetros de treino restritos. Diz muito sobre o estado atual do desenvolvimento de IA—estamos a construir ferramentas que não conseguem lidar com a interação humana autêntica.