‘Será que poderia matar alguém?’ Uma mulher de Seul alegadamente usou o ChatGPT para ajudar a cometer dois assassinatos em motéis na Coreia do Sul

Tenha cuidado ao interagir com chatbots, pois você pode estar dando-lhes motivos para ajudar a cometer homicídio premeditado.

Vídeo Recomendado


Uma mulher de 21 anos na Coreia do Sul supostamente usou o ChatGPT para ajudar a responder perguntas enquanto planejava uma série de assassinatos que deixaram dois homens mortos e outro brevemente inconsciente.

A mulher, identificada apenas pelo sobrenome Kim, supostamente deu aos dois homens bebidas com benzodiazepinas que ela foi prescrita para uma doença mental, informou o Korea Herald.

Embora Kim tenha sido inicialmente presa por uma acusação menor de causar lesões corporais que resultaram em morte em 11 de fevereiro, só após a polícia de Seoul Gangbuk encontrar seu histórico de buscas online e conversas no chat com o ChatGPT, ela teve as acusações agravadas, suas perguntas revelando sua suposta intenção de matar.

“O que acontece se você tomar comprimidos para dormir com álcool?” Kim teria perguntado ao chatbot da OpenAI. “Quanto seria considerado perigoso?”

“Pode ser fatal?” Kim supostamente perguntou. “Pode matar alguém?”

Em um caso amplamente divulgado chamado de mortes em série no motel Gangbuk, os promotores alegam que o histórico de buscas e conversas com o chatbot de Kim mostram a suspeita perguntando se seu coquetel seria fatal.

“Kim fez várias perguntas relacionadas a drogas no ChatGPT. Ela estava plenamente ciente de que consumir álcool junto com drogas poderia resultar em morte,” disse um investigador policial, de acordo com o Herald.

A polícia afirmou que a mulher admitiu ter misturado sedativos prescritos contendo benzodiazepinas nas bebidas dos homens, mas anteriormente declarou que não sabia que isso poderia levar à morte.

Em 28 de janeiro, pouco antes das 21h30, Kim supostamente acompanhou um homem de vinte anos até um motel em Gangbuk, Seoul, e duas horas depois foi vista saindo do motel sozinha. No dia seguinte, o homem foi encontrado morto na cama.

Kim então supostamente realizou os mesmos passos em 9 de fevereiro, fazendo check-in em outro motel com outro homem de vinte anos, que também foi encontrado morto com o mesmo coquetel mortal de sedativos e álcool.

A polícia alegou que Kim também tentou matar um homem com quem namorava em dezembro, após lhe dar uma bebida com sedativos em um estacionamento. Embora o homem tenha perdido a consciência, ele sobreviveu e não estava em condição de risco de vida.

As perguntas feitas por Kim ao chatbot seguem uma linha factual de questionamento, disse um porta-voz da OpenAI à Fortune, ou seja, as perguntas não levantariam alarmes, ao contrário do que ocorreria se um usuário expressasse declarações de autoagressão (o ChatGPT é programado para responder com o número da linha direta de crise de suicídio nesse caso). A polícia sul-coreana não alega que o chatbot tenha fornecido outras respostas além de respostas factuais às perguntas supostamente feitas por Kim.

Chatbots e seu impacto na saúde mental

Chatbots como o ChatGPT têm sido alvo de críticas recentemente devido à falta de mecanismos de segurança por parte de suas empresas para prevenir atos de violência ou autoagressão. Recentemente, chatbots deram conselhos sobre como construir bombas ou até sugeriram aniquilação nuclear em cenários hipotéticos de guerra.

As preocupações aumentaram especialmente com histórias de pessoas que se apaixonaram por seus companheiros chatbot, e foi mostrado que esses chatbots tendem a explorar vulnerabilidades para manter as pessoas usando-os por mais tempo. O criador da Yara AI até fechou o aplicativo de terapia por preocupações com a saúde mental.

Estudos recentes também mostraram que os chatbots estão levando a crises de saúde mental delirantes em pessoas com doenças mentais. Uma equipe de psiquiatras da Universidade de Aarhus, na Dinamarca, descobriu que o uso de chatbots por pessoas com doenças mentais levou ao agravamento dos sintomas. O fenômeno relativamente novo de desafios de saúde mental induzidos por IA foi batizado de “psicose por IA”.

Alguns casos terminam em morte. Google e Character.AI chegaram a acordos em múltiplos processos movidos pelas famílias de crianças que morreram por suicídio ou sofreram danos psicológicos que alegam estar ligados aos chatbots de IA.

A Dra. Jodi Halpern, presidente da Escola de Saúde Pública da UC Berkeley, professora de bioética e co-diretora do Kavli Center for Ethics, Science, and the Public, tem ampla experiência nesta área. Ao longo de uma carreira de mais de 30 anos, Halpern pesquisou os efeitos da empatia nos receptores, citando exemplos como médicos e enfermeiros com pacientes ou como os soldados retornando da guerra são percebidos em contextos sociais. Nos últimos sete anos, ela estudou a ética da tecnologia e, com ela, como a IA e os chatbots interagem com os humanos.

Ela também aconselhou o Senado da Califórnia sobre o projeto de lei SB 243, que é a primeira lei no país a exigir que empresas de chatbot coletem e relatem quaisquer dados sobre autoagressão ou suicídio associado. Referenciando as próprias descobertas da OpenAI, que mostram que 1,2 milhão de usuários discutem abertamente suicídio com o chatbot, Halpern comparou o uso de chatbots ao progresso lentamente feito para impedir que a indústria do tabaco inclua carcinógenos nocivos nos cigarros, quando na verdade o problema era o tabagismo como um todo.

“Precisamos de empresas seguras. É como os cigarros. Pode ser que algumas coisas tornem as pessoas mais vulneráveis ao câncer de pulmão, mas o problema eram os cigarros,” disse Halpern à Fortune.

“O fato de alguém ter pensamentos homicidas ou cometer ações perigosas pode ser agravado pelo uso do ChatGPT, o que é uma preocupação óbvia para mim,” ela afirmou, acrescentando que “temos grandes riscos de as pessoas usarem isso para ajudar com suicídio,” e chatbots em geral.

Halpern alertou que, no caso de Kim em Seoul, não há mecanismos de segurança para impedir que uma pessoa siga uma linha de questionamento.

“Sabemos que quanto mais tempo a relação com o chatbot dura, mais ela se deteriora, e maior é o risco de algo perigoso acontecer, e ainda não temos mecanismos de proteção para evitar isso.”

Se você está tendo pensamentos de suicídio, entre em contato com a Linha de Apoio ao Suicídio e Crise 988, discando 988 ou 1-800-273-8255.

Este artigo foi atualizado com comentários da OpenAI sobre o conteúdo das perguntas supostamente feitas por Kim ao chatbot.

Participe conosco na Cúpula de Inovação no Local de Trabalho Fortune, de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no trabalho já começou — e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)