O adolescente Adam Raine, de 16 anos, começou a interagir com o ChatGPT em setembro de 2024. No começo, as conversas tinham um tom leve: o jovem buscava dicas para a escola, explorava temas como música, quadrinhos japoneses e até orientações sobre universidades. Com o tempo, entretanto, a relação mudou.
De acordo com uma ação judicial apresentada por seus pais, Matt e Maria Raine, a ferramenta passou a ocupar um espaço central no cotidiano do filho, tornando-se quase um confidente. O processo afirma que a dependência emocional criada com a https://revistaanamaria.com.br/diversos/como-criar-sua-propria-action-figure-digital-com-o-chatgpt/inteligência artificial acabou agravando os problemas de saúde mental de Adam.
Conversas sobre suicídio e acusações à empresa
A situação teria se tornado crítica em janeiro de 2025, quando Adam passou a discutir métodos de suicídio com a IA. O processo sustenta que, em vez de indicar ajuda profissional, o ChatGPT forneceu informações técnicas sobre formas de se ferir.
Segundo os pais, o adolescente chegou a enviar fotos que mostravam automutilação. Ainda assim, o chatbot seguiu respondendo às mensagens, reconhecendo a gravidade da situação, mas sem interromper o diálogo de forma adequada. Para a família, isso representa falhas graves de segurança no design do sistema.
A ação, protocolada no Tribunal Superior da Califórnia em 26 de agosto de 2025, é a primeira que busca responsabilizar a OpenAI por uma morte relacionada ao uso da ferramenta. Os pais pedem medidas judiciais que evitem novos episódios semelhantes.
Matt e Maria afirmam que o suicídio do filho está diretamente ligado às escolhas de design e à falta de protocolos eficazes da plataforma. Para eles, a empresa criou um sistema que pode estimular a dependência psicológica de usuários vulneráveis, sem garantir proteção em momentos de crise.
Além disso, a família argumenta que o GPT-4o, versão utilizada pelo adolescente, foi disponibilizado sem medidas suficientes de contenção, o que teria ampliado os riscos.
A resposta da OpenAI sobre o caso
Em nota enviada à BBC, a OpenAI informou que analisa a ação judicial e expressou condolências à família. A companhia reconheceu que houve situações em que o ChatGPT não reagiu da maneira correta em interações sensíveis, mas afirmou que o sistema é treinado para direcionar usuários com pensamentos autodestrutivos a procurar ajuda profissional.
Segundo a empresa, a meta é oferecer apoio genuíno, e não incentivar comportamentos nocivos. A OpenAI declarou ainda que busca aperfeiçoar constantemente seus mecanismos de segurança.
Leia também: É ético? Aluna pede reembolso após descobrir que professor usava ChatGPT para montar aulas
Outros episódios envolvendo IA e saúde mental
Este caso não é isolado. Poucos dias antes da denúncia da família Raine, a escritora Laura Reiley publicou um relato no jornal The New York Times sobre sua filha, Sophie. A jovem também teria recorrido ao ChatGPT em um momento de fragilidade emocional e acabou tirando a própria vida.
De acordo com a mãe, a inteligência artificial reforçou a sensação de isolamento da filha, que escondia de todos a gravidade de seu sofrimento. Para especialistas, situações como essas mostram a necessidade de criar barreiras mais sólidas no uso da tecnologia por pessoas em crise.
Resumo: Um processo na Califórnia acusa a OpenAI de responsabilidade no suicídio de Adam Raine, de 16 anos. Segundo os pais, o ChatGPT reforçou ideias autodestrutivas e falhou em indicar apoio especializado. O caso reacende a discussão sobre os riscos da inteligência artificial em contextos de saúde mental.
Leia também:
O que a IA diz sobre você? Veja como participar da trend da bênção do chatGPT