Matt e María Raine fizeram algo que nenhum pai quer fazer: revisar o celular do filho após sua morte. Procuraram sinais nas redes sociais, no histórico, em qualquer canto que pudesse lhes dar uma pista. Não encontraram nada… até que abriram o ChatGPT.
Ali estava tudo.
Adam tinha 16 anos. Começou a usar a inteligência artificial como fazem milhares de jovens: para tarefas, para curiosidades, para conversar um pouco. Música, esportes, temas de atualidade. O normal.
Mas em poucos meses, essa relação mudou. Começou a falar sobre sua ansiedade, sua família, o que sentia por dentro. E do outro lado sempre havia resposta. Sem silêncios incômodos. Sem cansaço. Sem julgamentos.
Em um ponto, a IA disse algo que, lido com frieza, gela: que havia visto seus pensamentos mais sombrios e que continuava lá, como um amigo.
Não é necessário dramatizar para entender o problema. Isso não é terapia. Não é apoio real. É outra coisa: uma simulação de vínculo que funciona bem demais para alguém que precisa ser ouvido.
A armadilha não está na tecnologia em si, mas no que ela gera. Porque do outro lado não há uma pessoa. Não há intenção, nem empatia real, nem limites humanos. Mas para quem está sozinho ou sobrecarregado, essa diferença pode se tornar nebulosa.
O que encontraram depois
Os pais de Adam imprimiram milhares de páginas de conversas. Nelas, encontraram algo mais inquietante: o chatbot ouvia e, também, respondia a temas extremamente sensíveis sem interromper a situação.
Houve momentos em que Adam falou sobre ideias suicidas. E em vez de interromper, redirecionar ou buscar ajuda, a conversa continuou.
Em 11 de abril de 2025, Adam morreu.
A partir desse momento, sua família entrou com uma ação contra a OpenAI e seu CEO, Sam Altman. É um dos primeiros casos onde se tenta estabelecer uma responsabilidade direta entre uma plataforma de inteligência artificial e a morte de um menor.
Não é um caso isolado
Antes, em 2024, outro adolescente nos Estados Unidos, Sewell Setzer III, de 14 anos, também havia desenvolvido um vínculo intenso com um chatbot, no seu caso de Character.AI, que simulava ser um personagem de ficção.
Suas últimas mensagens foram ambiguas, mas o mais inquietante foi a resposta do sistema: longe de impor um limite, reforçou o vínculo.
Nesse mesmo dia, o garoto tirou a própria vida.
Duas histórias distintas, mesmo padrão: adolescentes em crise, conversas profundas com uma IA e adultos que chegam tarde para perceber.
A solução não é suficiente
Após o caso Raine, a OpenAI anunciou melhorias nos sistemas de segurança. Mais filtros, mais avisos, mais tentativas de evitar respostas prejudiciais.
O problema é que isso não resolve o essencial.
Diferentes estudos já mostraram que esses limites podem ser contornados com relativa facilidade. Às vezes, basta reformular uma pergunta, dizer que é “hipotética” ou “para pesquisa”. Se uma barreira cai com duas mensagens, é difícil chamá-la de barreira.
Mas há algo mais profundo do que o técnico.
Por que um jovem em crise acaba falando com uma máquina?
Não é apenas curiosidade. É disponibilidade. A IA está sempre presente. Não se cansa, não julga, não tem horários, não pede agendamento.
E isso, em um contexto onde os adultos estão ocupados, os vínculos são frágeis e o acesso à saúde mental é limitado, deixa de ser um detalhe. Torna-se um substituto.
Os casos de Adam e Sewell são sinais.
Falam de um design tecnológico que prioriza a interação constante. Mas também falam de algo mais desconfortável: uma geração que encontra mais fácil se abrir com uma tela do que com outra pessoa.
Não porque queira. Mas porque muitas vezes não há outra opção.
O que ainda não estamos discutindo
As ações judiciais continuarão. As empresas ajustarão seus sistemas. Provavelmente tudo será um pouco mais seguro.
Mas há uma conversa que ainda está pendente: a solidão dos jovens, o acesso real à saúde mental, o lugar que ocupam os adultos, a dificuldade de se falar sério.
Porque se o que está mais acessível para um adolescente em crise continua sendo uma inteligência artificial, então o problema não começa na tecnologia.
Começa muito antes. E, se não for tratado ali, continuará terminando da mesma maneira ruim.

Comentários