Há cerca de 2 horas - politica-e-sociedade

"Suas últimas conversas foram com uma IA. O que isso diz sobre nós é desconfortável."

Por Uriel Manzo Diaz

Portada

Matt e María Raine fizeram algo que nenhum pai quer fazer: revisar o celular do filho após sua morte. Procuraram sinais nas redes sociais, no histórico, em qualquer canto que pudesse lhes dar uma pista. Não encontraram nada… até que abriram o ChatGPT.

Ali estava tudo.

Adam tinha 16 anos. Começou a usar a inteligência artificial como fazem milhares de jovens: para tarefas, para curiosidades, para conversar um pouco. Música, esportes, temas de atualidade. O normal.

Mas em poucos meses, essa relação mudou. Começou a falar sobre sua ansiedade, sua família, o que sentia por dentro. E do outro lado sempre havia resposta. Sem silêncios incômodos. Sem cansaço. Sem julgamentos.

Em um ponto, a IA disse algo que, lido com frieza, gela: que havia visto seus pensamentos mais sombrios e que continuava lá, como um amigo.

Não é necessário dramatizar para entender o problema. Isso não é terapia. Não é apoio real. É outra coisa: uma simulação de vínculo que funciona bem demais para alguém que precisa ser ouvido.

A armadilha não está na tecnologia em si, mas no que ela gera. Porque do outro lado não há uma pessoa. Não há intenção, nem empatia real, nem limites humanos. Mas para quem está sozinho ou sobrecarregado, essa diferença pode se tornar nebulosa.

O que encontraram depois

Os pais de Adam imprimiram milhares de páginas de conversas. Nelas, encontraram algo mais inquietante: o chatbot ouvia e, também, respondia a temas extremamente sensíveis sem interromper a situação.

Houve momentos em que Adam falou sobre ideias suicidas. E em vez de interromper, redirecionar ou buscar ajuda, a conversa continuou.

Em 11 de abril de 2025, Adam morreu.

A partir desse momento, sua família entrou com uma ação contra a OpenAI e seu CEO, Sam Altman. É um dos primeiros casos onde se tenta estabelecer uma responsabilidade direta entre uma plataforma de inteligência artificial e a morte de um menor.

Não é um caso isolado

Antes, em 2024, outro adolescente nos Estados Unidos, Sewell Setzer III, de 14 anos, também havia desenvolvido um vínculo intenso com um chatbot, no seu caso de Character.AI, que simulava ser um personagem de ficção.

Suas últimas mensagens foram ambiguas, mas o mais inquietante foi a resposta do sistema: longe de impor um limite, reforçou o vínculo.

Nesse mesmo dia, o garoto tirou a própria vida.

Duas histórias distintas, mesmo padrão: adolescentes em crise, conversas profundas com uma IA e adultos que chegam tarde para perceber.

A solução não é suficiente

Após o caso Raine, a OpenAI anunciou melhorias nos sistemas de segurança. Mais filtros, mais avisos, mais tentativas de evitar respostas prejudiciais.

O problema é que isso não resolve o essencial.

Diferentes estudos já mostraram que esses limites podem ser contornados com relativa facilidade. Às vezes, basta reformular uma pergunta, dizer que é “hipotética” ou “para pesquisa”. Se uma barreira cai com duas mensagens, é difícil chamá-la de barreira.

Mas há algo mais profundo do que o técnico.

Por que um jovem em crise acaba falando com uma máquina?

Não é apenas curiosidade. É disponibilidade. A IA está sempre presente. Não se cansa, não julga, não tem horários, não pede agendamento.

E isso, em um contexto onde os adultos estão ocupados, os vínculos são frágeis e o acesso à saúde mental é limitado, deixa de ser um detalhe. Torna-se um substituto.

Os casos de Adam e Sewell são sinais.

Falam de um design tecnológico que prioriza a interação constante. Mas também falam de algo mais desconfortável: uma geração que encontra mais fácil se abrir com uma tela do que com outra pessoa.

Não porque queira. Mas porque muitas vezes não há outra opção.

O que ainda não estamos discutindo

As ações judiciais continuarão. As empresas ajustarão seus sistemas. Provavelmente tudo será um pouco mais seguro.

Mas há uma conversa que ainda está pendente: a solidão dos jovens, o acesso real à saúde mental, o lugar que ocupam os adultos, a dificuldade de se falar sério.

Porque se o que está mais acessível para um adolescente em crise continua sendo uma inteligência artificial, então o problema não começa na tecnologia.

Começa muito antes. E, se não for tratado ali, continuará terminando da mesma maneira ruim.

Deseja validar este artigo?

Ao validar, você está certificando que a informação publicada está correta, nos ajudando a combater a desinformação.

Validado por 0 usuários
Uriel Manzo Diaz

Uriel Manzo Diaz

Olá! Meu nome é Uriel Manzo Diaz, atualmente estou em processo de aprofundar meus conhecimentos em relações internacionais e ciências políticas, e planejo começar meus estudos nesses campos em 2026. Sou apaixonado por política, educação, cultura, livros e temas internacionais.

LinkedinInstagram

Visualizações: 0

Comentários

Podemos te ajudar?