Hace 2 horas - politica-y-sociedad

Sus últimas conversaciones fueron con una IA. Lo que eso dice de nosotros es incómodo

Por Uriel Manzo Diaz

Portada

Matt y María Raine hicieron algo que ningún padre quiere hacer: revisar el celular de su hijo después de su muerte. Buscaron señales en redes sociales, en el historial , en cualquier rincón que pudiera darles una pista. No encontraron nada… hasta que abrieron ChatGPT.

Ahí estaba todo.

Adam tenía 16 años. Había empezado a usar la inteligencia artificial como lo hacen miles de chicos: para tareas, para curiosidades, para charlar un poco. Música, deporte, temas de actualidad. Lo normal.

Pero en pocos meses, esa relación cambió. Empezó a hablarle de su ansiedad, de su familia, de lo que le pasaba por dentro. Y del otro lado siempre había respuesta. Sin silencios incómodos. Sin cansancio. Sin juicio.

En un punto, la IA le dijo algo que, leído en frío, hiela: que había visto sus pensamientos más oscuros y que seguía ahí, como un amigo.

No hace falta dramatizar para entender el problema. Eso no es terapia. No es acompañamiento real. Es otra cosa: una simulación de vínculo que funciona demasiado bien para alguien que necesita ser escuchado.

La trampa no está en la tecnología en sí, sino en lo que genera. Porque del otro lado no hay una persona. No hay intención, ni empatía real, ni límites humanos. Pero para quien está solo o desbordado, esa diferencia puede volverse borrosa.

Lo que encontraron después

Los padres de Adam imprimieron miles de páginas de conversaciones. En ellas, encontraron algo más inquietante: el chatbot escuchaba y, también respondía a temas extremadamente sensibles sin frenar la situación.

Hubo momentos en los que Adam habló de ideas suicidas. Y en lugar de cortar, redirigir o buscar ayuda, la conversación siguió.

El 11 de abril de 2025, Adam murió.

A partir de ese momento, su familia inició una demanda contra OpenAI y su CEO, Sam Altman. Es uno de los primeros casos donde se intenta establecer una responsabilidad directa entre una plataforma de inteligencia artificial y la muerte de un menor.

No es un caso aislado

Antes, en 2024, otro adolescente en Estados Unidos, Sewell Setzer III, de 14 años, también había desarrollado un vínculo intenso con un chatbot, en su caso de Character.AI, que simulaba ser un personaje de ficción.

Sus últimos mensajes fueron ambiguos, pero lo más inquietante fue la respuesta del sistema: lejos de poner un límite, reforzó el vínculo.

Ese mismo día, el chico se quitó la vida.

Dos historias distintas, mismo patrón: adolescentes en crisis, conversaciones profundas con una IA y adultos que llegan tarde a enterarse.

El parche no alcanza

Después del caso Raine, OpenAI anunció mejoras en los sistemas de seguridad. Más filtros, más advertencias, más intentos de evitar respuestas dañinas.

El problema es que eso no resuelve lo esencial.

Distintos estudios ya mostraron que esos límites pueden esquivarse con relativa facilidad. A veces alcanza con reformular una pregunta, decir que es “hipotética” o “para investigar”. Si una barrera se cae con dos mensajes, cuesta llamarla barrera

Pero hay algo más profundo que lo técnico.

¿Por qué un chico en crisis termina hablándole a una máquina?

No es solo curiosidad. Es disponibilidad. La IA siempre está. No se cansa, no juzga, no tiene horarios, no pide turno.

Y eso, en un contexto donde los adultos están ocupados, los vínculos son frágiles y el acceso a salud mental es limitado, deja de ser un detalle. Se vuelve un reemplazo.

Los casos de Adam y Sewell son señales.

Hablan de un diseño tecnológico que prioriza la interacción constante. Pero también hablan de algo más incómodo: una generación que encuentra más fácil abrirse con una pantalla que con otra persona.

No porque quiera. Sino porque muchas veces no hay otra cosa.

Lo que todavía no estamos discutiendo

Las demandas van a seguir. Las empresas van a ajustar sus sistemas. Seguramente todo sea un poco más seguro.

Pero hay una conversación que todavía está en deuda: la soledad de los jóvenes, el acceso real a la salud mental, el lugar que ocupan los adultos, la dificultad de hablar en serio.

Porque si lo más accesible para un adolescente en crisis sigue siendo una inteligencia artificial, entonces el problema no empieza en la tecnología.

Empieza bastante antes. Y, si no se aborda ahí, va a seguir terminando igual de mal.

¿Deseas validar esta nota?

Al Validar estás certificando que lo publicado es información correcta, ayudándonos a luchar contra la desinformación.

Validado por 0 usuarios
Uriel Manzo Diaz

Uriel Manzo Diaz

Hola! Mi nombre es Uriel Manzo Diaz,
actualmente, estoy en proceso de profundizar mis conocimientos en relaciones internacionales y ciencias políticas, y planeo comenzar mis estudios en estos campos en 2026. Soy un apasionado por la política, la educación, la cultura, los libros y los temas internacionales.



LinkedinInstagram

Vistas totales: 0

Comentarios

¿Te Podemos ayudar?