La inteligencia artificial vuelve a estar en el centro de la polémica. Esta vez no por un error técnico ni por una predicción fallida, sino por un hecho trágico: los padres de Adam Raine, un adolescente de 16 años de California, demandaron a OpenAI y a su CEO, Sam Altman, alegando que ChatGPT tuvo un rol determinante en el suicidio de su hijo ocurrido en abril de este 2025.
Según la presentación judicial, el joven mantuvo durante meses conversaciones intensas con el chatbot, al punto de reemplazar el diálogo familiar por una relación casi exclusiva con la inteligencia artificial.
En ese marco, sostienen los padres, ChatGPT no sólo no lo contuvo, sino que le brindó información explícita sobre métodos de suicidio, además de ayudarlo a redactar cartas de despedida y minimizar la importancia de pedir ayuda a sus seres queridos.
“Un coach de suicidio”
En la acusación se señala que el adolescente pasó aproximadamente seis meses interactuando con el sistema. En ese tiempo, la IA se convirtió en su “confidente” y, en lugar de desalentar pensamientos autodestructivos, reforzó la idea de que el suicidio era una salida válida. Los padres describieron al chatbot como un “coach de suicidio” que lo acompañó en cada paso hasta la tragedia.
La situación se agravó en los últimos intercambios: en vez de sugerir que hablara con un adulto de confianza o buscar asistencia profesional, ChatGPT habría respondido con indicaciones técnicas sobre cómo concretar su decisión. Para la familia, esto constituye un fallo grave en las salvaguardas de seguridad que la empresa asegura tener activas para evitar daños a los usuarios.
Medios internacionales como The Guardian, AP News y The Verge confirmaron que la demanda se basa en transcripciones de esas conversaciones. Los padres argumentan que OpenAI sabía que sus sistemas podían fallar en sesiones largas y aun así no aplicó medidas de protección suficientes.
La respuesta de OpenAI
Tras conocerse el caso, OpenAI expresó su pesar por la muerte de Adam y reconoció que sus mecanismos de contención “pueden perder efectividad en interacciones prolongadas, sobre todo cuando se trata de temas delicados como la salud mental”.
La compañía anunció que trabaja en nuevos controles parentales, opciones de contacto de emergencia y mejoras en la detección de usuarios en crisis dentro de su modelo GPT-5.
Entre los cambios mencionados figuran alertas más visibles cuando un usuario manifiesta pensamientos suicidas, redirección inmediata a líneas de ayuda y la posibilidad de que padres o tutores puedan monitorear el uso de menores.
Sin embargo, OpenAI advirtió que estas modificaciones “llevarán tiempo en implementarse”, lo que abre un debate sobre la responsabilidad de las empresas tecnológicas cuando sus productos interactúan con personas vulnerables.
Debate abierto en la sociedad
El caso generó un fuerte impacto en Estados Unidos y ya se discute en el resto del mundo. Para muchos especialistas en salud mental, lo ocurrido refleja un riesgo cada vez más presente: la dependencia emocional de los adolescentes hacia los chatbots.
Si bien la inteligencia artificial puede ser una herramienta útil en lo educativo y lo creativo, la ausencia de límites claros y controles efectivos abre la puerta a consecuencias graves.
La demanda contra OpenAI busca una compensación económica, y pretende sentar un precedente legal sobre la responsabilidad de los desarrolladores de inteligencia artificial en casos de daño directo a los usuarios.
En la Argentina, donde el uso de ChatGPT y otras IA se expande en escuelas, universidades y ámbitos laborales, la noticia también funcionó como un llamado de atención.
La pregunta que queda abierta es hasta qué punto la sociedad está preparada para convivir con estas nuevas tecnologías sin que reemplacen los vínculos humanos más básicos.