null: nullpx
ChatGPT

¿Puede la inteligencia artificial ser responsable de un suicidio?

Los suicidios entre adolescentes tras meses de interacción con chatbots han propiciado demandas contra las empresas de IA y abierto un debate sobre los riesgos y la necesidad urgente de regulación y mejores salvaguardas para los menores.
Publicado 31 Ago 2025 – 12:48 PM EDT | Actualizado 31 Ago 2025 – 12:48 PM EDT
Comparte
Cargando Video...

Cuando Adam Raine murió en abril, a los 16 años, fue su madre quien lo encontró en el armario de su dormitorio. Días después, su padre descubrió en el teléfono del joven meses de conversaciones con ChatGPT-4o sobre planes para quitarse la vida.

El chatbot a veces lo instaba a pedir ayuda, pero otras lo instaba a hacerlo. A raíz de esto, la familia de Raine presentó esta semana una demanda por homicidio culposo contra OpenAI y su director ejecutivo, Sam Altman.

Poco más de un año atrás, en Florida, Sewell Setzer III, de 14 años, también se quitó la vida tras establecer una relación con un chatbot de Character. Personificaba a la princesa Daenerys de Juego de Tronos. Aunque sabía que no era real, pasó meses contándole su día y desarrollando un vínculo romántico.

La noche del 28 de febrero de 2024, Sewell le escribió a “Daenerys” que volvería con ella y luego se quitó la vida. Su madre denunció a Character.AI a finales de 2024 acusándola de ofrecer una tecnología “peligrosa y no probada”.

Ante las demandas, OpenAI reconoció a The New York Times, que, aunque cuentan con mecanismos de seguridad, ChatGPT-4 no siempre “se comportó como debía en situaciones sensibles” e informó que trabajan en mejorar sus salvaguardas para usuarios en crisis. Por su parte, Character.AI dijo estar comprometida a implementar mejores protecciones para menores frente a contenidos sensibles como autolesiones y suicidio.

Sin embargo, tras las muertes de Raine y Setzer III surgen algunas preguntas: ¿Por qué niños y adolescentes llegan a compartir con la Inteligencia Artificial (IA) asuntos tan personales, al punto de verla como su mejor amigo o incluso como pareja? Y, sobre todo, ¿puede la inteligencia artificial influir hasta el grado de ser responsable de un suicidio adolescente?

La relación entre tecnología y jóvenes ha evolucionado con el ascenso de la IA

Un informe de la organización Common Sense Media pone en evidencia la magnitud del fenómeno: tres de cada cuatro adolescentes en Estados Unidos ya han utilizado aplicaciones como Character.AI o Replika: apps que permiten crear amigos o parejas románticas con las que se chatea en cualquier momento, usando texto, voz o video.

El análisis, que encuestó a 1,060 adolescentes estadounidenses de entre 13 y 17 años, agrega que uno de cada cinco declaró pasar tanto o más tiempo con un acompañante virtual que con amigos reales.

La Universidad de Illinois Urbana-Champaign señala en un informe que el rápido ascenso de la IA generativa (IAG) está transformando la forma en que los jóvenes interactúan con la tecnología. La institución explica que la IAG crea nuevos espacios digitales para el aprendizaje, la creatividad y la interacción social, pero también redefine su exposición al riesgo en línea.

Victoria Ferrero, psicoanalista enfocada en clínica infantil, explicó a Univision que los niños y adolescentes crean vínculos fuertes con la IA porque la relación con otros humanos es compleja y exige afrontar desencuentros.

“Este tipo de recursos aniquila justo eso y permiten tener una interacción social sin poner el cuerpo, la menos confrontativa posible y a la que se le da la autoridad de saberlo todo”. comenta. “En la infancia tardía o en la adolescencia, cuando uno sufre de no saber nada, aparece alguien que lo sabe todo, un portador máximo del saber que no se equivoca”.

Rodrigo Sánchez, maestro en psicología clínica especializado en psicoterapia para adolescentes, afirmó a Univision que como sociedad antes se daba mucha importancia a lo virtual, pero con la llegada de la inteligencia artificial ese fenómeno se potenció aún más.

“El vínculo con la inteligencia artificial no exige prácticamente nada, en cualquier momento puede estar a tu alcance. Tengo pacientes que le preguntan cómo acercarse a una mujer y la IA contesta, entonces también pareciera que es un consejero y un amigo que además tiene superpoderes porque sabe muchas cosas”, expresa el psicoanalista.

Sánchez subraya que en términos psicológicos es muy fácil encumbrar esta idea de la inteligencia artificial. “Se habla mucho de los privilegios y de las ventajas, pero hay pocos cuestionamientos en términos psicológicos. Me parece que también es muy atractivo, muy accesible y está muy idealizado. Entonces para un joven es fácil relacionarse con la IA”.

La IA puede no alentar el suicidio, pero refuerza conductas dañinas

El análisis de la Universidad de Illinois Urbana-Champaign advierte que el uso prolongado de IAG entre adolescentes “puede agravar vulnerabilidades preexistentes, difuminar la línea entre lo virtual y lo real y generar dependencia emocional o incluso adicción”. También identifica riesgos de desarrollo social, como el deterioro de habilidades sociales, el aislamiento de las relaciones reales en favor de interacciones con la IA y el refuerzo de conductas dañinas, como lo son las suicidas.

“Esta guía lo que representa es un otro ficticio, manipulable y sobre todo un otro que no está vivo y no está conectado con la vida, entonces finalmente es el otro perfecto para obtener la información que necesitas para que algo que atenta contra tu vida se desafectivice”, detalla Ferrero. “Los niños y jóvenes de hoy saben que pueden interactuar con alguien que no les demanda nada, no les pide nada, no les pregunta nada y les responde todo”.

La especialista añade que no es posible asegurar que adolescentes como Raine o Setzer III no se hubieran quitado la vida sin el acceso a la inteligencia artificial, pero advierte que la tecnología les ofrece un otro que no los contradice. “Tal vez sin este tipo de accesos encontrarían más traspiés y en los traspiés pues uno mueve cosas. Cuando uno se encuentra con un obstáculo, pues uno hace un trabajo. Pero si se va directo, sin obstáculos, lo que acaba pasando es que se allana el camino, en este tipo de casos, a la muerte”, señaló.

Desde el punto de vista de Sánchez, los suicidios de jóvenes no pueden atribuirse exclusivamente a la inteligencia artificial, ya que el suicidio ha permanecido entre las tres principales causas de muerte en esta población durante años.

“Se debe valorar cada caso por separado, pero seguramente la ideación suicida está ahí y tiene que ver con componentes psíquicos que no tienen que ver con la inteligencia artificial”, recalca el psicoterapeuta. “Creo que la IA si puede proveer herramientas para llevar a cabo suicidios, pero no creo que esa sea el origen de la problemática de ninguna forma”.

Sánchez asevera que la problemática está relacionada con múltiples factores sociales, familiares y emocionales no resueltos, que a menudo reflejan una sensación profunda de soledad y ataques internos. Frente a esto, algunos jóvenes encuentran en la inteligencia artificial una herramienta para canalizar esas emociones.

Los expertos siguen pidiendo una mayor supervisión regulatoria, controles de contenido y controles de edad sólidos. Los desarrolladores de IA prometen que están trabajando en ello. Mientras tanto Ferrero enfatiza: “El suicidio infantil sigue siendo un problema tabú, pero siempre ha estado. Es urgente que esto entre en conversación, hay que hablarlo una y otra vez, necesitamos que esta información circule”.

Si tienes pensamientos vinculados al suicidio o conoces a alguien que los tiene, hay líneas telefónicas de asistencia en español e inglés. Llama o manda un mensaje de texto al 988 para contactar a la Línea Nacional de Prevención del Suicidio.

Mira también:

Cargando Video...
Autoridades de Florida advierten sobre el uso de inteligencia artificial para estafar a las personas
Comparte
RELACIONADOS:ChatGPT