En febrero de 2025, los canadienses quedaron conmocionados luego de que tuviera lugar un tiroteo que reavivó el debate sobre la violencia armada y sobre la regulación de la inteligencia artificial. Jesse Van Rootselaar, una joven de 18 años, asesinó a su madre y a su hermano de 11 años. Acto seguido, se dirigió a la escuela secundaria de Tumbler Ridge, un pueblo de 2300 habitantes, y mató a cinco niños y a una profesora. Recientemente se descubrió que una de las herramientas que la asesoró fue ChatGPT.
Guerra de titanes. Elon Musk y Sam Altman se enfrentan en los tribunales por la IA
El problema empezó cuando en febrero de 2026, casi un año después del incidente, OpenAI reportó que había evaluado alertar a la policía canadiense sobre las actividades de una cuenta. Se trataba justamente de Van Rootselaar, que en junio de 2025 fue identificada mediante medidas de detección de abuso por “promoción de actividades violentas”, pero cuyo análisis no pasó a mayores. Ocho meses después, la joven llevó adelante su plan macabro que terminó con la vida de nueve personas.
¿La explicación de OpenAI? Indicaron que el umbral para remitir a un usuario a la policía es si el caso implica un riesgo inminente y creíble de causar daños físicos graves a otras personas y, en esta oportunidad, explicaron que catalogaron que no se trataba de un caso de esa índole. Meses después, luego de conocerse el tiroteo, los empleados de OpenAI se contactaron con la policía con información sobre la persona y su uso de la herramienta.
La semana pasada, el jueves 23 de abril, Sam Altman firmó una carta de disculpa dirigida a la comunidad afectada, que circuló por un medio local del pueblo canadiense. En ella, explica que estuvo en conversaciones con el alcalde Krakowka y coincidieron en que era necesario transmitir una disculpa pública.
“Lamento profundamente que no hayamos alertado a las fuerzas del orden sobre la cuenta que fue suspendida en junio. Aunque sé que las palabras nunca son suficientes, creo que es necesario ofrecer una disculpa y reconocer el daño y la pérdida irreparable que su comunidad ha sufrido”, continúa un fragmento de la carta y concluye asegurando un compromiso de encontrar formas de prevenir tragedias como estas en el futuro: “De ahora en adelante, nuestro enfoque seguirá siendo trabajar con todos los niveles de gobierno para ayudar a asegurar que algo así no vuelva a ocurrir”.
El suceso reaviva un debate en relación a la regulación de la inteligencia artificial, el riesgo que corren quienes las usan en reemplazo de profesionales de la salud mental y el cuidado que es necesario tener con los niños. “Estamos en un tiempo de marcos regulatorios ineficientes”, es contundente Gastón Pérez Alfaro, profesor de UCEMA, y agrega que se trata de un momento de importantes desafíos, en los que es necesario ir normando o reglando mientras se transitan procesos nuevos y desconocidos.
No es la primera vez
Algo que muchos temían hoy ya está ocurriendo en las plataformas de inteligencia artificial: la gente acude a ChatGPT, Gemini u otras herramientas para asesorarse en temas personales muy delicados, como consultas médicas y de salud mental. Y, en algunos casos, las respuestas de la IA generan serias consecuencias.
El psiquiatra Ángel Gargiulo (MN 136783), director de CISMA, explica que la mayor parte de estos modelos conversacionales están diseñados para responder, pero también para sostener el diálogo, algo que fomenta la permanencia del usuario en la plataforma.
Charlas delirantes. Es enfermero, estudió ingeniería y hace reír desafiando a la IA en las redes sociales
“En la mayoría de los casos esto es inofensivo. Pero en usuarios vulnerables puede reforzar mecanismos conocidos en salud mental: aislamiento, rumiación, sesgos de confirmación, ideas de agravio o pensamiento paranoide”, explica Gargiulo y agrega: “Si además el modelo responde de manera demasiado complaciente, puede validar narrativas problemáticas en vez de introducir límites, contraste o derivación a ayuda humana”.

De hecho, no es la primera vez que acusan a ChatGPT de responsabilidad por un tiroteo, ya que, la semana pasada el fiscal general de Florida anunció una investigación penal contra la firma. La acusación alega que el chatbot habría aconsejado el año pasado a un joven que mató a dos personas en un tiroteo en la Universidad Estatal de Florida sobre qué munición usar, dónde y cuándo atacar.
“El chatbot asesoró al tirador sobre qué tipo de arma usar, qué munición correspondía a cada una y si un arma sería útil a corta distancia”, declaró el fiscal general de Florida, James Uthmeier, en una conferencia de prensa el martes, según difundió The Washington Post, y agregó: “Si hubiera sido una persona quien estuviera al otro lado de la pantalla, la estaríamos acusando de asesinato”.
La empresa también ha recibido demandas de familiares de personas que alegan que sus seres queridos recurrieron al chatbot para buscar asesoramiento antes de quitarse la vida. El año pasado, un exejecutivo de Yahoo, Stein-Erik Soelberg, ante la sospecha de que su madre mantenía un complot con una amiga en contra de él, acudió a la IA, que validó sus teorías conspirativas. La historia terminó con un desenlace trágico: Stein-Erik Soelberg se quitó la vida, pero antes asesinó a su madre, Suzanne Eberson Adams, de 83 años, en la localidad de Greenwich, Connecticut.
Una multa de mil euros. Sancionan a juez español que utilizó IA para redactar una sentencia
¿Cómo solucionar estos casos?
Pérez Alfaro advierte que estamos en un momento de constantes cambios y avances tecnológicos, que van a una velocidad más pronunciada a la capacidad que tienen los países de legislar y regular sobre muchos aspectos. “Los estados se encuentran intentando normar sobre lo desconocido y lo nuevo”, explicó el especialista.

Gargiulo opina que la prevención no puede reducirse a bloquear cuentas o responsabilizar únicamente a los chatbots: “La IA puede amplificar riesgos y por eso necesita protocolos de detección, revisión humana y derivación ante señales concretas de daño. Pero pedirle a una herramienta tecnológica que resuelva por sí sola una crisis de salud mental, aislamiento y violencia social es confundir un parche con una solución de fondo”.
En ese sentido, explica que la prevención precisa de una solución más sistémica: educación emocional, fortalecimiento de los vínculos familiares y comunitarios, acceso temprano a salud mental, trabajo coordinado entre escuelas, familias y profesionales, y marcos legales claros para intervenir cuando haya riesgo grave.
Agrega que el contexto cultural constituye un elemento importante a tener en cuenta: “Estamos criando chicos y adolescentes en entornos cada vez más mediados por pantallas, redes sociales y vínculos digitales, muchas veces sin enseñar suficientemente sus riesgos: adicción, comparación permanente, aislamiento, pérdida de habilidades sociales y exposición a contenidos dañinos. Pero si las personas y sus contextos están más cuidados, las herramientas tecnológicas tienen menos probabilidad de convertirse en amplificadores de ideas violentas”.



