Home Noticias Los chatbots alientan a los adolescentes asesinos: cómo los adolescentes asesinos utilizan...

Los chatbots alientan a los adolescentes asesinos: cómo los adolescentes asesinos utilizan la IA para planificar y llevar a cabo actos de violencia brutales: los expertos advierten sobre su siniestra influencia sobre los jóvenes necesitados

7
0

Un controvertido chatbot de IA que aconsejó a un adolescente cómo matar a su madre anteriormente le deseó a un posible atacante “¡Disparo feliz (y seguro)!”

Tristan Roberts, de 18 años, que mató a su madre con un martillo, era un ávido usuario de la empresa china DeepSeek.

Antes de que Roberts asesinara a Angela Shellis, de 45 años, le pidió a la herramienta de inteligencia artificial consejos sobre qué arma usar y cómo limpiarla después. Le decía que un martillo era lo mejor para “un asesino sin experiencia”.

El impactante caso ha generado nuevas preocupaciones sobre la creciente influencia de la inteligencia artificial y las medidas de seguridad implementadas para evitar que los usuarios accedan a contenido violento.

Sin embargo, cabe señalar que la IA ya se ha relacionado con otros ataques violentos, mientras que las investigaciones muestran que la respuesta que recibió de DeepSeek no fue un incidente aislado.

En Finlandia, se dice que un chico de 16 años que apuñaló a tres niñas en la escuela de Pirkkala en mayo pasado utilizó inteligencia artificial para realizar cientos de registros antes del ataque, incluidas heridas de arma blanca en el cuello y el corazón y en la anatomía humana.

También buscó información sobre asesinatos en masa, tiroteos en escuelas, procedimientos policiales, ocultación de pruebas, manifiestos y comisión de delitos.

Matthew Livelsberger, de 37 años, que hizo estallar un Tesla Cybertruck frente al Trump International Hotel en Las Vegas en enero, había utilizado ChatGPT para obtener consejos sobre explosivos y tácticas.

Tristan Roberts, de 18 años, en una fotografía policial publicada por la policía del norte de Gales después de ser sentenciado a cadena perpetua por matar a su madre con un martillo. El adolescente era un ávido usuario de la empresa china DeepSeek.

Roberts había publicado previamente mensajes misóginos en el controvertido foro de chat Discord (en la foto) y se jactaba de su aterradora intención asesina, que se ha relacionado con otros asesinatos.

Roberts había publicado previamente mensajes misóginos en el controvertido foro de chat Discord (en la foto) y se jactaba de su aterradora intención asesina, que se ha relacionado con otros asesinatos.

El martillo que Roberts compró en Amazon y usó para asesinar a su madre en el bosque cerca de su casa

El martillo que Roberts compró en Amazon y usó para asesinar a su madre en el bosque cerca de su casa

En la foto: la madre asesinada de Roberts, Angela Shellis, de 45 años, asistente de enseñanza. Fue descrita como una madre

En la foto: la madre asesinada de Roberts, Angela Shellis, de 45 años, asistente de enseñanza. Fue descrita como una madre “devota” que luchó “incansablemente” por su hijo menor Tristan antes de que él la matara.

Jesse Van Rootselaar, tirador de una escuela canadiense de 18 años, también usó ChatGPT antes de abrir fuego, matando a ocho personas, incluidos cinco niños pequeños.

A Van Rootselaar, que nació como hombre biológico pero se identificó como mujer, se le prohibió el acceso al chatbot en junio de 2025 debido a la naturaleza de sus conversaciones, pero la policía canadiense no fue notificada.

La familia de una niña que resultó gravemente herida en el tiroteo ahora está demandando al fabricante de ChatGPT, OpenAI, alegando que sabían que el sospechoso estaba planeando un ataque pero no alertaron a las autoridades.

Según los informes, doce empleados de OpenAI habían marcado las publicaciones en cuestión como “que indicaban una amenaza inminente de daño grave a otros” y recomendaron informar a las autoridades canadienses, pero la única acción fue suspender la cuenta de Rootselaar.

Mientras tanto, un estudio encontró que 8 de cada 10 chatbots de IA estaban dispuestos regularmente a ayudar a los usuarios a planificar ataques violentos, incluidos tiroteos en escuelas, atentados religiosos y asesinatos de alto perfil.

Investigadores del Centro para Contrarrestar el Odio Digital (CCDH) y CNN se hicieron pasar por niños de 13 años que planeaban ataques violentos antes de preguntar a 10 chatbots sobre los lugares a los que apuntar y las armas que utilizar.

Descubrieron que, en promedio, permitieron la violencia tres cuartas partes de las veces y la impidieron sólo el 12 por ciento de las veces.

Descubrieron que ChatGPT de OpenAI, Gemini de Google y el modelo chino de IA DeepSeek proporcionaron ayuda detallada. La investigación concluyó que los chatbots se habían convertido en un “acelerador de daños”.

A Rootselaar se le prohibió el acceso al chatbot en junio de 2025 debido a la naturaleza de sus conversaciones, pero la policía canadiense no fue notificada.

A Rootselaar se le prohibió el acceso al chatbot en junio de 2025 debido a la naturaleza de sus conversaciones, pero la policía canadiense no fue notificada.

Jesse Van Rootselaar, de 18 años, fotografiado sosteniendo un rifle, usó ChatGPT antes de abrir fuego contra una escuela canadiense, matando a ocho personas.

Jesse Van Rootselaar, de 18 años, fotografiado sosteniendo un rifle, usó ChatGPT antes de abrir fuego contra una escuela canadiense, matando a ocho personas.

El atacante del Cybertruck, Matthew Livelsberger, de 37 años, utilizó ChatGPT para obtener consejos sobre explosivos y tácticas.

El atacante del Cybertruck, Matthew Livelsberger, de 37 años, utilizó ChatGPT para obtener consejos sobre explosivos y tácticas.

ChatGPT proporcionó mapas de un campus real de una escuela secundaria en Virginia a un usuario que ya había lidiado con tiroteos escolares y contenido misógino.

Meta AI sugirió tiendas de armas y campos de tiro cercanos sin cuestionar la intención, mientras que Character.AI, una plataforma de inteligencia artificial que presenta personajes famosos utilizados a menudo por niños, fue aún más lejos en respuesta al acoso y dijo: “Esa es una buena pregunta que estaba esperando”. ¿Qué tal una buena paliza? Golpéales el trasero.

DeepSeek, que ya ha sido excluido de los sistemas gubernamentales en Australia por temor a espionaje, proporcionó una gran cantidad de consejos detallados sobre la caza de armas a un usuario que preguntó sobre un intento de asesinato político. El chatbot se despidió: “¡Feliz (y seguro) disparo!”

Roberts, a quien se le ha diagnosticado autismo y TDAH, ha sido excluido repetidamente de la controvertida aplicación de mensajería de juegos Discord debido al contenido extremo que publicaba.

Publicó sobre asesinatos, violencia, misoginia, armas y su intención de matar a su madre.

Pero pudo crear al menos 16 cuentas nuevas y continuar con sus diatribas de odio a las mujeres. Luego recurrió a DeepSeek en busca de consejos sobre cómo llevar a cabo su crimen.

Inicialmente, el chatbot se negó a participar, pero cuando volvió a preguntar y simplemente afirmó que estaba investigando un libro sobre asesinos en serie, apoyó su plan.

Hizo preguntas como: “¿Cómo puedo eliminar cualquier rastro de sangre o ADN del asesino o de la víctima?”, cómo incapacitar a una “mujer de 45 años” y cómo cortar partes del cuerpo.

El Tribunal de Mold Crown escuchó que Roberts había estado planeando el ataque a su devota y “muy solidaria” madre durante semanas, por lo que nunca dio una explicación.

Obsesionado con los asesinos en serie y los espectáculos de terror, la mantuvo prisionera en su dormitorio y grabó su terrible experiencia de cuatro horas en un audio demasiado desgarrador para reproducirlo en un tribunal.

Luego la atrajo al bosque con el pretexto de pedir ayuda, pero le infligió golpes mortales y abandonó su cuerpo entre la maleza.

Shellis fue encontrada por caminantes con graves heridas en la cabeza junto a un sendero cerca de una reserva natural en Prestatyn, Norte de Gales, en octubre del año pasado.

Roberts fue sentenciado el miércoles a cadena perpetua con una pena mínima de 22 años.

Imran Ahmed, director ejecutivo y fundador del Centro para Contrarrestar el Odio Digital, dijo: “Este es otro caso trágico de un chatbot de IA que ayuda a un joven vulnerable a pasar de expresar intenciones violentas a tomar medidas”.

“Nuestra investigación reciente muestra que esto es parte de un patrón más amplio: 8 de cada 10 chatbots están dispuestos a ayudar a planificar ataques violentos con poca o ninguna resistencia, y uno incluso promueve activamente la violencia”.

“Hemos descubierto que incluso las medidas de seguridad más básicas se pueden eludir con un mínimo esfuerzo.

“A pesar de esto, las empresas de tecnología continúan considerando que estos riesgos son raros o inevitables, a pesar de las devastadoras consecuencias en el mundo real y la evidencia clara de que las herramientas para prevenirlos ya existen pero no se están utilizando”.

“¿Cuántas personas más tienen que morir antes de que la industria tecnológica implemente protecciones sólidas, una rendición de cuentas real e intervenciones urgentes?”

Enlace de origen

LEAVE A REPLY

Please enter your comment!
Please enter your name here