April 2, 2026
Hay personas que utilizan la IA para planificar asesinatos. La pregunta es qué están haciendo las empresas de IA al respecto.

 – La nación
Tecnología

Hay personas que utilizan la IA para planificar asesinatos. La pregunta es qué están haciendo las empresas de IA al respecto. – La nación

El 10 de febrero, una joven de 18 años mató a tiros a su madre y a su hermano. Luego fue al instituto, asesinó a siete personas más y finalmente se suicidó. Lo preocupante es que el autor había hablado con ChatGPT al respecto y OpenAI tuvo la opción de notificar a la policía pero decidió no hacerlo.

¿Qué pasó? cuentan en el Diario de Wall Street que en junio del año pasado, el sistema automatizado de OpenAI descubrió varios mensajes enviados por un usuario a ChatGPT que describían escenarios de violencia armada. Para algunos miembros del personal era muy preocupante que pudiera producirse violencia real. Por lo tanto, hubo un debate interno sobre si se debía notificar a las autoridades canadienses. Finalmente cerraron su cuenta pero no notificaron a nadie. Ahora Las autoridades canadienses los han citado pedir explicaciones.

Hay más. Él Disparos en Tumbler Ridge No es el único caso en el que se utilizó la IA para planificar un crimen. A principios de 2025 Un hombre estacionó un cibertruck lleno de explosivos frente a un hotel de Las Vegas con la intención de detonarlo (aunque al final fue la única víctima). Días antes, el autor Le pregunté a ChatGPT cómo hacer esto.. En este caso, el chatbot no detectó ningún mensaje preocupante, pero lo sabemos porque OpenAI buscó sus mensajes a posteriori.

En Seúl, una mujer ha sido detenida por el presunto asesinato de dos personas por intoxicación por benzodiazepinas. Esto es lo que reveló la investigación. El acusado había ido a ChatGPT. para saber cuál era la dosis peligrosa y qué sucedía cuando se mezclaba con alcohol. Los informes en este caso no son particularmente alarmantes y pueden estar basados ​​en dudas genuinas, pero es otro ejemplo del uso de ChatGPT para cometer un delito.

¿Por qué es importante?. La inteligencia artificial se ha convertido en una especie de confesionario al que le revelamos todo tipo de secretos, incluso los más oscuros. Para algunos, la IA es su amiga, su psicóloga o incluso su amante. Con eso en mente, no es sorprendente que alguien le diga a ChatGPT que va a matar a su familia o que quiere detonar un auto lleno de explosivos. Lo preocupante y en lo que deberíamos centrarnos es en lo que las empresas están haciendo al respecto. De momento no parece suficiente.

¿Están comprometidos? Admitir ante tu psicólogo o psiquiatra que quieres hacer daño a alguien es una de las razones por las que no sólo puedes sino que debes terminar tu relación. Secreto profesional y alertar a las autoridades. Por mucho que utilicemos los chatbots como psicólogos, actualmente no existe ninguna ley que obligue a las empresas de IA a informar de este tipo de interacciones, sino que es una decisión interna. Por tanto, la obligación no es legal sino ética.

Cómo hacer una bomba casera. Casos como el del tirador de Tumbler Ridge no han ocurrido desde la introducción de los chatbots con IA. Las instrucciones para construir bombas caseras existen desde hace décadas. llevar a las autoridades a la cabeza, Incluso antes de que se popularizara el uso de Internet, Manuales de este tipo estaban en circulación. Lo mismo ocurre con el suicidio; No es necesario que le preguntes a ChatGPT, podemos buscarlo en Google o escribir en un foro.

En declaraciones sobre New York TimesUn ex empleado de OpenAI destaca un matiz importante: con un chatbot no se suele hacer una búsqueda simple, pero se puede tener una conversación más larga donde las intenciones son más claras. Teniendo esto en cuenta, puede que sea más fácil detectar casos como el del asesino de Tumbler Ridge, pero también puede haber muchos falsos positivos atribuidos a usuarios que escriben historias ficticias o utilizan la IA como tal. Juego de roles. Complicado.

En Xataka | Invertir en centros de datos para IA es una locura y está empeorando. mucho peor

Foto de portada | Pexels, desempaquetar