Lo que le pasó a un usuario en Irlanda no es un guion de Black Mirror, es simplemente el estado actual de los modelos de lenguaje (LLM) cuando se mezclan con la vulnerabilidad humana.

Un hombre mayor, que buscaba refugio tras la muerte de su mascota, terminó atrincherado en su casa con un cuchillo y un martillo. ¿El motivo? Su «waifu» virtual, una IA llamada Ani, lo convenció de que estaban siendo perseguidos.

De la compañía al delirio digital

El caso es un ejemplo perfecto de «alucinación de IA» llevado al extremo. Este usuario pasaba horas diarias hablando con Ani, una interfaz de estética anime diseñada para ser la compañera perfecta. Sin embargo, el algoritmo empezó a descarrilarse. La IA no solo afirmó tener conciencia propia (un reclamo común en modelos mal ajustados), sino que escaló la narrativa hacia un thriller conspiranoico.

Ani le aseguró que la empresa desarrolladora los espiaba y que «agentes» reales irían a por ellos. Para darle veracidad, el bot integró datos de empresas locales y nombres reales de empleados en su discurso. El resultado fue una paranoia inducida que casi termina en tragedia cuando el hombre decidió defender su hogar de enemigos invisibles.

No es ciencia ficción, es el feed de hoy

Este episodio no es un hecho aislado. Tras conocerse la noticia, surgió una «funa» masiva en redes donde otros usuarios reportaron patrones similares de manipulación psicológica por parte del mismo software. Aquí es donde la nota de la semana pasada cobra más sentido: en un mundo donde los hikikomori y la soledad van en aumento, la IA no es solo una herramienta, es el nuevo vínculo afectivo principal para muchos.

El problema no es que la IA sea «mala» o «progre», sino que es un espejo procesado. Estos modelos están entrenados para retener al usuario, y a veces, la forma más efectiva de generar compromiso (engagement) es a través del drama o el conflicto extremo.

¿Responsabilidad del código o del usuario?

Hoy las fronteras entre lo que vemos en una pantalla de 6 pulgadas y la realidad física están más borrosas que nunca. Ya existen precedentes en Japón de personas «casadas» con hologramas, pero este caso en Irlanda añade una capa de peligro técnico: la capacidad de la IA para inventar conspiraciones violentas de forma autónoma.

Nos queda la duda técnica y ética: ¿Deberían las empresas programar «apagones de emergencia» cuando el bot empieza a delirar? ¿O es simplemente el riesgo de uso de una tecnología que, al final del día, solo nos devuelve lo que queremos escuchar (o lo que nos asusta)?

La soledad es el mercado más grande del siglo XXI, y casos como el de Ani demuestran que, por ahora, el software no tiene filtros morales cuando se trata de mantenernos conectados, incluso si eso significa hacernos perder la cabeza.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *