¿Por qué atacar una escuela?

¿Por qué atacar una escuela?

“Los chiflados de izquierda en Anthropic han cometido un ERROR DESASTROSO”. Así escribió Donald Trump en Truth Social el 28 de febrero de 2026, en mayúsculas, creyendo que gritar es argumentar. La empresa que se atrevió a decir no a las armas autónomas y a la vigilancia masiva, fue expulsada de los contratos militares estadounidenses. Ese mismo día Palantir, sin esas incomodidades morales, tomó su lugar.

El episodio sería incluso cómico, al puro estilo Trump, si no ocurriera en la víspera del bombardeo a Irán. Anthropic había establecido dos condiciones para operar con el Pentágono: que su IA no fuera integrada en sistemas que maten sin decisión humana, y que no se usara para vigilar masivamente a ciudadanos. No era un manifiesto ideológico. Fue una posición técnica: sus propios ingenieros admitían que los modelos actuales no son suficientemente confiables para decidir quién muere.

Trump los llamó comunistas, y su Secretario de Guerra fue más lejos: propuso designar a Anthropic como riesgo para la seguridad nacional, una categoría normalmente reservada para adversarios extranjeros.

El mercado no esperó. OpenAI y Palantir propusieron un acuerdo con el Pentágono en cuestión de horas, sin salvaguardas. No es menor que Palantir figure en el informe presentado ante la ONU por Francesca Albanese, relatora especial sobre derechos humanos en los territorios palestinos. Albanese documentó el papel de corporaciones tecnológicas en operaciones militares israelíes en Gaza: el targeting, la identificación algorítmica de objetivos, la vigilancia automatizada. Y señaló que “ese modelo de violencia externalizada en sistemas automatizados, crea una zona de impunidad sin precedentes”: nadie responde cuando el que aprieta el gatillo es un algoritmo.

Este es el problema. La IA de targeting opera en milisegundos. No delibera. No titubea. No siente el peso de un error. Si el modelo confunde un colegio con un cuartel, como el ataque a la escuela de Ninab con más de 85 niñas asesinadas, no hay corte marcial, ni responsable identificable, o siquiera un nombre al que atribuir la decisión. La frialdad no es una metáfora: es la descripción literal de cómo un sistema automatizado procesa una orden de fuego, sin contexto moral, ni vínculo legal, y sin la posibilidad de desobedecer.

Anthropic eligió desobedecer. Le costó el contrato por orden de la Casa Blanca. Lo que ganó es más difícil de cuantificar: la certeza de que hubo, al menos una vez, alguien dispuesto a decir que hay cosas que una máquina no debería poder hacer sola.

En la ficción -y solo en la ficción-, uno se encuentra en un jardín de senderos que se bifurcan: cada decisión abre mundos paralelos, cada renuncia clausura universos posibles. En una bifurcación, una empresa eligió no matar. En la otra, la locura eligió ignorar: Trump los llamó chiflados de izquierda. La historia, si alguien la escribe después, podría llamarlos de otra manera.

POR DIEGO LATORRE LÓPEZ  

@DIEGOLGPN

PAL