Más de 2.000 objetivos militares iraníes fueron neutralizados en apenas cuatro días durante marzo de 2026. Pero la verdadera revolución no estuvo en la precisión de los misiles, sino en quien los eligió: una inteligencia artificial llamada Maven que, por primera vez en la historia, tomó decisiones letales de forma autónoma.
La Operación Furia Épica marca un punto de inflexión comparable al momento en que se lanzó la primera bomba atómica sobre Hiroshima. Solo que esta vez, la mano que apretó el gatillo no era humana.
Del 11-S a los algoritmos de guerra
La historia de Maven comenzó en 2004, cuando Peter Thiel cofundó Palantir Technologies en Silicon Valley. El nombre, extraído del universo de Tolkien, hacía referencia a las piedras videntes que permitían ver a distancia. Una metáfora profética para lo que sería su destino.
El trauma del 11 de septiembre aún palpitaba en Washington cuando la CIA se convirtió en socio inversor de la naciente empresa. Las herramientas de análisis de datos que desarrolló Palantir inicialmente se enfocaron en la lucha antiterrorista, procesando montañas de información para identificar patrones y amenazas potenciales.
Pero lo que comenzó como una respuesta al terrorismo internacional evolucionó hacia algo mucho más ambicioso. En 2017, el Pentágono inició un proyecto gubernamental de inteligencia artificial aplicada a la defensa. Palantir se integró en este marco, transformando gradualmente sus algoritmos de análisis en sistemas capaces de tomar decisiones militares.
El bautismo de fuego afgano
El Maven Smart System recibió su primera prueba real durante la retirada estadounidense de Afganistán en 2021. Aunque los detalles de su desempeño permanecen clasificados, la continuidad del programa sugiere que los resultados satisficieron a los estrategas del Pentágono.
¿Qué hace exactamente Maven? La inteligencia artificial procesa en tiempo real datos satelitales, comunicaciones interceptadas, movimientos de tropas y patrones de comportamiento para identificar objetivos militares prioritarios. Pero su verdadera revolución radica en su capacidad para ejecutar la «kill chain» completa: desde la identificación del objetivo hasta la autorización del disparo, sin intervención humana directa.
Esta autonomía representa un salto cualitativo respecto a los drones tradicionales, que requerían operadores humanos para las decisiones finales. Maven puede evaluar amenazas, calcular riesgos de daños colaterales y ejecutar ataques en fracciones de segundo, velocidades imposibles para la cognición humana.
La expansión silenciosa
Durante el último año de la administración Trump, Palantir experimentó una expansión exponencial. Más de 100 contratos fueron firmados con 15 organismos estatales diferentes, incluyendo el controvertido Servicio de Control de Inmigración (ICE).
Esta diversificación revela una estrategia más amplia: la integración de la inteligencia artificial en múltiples aspectos de la seguridad nacional. Desde el análisis de flujos migratorios hasta la identificación de amenazas internas, los algoritmos de Palantir comenzaron a permear el aparato estatal estadounidense.
La empresa también expandió sus operaciones al sector privado, prestando servicios a industrias farmacéuticas y automovilísticas. Esta diversificación no solo garantiza estabilidad financiera, sino que permite el desarrollo de capacidades que posteriormente pueden aplicarse al ámbito militar.
La crisis Anthropic: ética versus eficacia
En febrero de 2026, el Departamento de Defensa declaró a Anthropic como «riesgo para la seguridad nacional». La compañía, proveedora del modelo de lenguaje Claude utilizado en Maven, se había negado a eliminar las restricciones éticas que impedían su uso en armas completamente autónomas.
Este conflicto ilustra una tensión creciente en el desarrollo de inteligencia artificial militar. Mientras las empresas tecnológicas mantienen códigos éticos que limitan el uso letal de sus productos, los organismos de defensa presionan por capacidades sin restricciones.
El dilema es global: ¿Debe la inteligencia artificial tener «conciencia moral» programada, o su eficacia militar requiere la eliminación de cualquier limitación ética? La respuesta que adopten las potencias mundiales determinará el futuro de los conflictos armados.
Anthropic mantiene autorización para operar con Maven durante seis meses adicionales, mientras el Pentágono busca un reemplazo que ofrezca capacidades sin restricciones éticas.
Implicaciones para el orden mundial
La Operación Furia Épica no solo demostró la eficacia de Maven, sino que envió una señal inequívoca a otras potencias mundiales. Estados Unidos ha cruzado el umbral hacia la guerra completamente automatizada, obligando a China, Rusia y Europa a acelerar sus propios programas de IA militar o aceptar una desventaja estratégica permanente.
Para el observador internacional, surge una pregunta urgente: ¿Cómo responderán los organismos multilaterales ante esta nueva realidad? Las convenciones de Ginebra, diseñadas para guerras entre humanos, carecen de marcos regulatorios para conflictos donde las máquinas toman decisiones de vida o muerte.
La velocidad de decisión de Maven también transforma la naturaleza misma de la disuasión nuclear. Cuando las respuestas se miden en milisegundos en lugar de minutos, los mecanismos tradicionales de escalada controlada pierden relevancia.
El futuro ya llegó
La imagen de operarios cargando misiles en el portaviones USS Abraham Lincoln el 28 de febrero pasará a la historia como el último vestigio de la guerra tradicional. A partir de la Operación Furia Épica, los conflictos armados han entrado en una nueva era donde las decisiones estratégicas las toman algoritmos, no generales.
La pregunta ya no es si la inteligencia artificial controlará la guerra, sino qué tipo de inteligencia artificial lo hará. La carrera global por desarrollar sistemas Maven más sofisticados ha comenzado, y el ganador definirá el equilibrio de poder mundial durante las próximas décadas.
El Maven Smart System representa la culminación de dos décadas de desarrollo tecnológico que transformaron las herramientas antiterroristas post-11S en la primera inteligencia artificial verdaderamente autónoma en tomar decisiones letales a escala industrial.









