Una acalorada disputa entre el Pentágono y Anthropic está suscitando nuevas preguntas sobre cómo se utiliza realmente la tecnología de la startup en el ejército estadounidense. A finales de febrero, Anthropic se negó a conceder al gobierno acceso incondicional a sus modelos de IA Claude, insistiendo en que los sistemas no debían utilizarse para la vigilancia masiva de estadounidenses ni para armas totalmente autónomas.
El Pentágono respondió etiquetando los productos de Anthropic como un «riesgo para la cadena de suministro», lo que llevó a la startup a presentar dos demandas esta semana alegando represalias ilegales por parte de la administración Trump y tratando de anular la designación.
El enfrentamiento, junto con la rápida escalada de la guerra en Irán, ha llamado la atención sobre la asociación de Anthropic con el contratista militar Palantir, que anunció en noviembre de 2024 que integraría Claude en el software que vende a las agencias de inteligencia y defensa estadounidenses. Palantir afirma que la integración de Claude puede ayudar a los analistas a descubrir «ideas basadas en datos», identificar patrones y apoyar la toma de «decisiones informadas en situaciones sensibles al tiempo».
Sin embargo, Palantir y Anthropic han compartido pocos detalles sobre cómo funciona Claude dentro del ejército o qué sistemas del Pentágono dependen de ella, incluso cuando la herramienta de IA al parecer sigue siendo utilizada en algunas operaciones de defensa de EE UU en el extranjero, incluyendo la guerra en Irán. En enero, Claude también habría desempeñado un papel decisivo en la operación militar estadounidense que condujo a la captura del presidente venezolano Nicolás Maduro.
WIRED revisó demostraciones de software de Palantir, documentación pública y registros del Pentágono que, en conjunto, pintan la imagen más clara hasta la fecha de cómo los funcionarios militares estadounidenses pueden estar utilizando chatbots de IA, incluyendo qué tipos de consultas se les están alimentando, los datos que utilizan para generar respuestas y los tipos de recomendaciones que dan a los analistas.
El Departamento de Defensa (DOD) no respondió a la solicitud de comentarios. Palantir y Anthropic declinaron hacer comentarios.
¿Palantir trabaja con el Pentágono?
Los funcionarios militares pueden utilizar Claude para cribar grandes volúmenes de información, según una fuente familiarizada con el asunto. Palantir vende múltiples herramientas de software al Pentágono donde podría llevarse a cabo dicho análisis, pero la compañía nunca ha especificado públicamente cuáles de esos sistemas incorporan o no Claude.
Desde 2017, Palantir ha sido el contratista principal detrás del «Proyecto Maven», también conocido como el equipo interfuncional de guerra algorítmica, una iniciativa del DOD para desplegar IA en escenarios de guerra. Para el proyecto, Palantir desarrolló un producto conocido como «Maven Smart System», a veces llamado simplemente «Maven».
Maven está gestionado por la Agencia Nacional de Inteligencia Geoespacial (NGA), el organismo gubernamental encargado de recopilar y analizar datos de satélite. Agencias de todo el ejército, incluidos el Ejército, la Fuerza Aérea, la Fuerza Espacial, la Armada, el Cuerpo de Marines y el Mando Central de EE UU, que supervisa las operaciones militares en Irán, pueden acceder a Maven. Cameron Stanley, jefe de inteligencia digital y artificial del Pentágono, dijo en una reciente conferencia de Palantir que Maven se está desplegando «en todo el departamento».
Según evaluaciones públicas de Maven publicadas por los militares, la herramienta puede aplicar «algoritmos de visión por computadora» a imágenes tomadas por un «activo basado en el espacio» como un satélite, así como detectar automáticamente objetos susceptibles de ser «sistemas enemigos». Una demostración de Maven mostrada durante la presentación de Stanley en la conferencia muestra la herramienta distinguiendo personas de autos.
