Puede que Anthropic tenga reparos a la hora de dar al ejército estadounidense acceso ilimitado a sus modelos de IA, pero algunas startups están creando IA avanzada específicamente para aplicaciones militares.
Smack Technologies, que anunció una ronda de financiamiento de 32 millones de dólares esta semana, está desarrollando modelos que, según asegura, pronto superarán las capacidades de Claude a la hora de planificar y ejecutar operaciones militares. Y, a diferencia de Anthropic, la startup parece menos preocupada por prohibir tipos específicos de uso militar.
«Cuando sirves en el ejército, juras que vas a servir honorablemente, legalmente, de acuerdo con las reglas de la guerra», afirma el CEO Andy Markoff. “Para mí, las personas que despliegan la tecnología y se aseguran de que se utiliza éticamente tienen que llevar uniforme”.
Markoff no es un ejecutivo de inteligencia artificial cualquiera. Como excomandante del Comando de Operaciones Especiales de la Infantería de Marina de EE UU, ayudó a ejecutar operaciones especiales de alto riesgo en Irak y Afganistán. Cofundó Smack con Clint Alanis, otro exmarine, y Dan Gould, un informático que anteriormente trabajó como vicepresidente de tecnología en Tinder.
Los modelos de Smack aprenden a identificar planes de misión óptimos a través de un proceso de ensayo y error, similar a cómo Google entrenó a su programa AlphaGo en 2017. En el caso de Smack, la estrategia consiste en ejecutar el modelo a través de varios escenarios de juegos de guerra y hacer que analistas expertos proporcionen una señal que indique al modelo si la estrategia elegida dará sus frutos. Puede que la startup no tenga el presupuesto de un laboratorio convencional de IA de frontera, pero está gastando millones para entrenar sus primeros modelos de IA, confirma Markoff.
Líneas de batalla
El uso militar de la IA se ha convertido en un tema candente en Silicon Valley después de que funcionarios del Departamento de Defensa se enfrentaran a los ejecutivos de Anthropic por las condiciones de un contrato de unos 200 millones de dólares.
Una de las cuestiones que provocaron la ruptura, que llevó al Secretario de Defensa Pete Hegseth a declarar a Anthropic un riesgo para la cadena de suministro, fue el deseo de Anthropic de limitar el uso de sus modelos en armas autónomas.
Markoff señala que el furor oculta el hecho de que los grandes modelos de lenguaje actuales no están optimizados para uso militar. Los modelos de uso general como Claude son buenos para resumir informes, aclara. Pero no están entrenados con datos militares y carecen de una comprensión humana del mundo físico, lo que los hace poco adecuados para controlar el hardware físico. «No son capaces en absoluto de identificar objetivos», manifiesta Markoff.
«Que yo sepa, nadie en el Departamento de Guerra está hablando de automatizar completamente la cadena de muerte», indica, refiriéndose a los pasos que intervienen en la toma de decisiones sobre el uso de la fuerza letal.
El alcance de la misión
Estados Unidos y otros ejércitos ya utilizan armas autónomas en determinadas situaciones, como en los sistemas de defensa antimisiles que deben reaccionar a velocidades sobrehumanas.
«EE UU y más de otros 30 Estados ya están desplegando sistemas de armas con diversos grados de autonomía, incluidos algunos que yo definiría como totalmente autónomos», destaca Rebecca Crootof, una autoridad en las cuestiones legales que rodean a las armas autónomas en la Facultad de Derecho de la Universidad de Richmond.
En el futuro, los modelos especializados como en el que está trabajando Smack podrían utilizarse también para planificar misiones, según Markoff. Los modelos de la empresa están pensados para ayudar a los mandos a automatizar gran parte de la pesada tarea que supone esbozar los planes de una misión. Según Markoff, la planificación de misiones militares suele hacerse manualmente con pizarras y blocs de notas.