Donald Trump, presidente de Estados Unidos, ordenó a todas las agencias federales dejar de usar de inmediato la tecnología de Anthropic. La decisión ocurre en medio de un conflicto entre la empresa de inteligencia artificial y el Departamento de Defensa. El Pentágono ha buscado presionar a la compañía para que elimine sus políticas y mecanismos de seguridad, con el objetivo de utilizar su IA con fines militares sin restricciones.
“Los locos izquierdistas de Anthropic han cometido un error desastroso al intentar ejercer presión sobre el Departamento de Guerra y obligarlo a obedecer sus términos de servicio en lugar de nuestra Constitución. Su egoísmo está poniendo en riesgo nuestra seguridad nacional. Por lo tanto, ordeno a todas las agencias federales del gobierno de los Estados Unidos que cesen inmediatamente todo uso de la tecnología de Anthropic”, escribió Trump en redes sociales.
El mandatario aseguró que su administración no volverá a hacer negocios con la compañía. Añadió que el proceso de eliminación será gradual, con periodos de transición que podrían extenderse hasta seis meses para aquellas dependencias (como el Departamento de Defensa) que utilizan los sistemas de inteligencia artificial de la empresa en distintos niveles de operación.
A mediados del año pasado, la firma tecnológica se convirtió en socia de la agencia de defensa estadounidense tras obtener un contrato por 200 millones de dólares. El acuerdo contemplaba la colaboración de ambas partes en el desarrollo de capacidades de inteligencia artificial destinadas a la seguridad nacional. Sin embargo, la relación comenzó a deteriorarse debido a las demandas del gobierno para que la empresa eliminara las restricciones de uso que impiden que sus sistemas sean empleados en ciertas prácticas de inteligencia, así como en el diseño, planificación u operación de armamento.
Las tensiones se intensificaron después de la publicación de diversos reportes que advertían que el Pentágono habría utilizado el modelo de lenguaje Claude en una operación militar que culminó con la captura del expresidente venezolano Nicolás Maduro. De acuerdo con un reporte de The Wall Street Journal, el despliegue de esta tecnología en el operativo se realizó a través de Palantir Technologies, dentro del marco del acuerdo de colaboración previamente firmado con el Departamento de Defensa.
Fuentes citadas por el medio estadounidense afirmaron que un alto ejecutivo de la empresa de IA se puso en contacto con directivos de Palantir para preguntar sobre el supuesto uso de su sistema en la operación. “Se planteó de una manera que implicaba que podrían desaprobar el uso de su software, porque obviamente hubo fuego real durante esa operación y varias personas recibieron impactos de bala”, señalaron las fuentes consultadas.
Intensa presión contra Anthropic
Las políticas de uso de la compañía prohíben que Claude sea utilizado para facilitar actos de violencia, participar en el desarrollo de armas o apoyar operaciones de vigilancia invasiva. Ante ello, la agencia militar ha intensificado la presión para que la empresa elimine esas condiciones y permita el uso de su inteligencia artificial “para todos los fines legales”.
Como parte de esa estrategia, el Departamento de Guerra amenazó con poner fin al contrato de 200 millones de dólares firmado con la empresa tecnológica. También planteó la posibilidad de designarla como un “riesgo para la cadena de suministro”, una clasificación que implicaría que cualquier compañía interesada en hacer negocios con las fuerzas armadas estadounidenses tendría que cortar previamente cualquier relación comercial con la firma.
Sean Parnell, portavoz del Pentágono, defendió esta postura argumentando que el país “requiere que nuestros socios sean capaces de ayudar a nuestros militares a ganar en cualquier guerra. En última instancia, se trata de nuestras tropas y de la seguridad del pueblo estadounidense”.
