OpenAI quiso prohibir el uso militar de su IA, pero el Pentágono la utilizó a través de Microsoft

El CEO de OpenAI, Sam Altman, sigue en el ojo del huracán luego de que su empresa firmara esta semana un acuerdo con el ejército de Estados Unidos. Los empleados de OpenAI criticaron la medida, que se produjo tras el fracaso del contrato de aproximadamente 200 millones de dólares de Anthropic con el Pentágono, y pidieron a Altman que divulgara más información sobre el acuerdo. En una publicación en redes sociales, Altman admitió que la situación fue «mal manejada».

Aunque este incidente se ha convertido en una noticia importante, puede que solo sea el último y más público ejemplo de OpenAI creando políticas vagas sobre cómo el ejército estadounidense puede acceder a su IA.

En 2023, OpenAI prohibía al ejército acceder a sus modelos de IA

Pero algunos empleados de la compañía descubrieron que el Pentágono ya había empezado a experimentar con Azure OpenAI, una versión de los modelos de OpenAI ofrecida por Microsoft, según dos fuentes familiarizadas con el asunto. En aquel momento, Microsoft llevaba décadas contratando con el Departamento de Defensa. También era el mayor inversionista de OpenAI y tenía una amplia licencia para comercializar la tecnología de la startup.

Ese mismo año, los empleados de OpenAI vieron a funcionarios del Pentágono paseando por las oficinas de la empresa en San Francisco, dijeron las fuentes. Hablaron bajo condición de anonimato, ya que no están autorizados a comentar asuntos de empresas privadas.

Algunos empleados de OpenAI desconfiaban de asociarse con el Pentágono, mientras que otros simplemente estaban confusos sobre lo que significaban las políticas de uso de OpenAI. ¿La política se aplicaba a Microsoft? Si bien las fuentes declaran a WIRED que no estaba claro para la mayoría de los empleados en ese momento, los portavoces de OpenAI y Microsoft refieren que los productos Azure OpenAI no están, y no estaban, sujetos a las políticas de OpenAI.

«Microsoft tiene un producto llamado Azure OpenAI Service que se puso a disposición del Gobierno de los Estados Unidos en 2023 y está sujeto a los términos de servicio de Microsoft», afirmó el portavoz Frank Shaw en una declaración a WIRED. Microsoft declinó comentar específicamente cuándo puso Azure OpenAI a disposición del Pentágono, pero señala que el servicio no fue aprobado para cargas de trabajo gubernamentales «de alto secreto» hasta 2025.

«La IA ya está desempeñando un papel significativo en la seguridad nacional y creemos que es importante tener un asiento en la mesa para ayudar a garantizar que se despliegue de manera segura y responsable», indicó la portavoz de OpenAI, Liz Bourgeois, en un comunicado. Añadió: «Hemos sido transparentes con nuestros empleados a medida que hemos abordado este trabajo, proporcionando actualizaciones periódicas y canales dedicados donde los equipos pueden hacer preguntas y participar directamente con nuestro equipo de seguridad nacional».

El Departamento de Defensa no respondió a la solicitud de comentarios de WIRED.

OpenAI uso militar acuerdo IA 2206807228

El convenio alcanzado por OpenAI establece que “el Departamento de Guerra podrá utilizar el sistema de IA para todos los fines lícitos, de conformidad con la legislación aplicable”.

Las políticas de OpenAI

En enero de 2024, OpenAI actualizó sus políticas para eliminar la prohibición general de uso militar. Varios empleados de OpenAI se enteraron de la actualización de la política a través de un artículo en The Intercept, señalan las fuentes. Más tarde, los directivos de la empresa abordaron el cambio en una reunión de todos los empleados y explicaron que la empresa actuaría con cautela en este ámbito en el futuro.

En diciembre de 2024, OpenAI anunció una asociación con Anduril para desarrollar y desplegar sistemas de IA para «misiones de seguridad nacional». Antes del anuncio, la empresa de Altman comunicó a sus empleados que la asociación tenía un alcance limitado y que solo se ocuparía de cargas de trabajo no clasificadas, según las mismas fuentes. Esto contrasta con el acuerdo que Anthropic había firmado con Palantir, en virtud del cual la IA de Anthropic se utilizaría para tareas militares clasificadas.