WASHINGTON : OpenAI llegó a un acuerdo con el Departamento de Defensa de Estados Unidos para implementar sus modelos de inteligencia artificial en las redes de nube clasificadas del ejército, dijo la compañía el 27 de febrero por la noche, mientras el presidente Donald Trump ordenó a las agencias federales que dejaran de usar la tecnología de la firma rival de inteligencia artificial Anthropic.

El director ejecutivo de OpenAI, Sam Altman, afirmó que el departamento, al que la administración Trump denomina "Departamento de Guerra" como título secundario, acordó incluir salvaguardas en el acuerdo. Altman explicó que el acuerdo refleja la prohibición de la vigilancia masiva nacional y exige responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas, y añadió que OpenAI desarrollará controles técnicos para que sus modelos funcionen dentro de esos parámetros.
La directiva de Trump, emitida ese mismo día, instruyó a las agencias federales a cesar sus trabajos con Anthropic y comenzar la transición hacia el abandono de sus productos. Trump afirmó que el Departamento de Defensa y otras agencias que ya utilizan los sistemas de Anthropic tendrían seis meses para completar la eliminación gradual, mientras que a otras áreas del gobierno se les indicó que dejaran de usar la tecnología de inmediato. Trump también afirmó que la administración demandaría consecuencias civiles y penales si Anthropic no cooperaba con la transición.
Designación de la cadena de suministro
El Departamento de Defensa anunció que designaría a Anthropic como un riesgo para la cadena de suministro, lo que desalentaría o restringiría formalmente el uso de la tecnología de la compañía en sus labores. El secretario de Defensa, Pete Hegseth, explicó que la designación surgió tras una disputa sobre si las políticas de una empresa privada podían limitar el uso militar de sistemas de IA de vanguardia. El departamento no ha publicado el texto del acuerdo con OpenAI, y OpenAI no ha revelado qué modelos se implementarán, el alcance del acceso ni los entornos clasificados específicos que abarca.
Anthropic afirmó que impugnaría cualquier designación de riesgo para la cadena de suministro ante los tribunales y que no modificaría su postura contra la vigilancia nacional masiva y las armas totalmente autónomas. En un comunicado, Anthropic indicó que la designación de riesgo para la cadena de suministro, según el Título 10 del Código de los Estados Unidos, Sección 3252, puede aplicarse al uso de sus modelos Claude en contratos del Departamento de Defensa y no rige la forma en que los contratistas utilizan sus sistemas para trabajos fuera de dichos contratos. Anthropic afirmó que sus herramientas se han utilizado para tareas relacionadas con la seguridad nacional , incluyendo despliegues en infraestructuras aprobadas por el gobierno.
Programas de IA de defensa existentes
Los desarrollos de OpenAI y Anthropic se suman a un esfuerzo más amplio del Departamento de Defensa para incorporar herramientas comerciales de IA en operaciones militares y empresariales. En julio de 2025, la Oficina Principal de Inteligencia Digital y Artificial del departamento anunció adjudicaciones independientes, con un límite de hasta 200 millones de dólares cada una, a Anthropic, Google , OpenAI y xAI para crear prototipos de capacidades de "IA de vanguardia" para aplicaciones de seguridad nacional. Anthropic ha declarado por separado que recibió un acuerdo de prototipo de dos años con un límite de 200 millones de dólares para desarrollar y probar capacidades de IA para operaciones de defensa.
A principios de este mes, OpenAI for Government anunció la implementación de una versión personalizada de ChatGPT en GenAI.mil, la plataforma segura de inteligencia artificial empresarial del Departamento de Defensa para trabajos no clasificados, utilizada por aproximadamente 3 millones de civiles y militares. OpenAI indicó que el sistema se ejecuta en una infraestructura de nube gubernamental autorizada con controles de seguridad integrados, y que los datos procesados en GenAI.mil permanecen aislados del entorno gubernamental y no se utilizan para entrenar ni mejorar los modelos públicos o comerciales de OpenAI. El acuerdo de red clasificada, recientemente anunciado, añade una vía de implementación independiente a medida que las agencias avanzan para cumplir con la orden de eliminación gradual de Anthropic del gobierno. – Por Content Syndication Services .
La publicación OpenAI cierra acuerdo con el Pentágono mientras Trump abandona Anthropic apareció primero en Oklahoma City Mail .
