La pelea por el uso militar de la inteligencia artificial, como la de OpenAI, en Estados Unidos acaba de sumar un nuevo capítulo. Mientras una parte de la industria marca límites estrictos, otra decidió avanzar con acuerdos formales. En el medio quedó el Departamento de Defensa, que ahora cambia de socio tecnológico.
El CEO de OpenAI, Sam Altman, confirmó un acuerdo con el Pentágono para adaptar sus modelos de IA a sistemas clasificados del gobierno estadounidense. El anuncio llega en plena controversia por la salida de Anthropic como proveedor.
Un contrato con condiciones explícitas
Según lo comunicado, el acuerdo entre OpenAI y el Departamento de Defensa de Estados Unidos incluye dos límites claros:
- No utilizar IA para vigilancia masiva de ciudadanos estadounidenses
- No permitir que la IA controle sistemas de armas autónomos letales sin autorización humana
Altman aseguró que el Pentágono aceptó respetar estas líneas rojas y que habrá equipos dedicados dentro de OpenAI para supervisar el cumplimiento.
El trasfondo de este movimiento es la ruptura previa con Anthropic. La empresa detrás del chatbot Claude perdió un contrato de 200 millones de dólares luego de negarse a flexibilizar sus restricciones éticas. Además fue incluida en una lista de proveedores considerados riesgosos para la seguridad nacional.
Reacciones y tensión en la industria
La decisión generó un fuerte debate en comunidades tecnológicas y redes sociales. Surgió incluso un movimiento que impulsa dejar de usar ChatGPT en señal de apoyo a Anthropic.
Desde el gobierno estadounidense aclararon que los sistemas funcionarán en todos los escenarios legales permitidos por la legislación vigente. Esto abre interrogantes, ya que ciertas normas federales habilitan la recolección de datos en contextos específicos.
Otras grandes tecnológicas también quedaron bajo la lupa. Google había incluido restricciones internas similares, aunque luego modificó su postura. Microsoft sostiene que la supervisión humana es clave en cualquier sistema de armas. Amazon mantiene un enfoque más amplio bajo el concepto de uso responsable.
La sustitución de Anthropic por OpenAI marca un giro importante en la relación entre la industria de IA y el gobierno estadounidense. Mientras una compañía decidió mantener control absoluto sobre los límites de uso, otra decidió negociar bajo condiciones contractuales.
El debate de fondo no parece estar cerca de resolverse. La pregunta ya no es solo qué puede hacer la inteligencia artificial, sino quién define hasta dónde puede llegar cuando entra en juego la seguridad nacional.






