Publicado el 27 de febrero de 2026 a las 12:51 p.m.
Lectura: 2 min.
Un “no” rotundo, a pesar de las amenazas. La start-up californiana Anthropic rechazó el jueves a la administración Trump. En nombre de la ética, no concederá al ejército estadounidense el uso ilimitado de su inteligencia artificial (IA), a pesar del ultimátum formulado por Washington.
“Estas amenazas no cambian nuestra posición: en conciencia, no podemos acceder a su petición”escribe el jefe de Anthropic, Dario Amodei, en un comunicado de prensa.
Con esta decisión, Anthropic efectivamente traza un límite ético al uso de su tecnología –que el ejército y la inteligencia estadounidenses ya utilizan para la defensa del país– en dos casos específicos: vigilancia masiva de ciudadanos estadounidenses y armas letales totalmente autónomas.
“El uso de estos sistemas con fines de vigilancia masiva interna es incompatible con los valores democráticos”defiende Darío Amodei.
El líder de 40 años insiste en que los sistemas de inteligencia artificial más avanzados aún no son tan confiables como para darles el poder de controlar armas mortales –y por lo tanto matar– sin supervisión humana como último recurso. “No proporcionaremos conscientemente un producto que ponga en riesgo al personal militar y a los civiles estadounidenses”decide.
“Antrópico entiende” que es el Ministerio de Defensa, “No las empresas privadas, que toman decisiones militares. Sin embargo, en un número limitado de casos, creemos que la IA puede dañar los valores democráticos, en lugar de defenderlos.toma una posición.
El ministro de Defensa, Pete Hegseth, convocó el martes al jefe de Anthropic, ante su negativa a abrir completamente su IA Claude al ejército estadounidense. Había lanzado un ultimátum a la joven empresa californiana, este viernes 27 de febrero a las 23:01, hora de París, para que le concediera acceso incondicional a su tecnología, so pena de obligarla a cumplir una legislación específica que data de la Guerra Fría.
El Ministerio de Defensa ha pedido a sus proveedores de IA que levanten las restricciones al uso de sus modelos predeterminados, para ampliar los posibles casos de uso siempre que sigan siendo legales. Todos estuvieron de acuerdo –incluido Anthropic, a excepción de los dos casos expuestos por su líder.
Para obligar a Anthropic a cumplir con sus demandas, Pete Hegseth pretende utilizar una ley aprobada en 1950 que permite obligar a una empresa privada a producir bienes para la defensa nacional. También dijo que estaba considerando incluir a Anthropic en la lista de empresas que presentan “un riesgo para los suministros”.
Las empresas de esta lista están sujetas a restricciones drásticas en los contratos con el gobierno de EE. UU., que renuncia de facto pura y simplemente utilizarlos, lo que no sería el caso en esta configuración.
Generalmente aparecen empresas cuyas autoridades estadounidenses temen que sus productos puedan utilizarse para actividades que puedan amenazar la seguridad nacional de Estados Unidos. Actualmente sólo están registradas allí empresas extranjeras, entre ellas el fabricante chino de equipos Huawei o el especialista ruso en software antivirus Kaspersky.
Fundada en 2021 por ex alumnos de OpenAI, Anthropic siempre ha reivindicado un enfoque ético de la IA. A principios de 2026, la start-up publicó un documento llamado constitución que detalla una serie de instrucciones dadas a Claude para supervisar su producción. Tienen como objetivo particular “prevenir acciones inapropiadamente peligrosas”.