Estados Unidos corta con Anthropic: qué significa el veto a Claude y por qué el choque preocupa más allá de la política

La Inteligencia Artificial suele avanzar en silencio, a golpe de actualizaciones y nuevos modelos. Pero a veces la tecnología deja de ser un asunto de laboratorio y se convierte en un conflicto de Estado. Eso es lo que está ocurriendo con Anthropic, la empresa responsable del modelo Claude, después de que la Administración de Donald Trump ordenara a las agencias federales dejar de usar su tecnología y el secretario de Defensa, Pete Hegseth, anunciara su intención de etiquetar a la compañía como “riesgo en la cadena de suministro” para la seguridad nacional.

Para el ciudadano de a pie, la noticia puede sonar abstracta. Sin embargo, su impacto potencial es fácil de entender: cuando un gobierno decide que una empresa tecnológica es “de riesgo”, no solo pierde contratos públicos. Puede convertirse en un proveedor “incómodo” para cualquiera que trabaje con ese gobierno.

Qué ha pasado, en pocas palabras

Según la información publicada en los últimos días, el choque se origina en una negociación entre Anthropic y el Departamento de Defensa. Anthropic sostiene que estaba dispuesta a seguir trabajando con el Gobierno, pero que se negó a eliminar dos “líneas rojas”:

  • No usar su IA para vigilancia masiva doméstica (es decir, vigilancia interna a gran escala sobre la población).
  • No usarla para armas totalmente autónomas que seleccionen y ataquen objetivos sin humanos tomando la decisión final.

El Gobierno, en cambio, habría exigido acceso “sin restricciones” a los modelos para cualquier uso legal. La disputa escaló hasta el punto de que Trump ordenó el cese del uso de la tecnología de Anthropic en el conjunto de la Administración federal, con una ventana de hasta 6 meses para completar la retirada en Defensa y otros organismos y evitar interrupciones bruscas.

Qué significa “riesgo en la cadena de suministro” y por qué es lo más serio

La parte más delicada no es solo el veto directo. Es la etiqueta anunciada por Hegseth: “supply chain risk” (riesgo en la cadena de suministro). En lenguaje llano, se trata de una designación que puede implicar que contratistas, proveedores e integradores que trabajan con el Ejército o con el Departamento de Defensa no puedan mantener relaciones comerciales con la empresa señalada.

En la práctica, no es lo mismo perder un cliente que ser declarado “problemático” para todo un ecosistema. Muchas compañías viven de contratos con el Gobierno o de proyectos ligados a Defensa. Si deben elegir entre mantener un servicio con Claude o conservar su relación con el Pentágono, la mayoría no se lo pensaría demasiado.

Ese efecto “dominó” es el que explica por qué la noticia se ha interpretado como un aviso al conjunto del sector: el Estado no discute solo un contrato; discute la capacidad de una empresa privada para imponer límites al uso de su tecnología cuando el cliente es el Gobierno.

Qué dice Anthropic: colaboración sí, pero con dos límites

Dario Amodei, CEO de Anthropic, ha defendido públicamente que la empresa apoya el uso de la IA en misiones de defensa y que Claude ya se utiliza en aplicaciones sensibles, como análisis de inteligencia, simulación, planificación operativa o ciberoperaciones. Al mismo tiempo, argumenta que hay usos que pueden socavar valores democráticos o que hoy son técnicamente demasiado arriesgados.

En vigilancia masiva doméstica, la compañía insiste en que la IA podría convertir datos dispersos —que por separado parecen “inofensivos”— en un perfil detallado de cualquier persona, y que esa capacidad está creciendo más rápido que las leyes y los controles. En armas totalmente autónomas, su postura es que los modelos actuales no ofrecen la fiabilidad necesaria y que retirar al humano de la decisión final aumenta riesgos inaceptables.

Qué dice Washington: “las decisiones militares no las toman empresas”

La respuesta desde el Gobierno ha sido abiertamente política. Trump ha publicado mensajes acusando a Anthropic de querer dictar cómo actúa el Ejército y de situar su ideología por encima de la autoridad civil. Hegseth, por su parte, ha defendido que el Departamento de Defensa debe tener acceso completo a los modelos para usos legales y que no se aceptará que una empresa tenga “derecho de veto” sobre decisiones operativas.

El choque, por tanto, no es solo sobre seguridad técnica: es sobre poder. ¿Puede una empresa limitar contractualmente el uso de su herramienta cuando el cliente es el Estado? ¿O el Estado puede forzar a las empresas a aceptar cualquier uso “legal”, incluso si la tecnología no es fiable o el impacto social es enorme?

Efectos inmediatos: agencias fuera y transición de meses

Además del Pentágono, ya hay organismos que han comunicado que abandonan las herramientas de Anthropic. Entre ellos, se ha informado de que el Departamento del Tesoro y la Federal Housing Finance Agency (FHFA) empezaban a terminar el uso de productos de Anthropic, lo que también afectaría a entidades vinculadas al sistema hipotecario como Fannie Mae y Freddie Mac.

La orden contempla un periodo de salida gradual de hasta 6 meses para completar el cambio en Defensa y otras agencias. La intención es no dejar servicios críticos “colgados”, pero el calendario marca una ruptura real: no es una reprimenda simbólica, es una salida ordenada.

¿Puede una empresa “valer cero” por esto?

En redes se ha extendido la idea de que Anthropic podría pasar “de cientos de miles de millones a cero”. Esa frase es más una forma de hablar que un cálculo. Lo verificable es que la compañía venía de anunciar una ronda de financiación gigantesca (en torno a 30.000 millones de dólares) que situaba su valoración alrededor de 380.000 millones. Un golpe reputacional y comercial de este tamaño no borra una empresa en un día, pero sí puede:

  • reducir su margen para operar en sectores regulados,
  • asustar a clientes que dependen de contratos públicos,
  • y abrir una ventana para competidores.

De hecho, algunos informes señalan que OpenAI estaría posicionándose para cubrir parte del hueco en entornos gubernamentales, especialmente en redes clasificadas.

Tabla resumen

Punto claveQué significa para un usuario normal
Orden de TrumpEl Gobierno federal deja de usar Claude y servicios relacionados.
Periodo de transición (hasta 6 meses)No se apaga todo “de golpe”, pero el rumbo es salir.
“Riesgo en cadena de suministro”Puede forzar a empresas vinculadas a Defensa a no trabajar con Anthropic.
Motivo del choque (según Anthropic)Rechazo a vigilancia masiva interna y a armas totalmente autónomas sin humanos.
Consecuencia de fondoSe abre un precedente sobre quién pone límites a la IA: gobiernos o empresas.

Preguntas frecuentes

¿Qué es Anthropic y qué es Claude?
Anthropic es una empresa de Inteligencia Artificial; Claude es su modelo y asistente, usado por empresas y, según la propia compañía, también por organismos de seguridad nacional.

¿Qué implica que EE. UU. deje de usar Claude en agencias federales?
Que organismos públicos deberán migrar a otras alternativas y que el uso de Claude en proyectos ligados al Gobierno puede quedar muy limitado.

¿Qué significa “riesgo en la cadena de suministro” en términos sencillos?
Que el Gobierno puede considerar a una empresa no apta para trabajar dentro del ecosistema de Defensa, afectando también a socios y contratistas.

¿Esto cambia algo para usuarios normales de Claude?
Directamente, no. Pero puede afectar a la reputación de la empresa, a sus alianzas y a su crecimiento en sectores regulados, lo que a medio plazo influye en producto, disponibilidad y negocio.

Fuente: Noticias inteligencia artificial

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×