El Departamento de Defensa de Estados Unidos ha declarado que otorgar a Anthropic acceso continuado a su infraestructura de combate podría “introducir un riesgo inaceptable” en sus cadenas de suministro. Esta afirmación se encuentra en un documento judicial presentado en respuesta a la demanda de la compañía de inteligencia artificial contra el gobierno. Anthropic decidió impugnar la designación de riesgo en la cadena de suministro que le fue asignada al negarse a permitir que su modelo se utilizara para la vigilancia masiva y el desarrollo de armas autónomas.
Preocupaciones del Departamento de Defensa
En el documento, el Departamento de Defensa explica que su secretario, Pete Hegseth, incorporó una cláusula en los contratos de servicios de inteligencia artificial que permite a la agencia utilizar tecnologías para cualquier propósito legal. Anthropic se opuso a estos términos, lo que llevó al Pentágono a cuestionar si la empresa podía considerarse realmente un “socio de confianza” en iniciativas “altamente sensibles”.
El documento revela: “Los sistemas de IA son extremadamente vulnerables a la manipulación, y Anthropic podría intentar inhabilitar su tecnología o alterar de manera preventiva el comportamiento de su modelo, ya sea antes o durante operaciones de combate en curso, si la empresa considera que se están cruzando sus ‘líneas rojas’ corporativas”. Esta situación ha llevado al departamento a considerar que se trata de un riesgo inaceptable para la seguridad nacional.
Acciones del gobierno federal
Debido a estas preocupaciones, el presidente Donald Trump ordenó a las agencias federales que dejaran de utilizar la tecnología de Anthropic. La empresa ha solicitado al tribunal que emita una mediación preliminar que suspenda la prohibición mientras desafía la designación de riesgo en la corte. Aunque los clientes de Anthropic pueden continuar colaborando en proyectos no relacionados con la defensa, la empresa advierte que esta etiqueta podría costarle miles de millones en ingresos.
No está claro si Anthropic aún se encuentra en negociaciones para alcanzar un nuevo acuerdo con el gobierno, como se había informado antes de presentar su demanda. Desde entonces, empresas como Microsoft, Google y OpenAI habían presentado informes de amigos de la corte en apoyo a Anthropic.
Contexto y antecedentes
Esta situación ha puesto de relieve las tensiones entre el sector privado de la inteligencia artificial y las preocupaciones del gobierno sobre su uso en contextos militares y de seguridad. La evolución de las relaciones entre Anthropic y las entidades gubernamentales podría tener un impacto significativo en el futuro de la inteligencia artificial y su regulación en Estados Unidos.
Preguntas Frecuentes
- ¿Cuál es el riesgo asociado con Anthropic? El Departamento de Defensa considera que la empresa podría manipular su tecnología, lo que representa un riesgo para la seguridad nacional.
- ¿Qué acciones ha tomado recientemente el gobierno federal? El presidente Trump ordenó a las agencias que dejen de utilizar la tecnología de Anthropic debido a preocupaciones sobre su fiabilidad.
- ¿Qué significa la designación de riesgo en la cadena de suministro para Anthropic? Esta designación podría resultar en la pérdida de miles de millones de dólares en ingresos para la empresa al limitar su capacidad para trabajar en proyectos relacionados con la defensa.