📂 Categoría: AI,Law,Tech,anthropic,pentagon,pete-hegseth,defense,defense-department,breaking,donald-trump | 📅 Fecha: 1774386299
🔍 En este artículo:
Un juez federal de San Francisco criticó el martes al Pentágono por intentar incluir a Anthropic en la lista negra por una disputa sobre su IA, en lugar de simplemente contratar otra empresa de IA.
“Esto parece un intento de paralizar a Anthropic”, dijo Lin, designado por Biden, en una audiencia el martes para decidir si se puede mantener la etiqueta de “riesgo de la cadena de suministro” mientras se juzga el caso de Anthropic contra el Departamento de Guerra.
El 3 de marzo, el Secretario de Defensa, Peter Hegseth, informó formalmente a Anthropic que estaba etiquetando a la empresa y sus productos como un riesgo para la cadena de suministro, la primera vez que tal designación se aplicaba a una empresa estadounidense. La designación equivale a poner a Anthropic, el creador de Claude, en una lista negra del gobierno, restringiendo tanto sus contratos como la forma en que se puede utilizar su tecnología.
Antes de la acción, el director ejecutivo de Anthropic, Dario Amodei, anunció públicamente que no aceptaría las demandas de Hegseth de que el Pentágono tuviera acceso irrestricto a sus modelos de IA «para cualquier uso legal». Amodei expresó su preocupación de que un contrato que contenga estos términos podría permitir un uso indebido en la vigilancia estadounidense o conducir al despliegue de la IA de Anthropic en armas totalmente autónomas antes de que sea seguro hacerlo.
Lin, que ha manejado otros casos tecnológicos de alto perfil, dijo que la decisión de designar formalmente a Anthropic como un riesgo para la cadena de suministro era «preocupante» dado que la designación normalmente se reserva para «adversarios del gobierno de Estados Unidos que podrían sabotear sus sistemas tecnológicos».
“DOW podría simplemente dejar de usar a Claude”, dijo Lin, usando las iniciales de “Departamento de Guerra”, el nombre preferido por la administración Trump para el Pentágono. «Parece que fueron más allá porque intentaban castigar a Anthropic».
Anthropic presentó una demanda para bloquear temporal y permanentemente la acción de Hegseth y la orden separada del presidente Donald Trump de que todas las agencias federales dejen de usar la tecnología de Anthropic en un plazo de seis meses. En sus presentaciones legales, Anthropic dijo que la designación “ponía en riesgo cientos de millones de dólares en el corto plazo” debido a la incertidumbre sobre lo que significaba para los contratistas de defensa que también utilizaban a Claude.
«Además de este daño económico inmediato, la reputación de Anthropic y las libertades fundamentales de la Primera Enmienda están bajo ataque», escribieron los abogados de la startup de IA en su denuncia.
Silicon Valley está siguiendo de cerca el caso porque una interpretación amplia de las restricciones del Pentágono podría afectar a socios como Microsoft, que presentó un escrito amicus curiae apoyando a Anthropic. Como contratista gubernamental, Microsoft puede verse obligado a limitar el uso de Claude de Anthropic. En términos más generales, el caso pondrá a prueba hasta dónde puede llegar el gobierno federal para restringir a los proveedores de IA a través de sus poderes de contratación y de seguridad nacional.



