Casi 150 jueces retirados se ponen del lado de Anthropic en la lucha contra el Pentágono

 | Law,Tech,anthropic,pentagon

📂 Categoría: Law,Tech,anthropic,pentagon | 📅 Fecha: 1773817848

🔍 En este artículo:

Un grupo de casi 150 jueces retirados se ha sumado a la lista de partidarios de Anthropic en su lucha contra el Pentágono.

En un escrito presentado el martes, 149 jueces federales y estatales retirados dijeron que la caracterización por parte del Departamento de Guerra de la empresa de IA como un «riesgo para la cadena de suministro» era infundada. Anthropic es el creador de Claude LLM.

Los jueces escribieron que el departamento “malinterpretó la ley e ignoró los procedimientos necesarios” y que tenían el deber de calificar la etiqueta como ilegal.

“Más fundamentalmente, como cuestión práctica, nadie está tratando de obligar al Departamento a celebrar un contrato con Anthropic”, escribieron los jueces. «Por el contrario, Anthropic y el Departamento ya han acordado que el Departamento no está interesado en los servicios de Anthropic en la forma que Anthropic está dispuesto a brindarles».

“En cambio, Anthropic sólo pide que no sea castigado por su salida”, agregaron.

Los jueces concluyeron que el ministerio es libre de elegir a su contratista. Pero no puede utilizar la ley para «castigar a Anthropic en sus tratos con el resto del mundo, incluidas otras agencias gubernamentales cuyas funciones no están relacionadas con la defensa nacional y los negocios privados».

Este expediente es el último avance en varias semanas de intercambios entre Anthropic y el Ministerio de Defensa, rebautizado como Ministerio de Guerra.

El 27 de febrero, el presidente Donald Trump ordenó a las agencias federales que dejaran de utilizar la tecnología de Anthropic, calificándola de «empresa de inteligencia artificial de izquierda radical».

El secretario de Defensa, Pete Hegseth, añadió en un mensaje X que ningún contratista, proveedor o socio militar estadounidense debería tener ninguna actividad comercial con Anthropic, calificándolo de «riesgo para la cadena de suministro de seguridad nacional».

En respuesta, Anthropic dijo en un comunicado más tarde ese día que estaba «profundamente entristecido» por los acontecimientos, y agregó: «Creemos que esta designación sería legalmente incorrecta y sentaría un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno».

El abogado de Anthropic dijo en una conferencia el 10 de marzo que el departamento estaba presionando a los clientes de la empresa para que cambiaran a proveedores de IA competidores y que su decisión de incluir a Anthropic en la lista negra estaba causando «un daño real e irreparable» a la empresa.

Los representantes de Anthropic y el Departamento de Guerra no respondieron a las solicitudes de comentarios de Business Insider.

Un grupo de casi 150 jueces retirados se ha sumado a la lista de partidarios de Anthropic en su lucha contra el Pentágono.

En un escrito presentado el martes, 149 jueces federales y estatales retirados dijeron que la caracterización por parte del Departamento de Guerra de la empresa de IA como un «riesgo para la cadena de suministro» era infundada. Anthropic es el creador de Claude LLM.

Los jueces escribieron que el departamento “malinterpretó la ley e ignoró los procedimientos necesarios” y que tenían el deber de calificar la etiqueta como ilegal.

“Más fundamentalmente, como cuestión práctica, nadie está tratando de obligar al Departamento a celebrar un contrato con Anthropic”, escribieron los jueces. «Por el contrario, Anthropic y el Departamento ya han acordado que el Departamento no está interesado en los servicios de Anthropic en la forma que Anthropic está dispuesto a brindarles».

“En cambio, Anthropic sólo pide que no sea castigado por su salida”, agregaron.

Los jueces concluyeron que el ministerio es libre de elegir a su contratista. Pero no puede utilizar la ley para «castigar a Anthropic en sus tratos con el resto del mundo, incluidas otras agencias gubernamentales cuyas funciones no están relacionadas con la defensa nacional y los negocios privados».

Este expediente es el último avance en varias semanas de intercambios entre Anthropic y el Ministerio de Defensa, rebautizado como Ministerio de Guerra.

El 27 de febrero, el presidente Donald Trump ordenó a las agencias federales que dejaran de utilizar la tecnología de Anthropic, calificándola de «empresa de inteligencia artificial de izquierda radical».

El secretario de Defensa, Pete Hegseth, añadió en un mensaje X que ningún contratista, proveedor o socio militar estadounidense debería tener ninguna actividad comercial con Anthropic, calificándolo de «riesgo para la cadena de suministro de seguridad nacional».

En respuesta, Anthropic dijo en un comunicado más tarde ese día que estaba «profundamente entristecido» por los acontecimientos, y agregó: «Creemos que esta designación sería legalmente incorrecta y sentaría un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno».

El abogado de Anthropic dijo en una conferencia el 10 de marzo que el departamento estaba presionando a los clientes de la empresa para que cambiaran a proveedores de IA competidores y que su decisión de incluir a Anthropic en la lista negra estaba causando «un daño real e irreparable» a la empresa.

Los representantes de Anthropic y el Departamento de Guerra no respondieron a las solicitudes de comentarios de Business Insider.

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre Law,Tech,anthropic,pentagon
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Aditi Bharade
📅 Fecha Original: 2026-03-18 06:15:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario