📂 Categoría: AI,Military & Defense,anthropic,department-of-war | 📅 Fecha: 1773198172
🔍 En este artículo:
El abogado de Anthropic dice que el gobierno de EE. UU. está «presionando» a los clientes de la startup para que cambien a proveedores de IA competidores, en medio de una lucha cada vez mayor entre el desarrollador Claude y el Departamento de Defensa.
En una conferencia de estado el martes, Michael Mongan, abogado de Anthropic, dijo que la decisión del Departamento de Defensa de incluir a la startup en la lista negra para que no trabajara con el ejército estadounidense estaba causando «daño real e irreparable» a la empresa todos los días.
Mongan dijo que los clientes comenzaron a “expresar dudas” sobre trabajar con Anthropic y que el gobierno lideró una campaña de presión para lograr que los clientes de Anthropic abandonaran al proveedor y recurrieran a empresas de inteligencia artificial competidoras.
«Hemos tenido sistemas universitarios y empresas de empresa a empresa que se han convertido en empresas de IA competidoras», dijo Mongan. «Y todo esto es el resultado predecible de las acciones de los demandados y la incertidumbre que crearon, así como del contacto positivo de los demandados con nuestros clientes y de presionarlos para que dejaran de trabajar con Anthropic y se trasladaran a otras empresas de IA».
El mes pasado, después de que fracasaran las negociaciones contractuales con la startup de IA, el secretario de Defensa, Pete Hegseth, anunció que Anthropic planteaba un «riesgo para la cadena de suministro» y enmarcó la medida como algo que se extendía más allá del trabajo militar directo.
“Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de los EE. UU. podrá realizar ninguna actividad comercial con Anthropic”, dijo Hegseth en una publicación de X del 27 de febrero.
El alcance de la etiqueta de riesgo de la cadena de suministro es controvertido. Microsoft le dijo anteriormente a Business Insider que sus abogados concluyeron que la compañía aún podría usar Anthropic para trabajos no militares. La compañía también presentó un escrito amicus curiae, instando al tribunal federal a bloquear temporalmente la designación de riesgo de la cadena de suministro por parte del gobierno.
La cuestión se centra en la posición de Anthropic de que su modelo fronterizo, Claude, no puede utilizarse para armas autónomas y vigilancia masiva de ciudadanos estadounidenses. Los funcionarios de defensa respondieron que una empresa privada no podía dictar lo que los militares podían o no hacer.
El director ejecutivo de Anthropic, Dario Amodei, dijo en una publicación de blog el 26 de febrero que la compañía no podía acceder a la solicitud del gobierno de un uso legal y sin restricciones de su modelo. Un día después, Hegseth designó oficialmente a Anthropic como un riesgo para la cadena de suministro.
Anthropic demandó al gobierno el lunes, buscando una orden de restricción temporal para continuar haciendo negocios con el gobierno mientras avanza el caso. La compañía dijo en la denuncia que el Departamento de Defensa no proporcionó motivos suficientes para etiquetarlo como un riesgo para la seguridad nacional.
Además, la empresa dijo que la designación nunca se había aplicado a una empresa estadounidense y era una represalia, violando el derecho de la Primera Enmienda de la empresa a expresar sus puntos de vista sobre la seguridad y las limitaciones de la IA.
Las consecuencias de la inclusión de Anthropic en la lista negra fueron rápidas, según documentos legales.
Krishna Rao, director financiero de Anthropic, dijo en un comunicado presentado el lunes que el Departamento de Defensa se había puesto en contacto con varias «sociedades holding con respecto al uso de Claude» y que estos clientes estaban «cada vez más preocupados e inseguros» sobre su capacidad para utilizar el modelo.
El director financiero dijo que la acción del gobierno podría reducir los ingresos de Anthropic en 2026 en «varios miles de millones de dólares».
Los portavoces de Anthropic y el Pentágono, así como el abogado de Anthropic, no respondieron a una solicitud de comentarios.
El abogado de Anthropic dice que el gobierno de EE. UU. está «presionando» a los clientes de la startup para que cambien a proveedores de IA competidores, en medio de una lucha cada vez mayor entre el desarrollador Claude y el Departamento de Defensa.
En una conferencia de estado el martes, Michael Mongan, abogado de Anthropic, dijo que la decisión del Departamento de Defensa de incluir a la startup en la lista negra para que no trabajara con el ejército estadounidense estaba causando «daño real e irreparable» a la empresa todos los días.
Mongan dijo que los clientes comenzaron a “expresar dudas” sobre trabajar con Anthropic y que el gobierno lideró una campaña de presión para lograr que los clientes de Anthropic abandonaran al proveedor y recurrieran a empresas de inteligencia artificial competidoras.
«Hemos tenido sistemas universitarios y empresas de empresa a empresa que se han convertido en empresas de IA competidoras», dijo Mongan. «Y todo esto es el resultado predecible de las acciones de los demandados y la incertidumbre que crearon, así como del contacto positivo de los demandados con nuestros clientes y de presionarlos para que dejaran de trabajar con Anthropic y se trasladaran a otras empresas de IA».
El mes pasado, después de que fracasaran las negociaciones contractuales con la startup de IA, el secretario de Defensa, Pete Hegseth, anunció que Anthropic planteaba un «riesgo para la cadena de suministro» y enmarcó la medida como algo que se extendía más allá del trabajo militar directo.
“Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de los EE. UU. podrá realizar ninguna actividad comercial con Anthropic”, dijo Hegseth en una publicación de X del 27 de febrero.
El alcance de la etiqueta de riesgo de la cadena de suministro es controvertido. Microsoft le dijo anteriormente a Business Insider que sus abogados concluyeron que la compañía aún podría usar Anthropic para trabajos no militares. La compañía también presentó un escrito amicus curiae, instando al tribunal federal a bloquear temporalmente la designación de riesgo de la cadena de suministro por parte del gobierno.
La cuestión se centra en la posición de Anthropic de que su modelo fronterizo, Claude, no puede utilizarse para armas autónomas y vigilancia masiva de ciudadanos estadounidenses. Los funcionarios de defensa respondieron que una empresa privada no podía dictar lo que los militares podían o no hacer.
El director ejecutivo de Anthropic, Dario Amodei, dijo en una publicación de blog el 26 de febrero que la compañía no podía acceder a la solicitud del gobierno de un uso legal y sin restricciones de su modelo. Un día después, Hegseth designó oficialmente a Anthropic como un riesgo para la cadena de suministro.
Anthropic demandó al gobierno el lunes, buscando una orden de restricción temporal para continuar haciendo negocios con el gobierno mientras avanza el caso. La compañía dijo en la denuncia que el Departamento de Defensa no proporcionó motivos suficientes para etiquetarlo como un riesgo para la seguridad nacional.
Además, la empresa dijo que la designación nunca se había aplicado a una empresa estadounidense y era una represalia, violando el derecho de la Primera Enmienda de la empresa a expresar sus puntos de vista sobre la seguridad y las limitaciones de la IA.
Las consecuencias de la inclusión de Anthropic en la lista negra fueron rápidas, según documentos legales.
Krishna Rao, director financiero de Anthropic, dijo en un comunicado presentado el lunes que el Departamento de Defensa se había puesto en contacto con varias «sociedades holding con respecto al uso de Claude» y que estos clientes estaban «cada vez más preocupados e inseguros» sobre su capacidad para utilizar el modelo.
El director financiero dijo que la acción del gobierno podría reducir los ingresos de Anthropic en 2026 en «varios miles de millones de dólares».
Los portavoces de Anthropic y el Pentágono, así como el abogado de Anthropic, no respondieron a una solicitud de comentarios.
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre AI,Military & Defense,anthropic,department-of-war
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Lloyd Lee |
| 📅 Fecha Original: | 2026-03-11 02:15:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.



