📂 Categoría: Tech,Law,doj,anthropic | 📅 Fecha: 1773797826
🔍 En este artículo:
El gobierno de Estados Unidos está instando a un juez federal a rechazar el intento de Anthropic de revertir su estatus como riesgo para la cadena de suministro.
En un expediente judicial el martes, los abogados del Departamento de Defensa dijeron que las agencias federales actuaron legalmente cuando decidieron eliminar gradualmente la tecnología de Anthropic después de que la compañía se negó a aceptar los términos del contrato que permitían «cualquier uso legal» de su IA por parte del ejército. Lihat juga cdst. El Pentágono dijo que la empresa representaba un riesgo para la seguridad nacional.
La disputa se centra en un conflicto más amplio entre el uso de la IA por parte de los militares y los límites de seguridad contractuales que establece con los proveedores de tecnología.
Anthropic, que construyó el modelo Claude AI, demandó al gobierno después de que el presidente Donald Trump ordenara a las agencias gubernamentales que dejaran de usar la tecnología de Anthropic, y el Departamento de Defensa calificó a la compañía como un «riesgo para la cadena de suministro», prohibiéndole efectivamente mantener contratos federales. La empresa argumentó que se trataba de una represalia ilegal relacionada con sus políticas de seguridad.
El gobierno, a su vez, dijo que simplemente estaba ejerciendo su autoridad para elegir proveedores y que las restricciones y el comportamiento de Anthropic lo convertían en un socio inaceptable para el trabajo de seguridad nacional.
Los funcionarios del Departamento de Defensa no respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Según el documento, el conflicto se intensificó después de que Anthropic se negara a cambiar sus políticas de uso, que restringen ciertas aplicaciones como el desarrollo de armas y la vigilancia. Los funcionarios dijeron que los límites podrían dar a una empresa privada una influencia indebida sobre las operaciones militares y la toma de decisiones.
El gobierno también ha argumentado que el papel de Anthropic como desarrollador y mantenedor de sus sistemas de inteligencia artificial crea riesgos inherentes. Debido a que dichos sistemas requieren actualizaciones y ajustes continuos, los funcionarios advirtieron que la empresa podría «alterar el diseño y/o la funcionalidad» de sus herramientas o afectar el rendimiento durante operaciones críticas.
«Estamos revisando la presentación del gobierno y esperamos presentar nuestra respuesta al tribunal», dijo la compañía en un comunicado. «Como compartimos la semana pasada, solicitar una revisión judicial no cambia nuestro compromiso de larga data de aprovechar la IA para proteger nuestra seguridad nacional, pero es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios».
Anthropic argumentó que las acciones violaron sus derechos de la Primera Enmienda y las protecciones del debido proceso. Sin embargo, el gobierno respondió, diciendo que la disputa era sobre conducta comercial -no sobre libertad de expresión- y que las agencias eran libres de decidir «con quién [they] se hará cargo de las compras.
La presentación también rechaza las afirmaciones de Anthropic de daño irreparable, calificando las posibles pérdidas comerciales como «especulativas» y argumentando que cualquier daño podría repararse mediante soluciones contractuales.
Una audiencia sobre la solicitud de Anthropic de una orden judicial preliminar está programada para el 24 de marzo en el tribunal federal de San Francisco.
El gobierno de Estados Unidos está instando a un juez federal a rechazar el intento de Anthropic de revertir su estatus como riesgo para la cadena de suministro.
En un expediente judicial el martes, los abogados del Departamento de Defensa dijeron que las agencias federales actuaron legalmente cuando decidieron eliminar gradualmente la tecnología de Anthropic después de que la compañía se negó a aceptar los términos del contrato que permitían «cualquier uso legal» de su IA por parte del ejército. Lihat juga cdst. El Pentágono dijo que la empresa representaba un riesgo para la seguridad nacional.
La disputa se centra en un conflicto más amplio entre el uso de la IA por parte de los militares y los límites de seguridad contractuales que establece con los proveedores de tecnología.
Anthropic, que construyó el modelo Claude AI, demandó al gobierno después de que el presidente Donald Trump ordenara a las agencias gubernamentales que dejaran de usar la tecnología de Anthropic, y el Departamento de Defensa calificó a la compañía como un «riesgo para la cadena de suministro», prohibiéndole efectivamente mantener contratos federales. La empresa argumentó que se trataba de una represalia ilegal relacionada con sus políticas de seguridad.
El gobierno, a su vez, dijo que simplemente estaba ejerciendo su autoridad para elegir proveedores y que las restricciones y el comportamiento de Anthropic lo convertían en un socio inaceptable para el trabajo de seguridad nacional.
Los funcionarios del Departamento de Defensa no respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Según el documento, el conflicto se intensificó después de que Anthropic se negara a cambiar sus políticas de uso, que restringen ciertas aplicaciones como el desarrollo de armas y la vigilancia. Los funcionarios dijeron que los límites podrían dar a una empresa privada una influencia indebida sobre las operaciones militares y la toma de decisiones.
El gobierno también ha argumentado que el papel de Anthropic como desarrollador y mantenedor de sus sistemas de inteligencia artificial crea riesgos inherentes. Debido a que dichos sistemas requieren actualizaciones y ajustes continuos, los funcionarios advirtieron que la empresa podría «alterar el diseño y/o la funcionalidad» de sus herramientas o afectar el rendimiento durante operaciones críticas.
«Estamos revisando la presentación del gobierno y esperamos presentar nuestra respuesta al tribunal», dijo la compañía en un comunicado. «Como compartimos la semana pasada, solicitar una revisión judicial no cambia nuestro compromiso de larga data de aprovechar la IA para proteger nuestra seguridad nacional, pero es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios».
Anthropic argumentó que las acciones violaron sus derechos de la Primera Enmienda y las protecciones del debido proceso. Sin embargo, el gobierno respondió, diciendo que la disputa era sobre conducta comercial -no sobre libertad de expresión- y que las agencias eran libres de decidir «con quién [they] se hará cargo de las compras.
La presentación también rechaza las afirmaciones de Anthropic de daño irreparable, calificando las posibles pérdidas comerciales como «especulativas» y argumentando que cualquier daño podría repararse mediante soluciones contractuales.
Una audiencia sobre la solicitud de Anthropic de una orden judicial preliminar está programada para el 24 de marzo en el tribunal federal de San Francisco.
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre Tech,Law,doj,anthropic
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Katherine Tangalakis-Lippert |
| 📅 Fecha Original: | 2026-03-18 01:33:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.



