Izquierda: El Secretario de Defensa, Pete Hegseth, llega a la primera Conferencia Contra los Cárteles de Estados Unidos en la sede del Comando Sur de Estados Unidos en Doral, Florida, el 5 de marzo. Correcto: Dario Amodei, cofundador y director ejecutivo de Anthropic en la exposición de innovación tecnológica y startups Vivatech en París en 2024.
Eva Marie Uzcategui y Julien de Rosa/AFP vía Getty Images
ocultar título
rfv11.
cambiar subtítulos
Eva Marie Uzcategui y Julien de Rosa/AFP vía Getty Images
Anthropic presentó el lunes dos demandas federales contra la administración Trump, alegando que funcionarios del Pentágono tomaron represalias ilegales contra la empresa por su posición sobre la seguridad de la inteligencia artificial.
La semana pasada, los funcionarios del Departamento de Defensa calificaron a Anthropic como un riesgo para la cadena de suministro, citando preocupaciones de seguridad nacional. Esto sigue al anuncio del CEO Dario Amodei de que no permitiría que los modelos de IA de la compañía de Claude se utilicen para armas autónomas o para monitorear a ciudadanos estadounidenses. La demanda afirma que la decisión del gobierno de incluir a la empresa en la lista negra, impidiendo que los proveedores del Pentágono utilicen Claude, fue un intento de castigar a la empresa por sus limitaciones en materia de IA.
«El gobierno federal tomó represalias contra los principales desarrolladores de IA por defender sus puntos de vista protegidos sobre cuestiones públicas importantes (la seguridad de la IA y las limitaciones de sus propios modelos de IA) en violación de la Constitución y las leyes de los Estados Unidos», afirma la demanda, y agrega que los funcionarios de Trump «buscaron destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento del mundo».
Un portavoz del Pentágono declinó hacer comentarios.
Las demandas, presentadas en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California y en un tribunal federal de apelaciones en Washington, DC, acusan a la administración Trump de violar los derechos de la Primera Enmienda de la empresa y exceder el alcance de las leyes de riesgo de la cadena de suministro al utilizar etiquetas que entran en conflicto con Anthropic. La demanda pide a un juez federal que impida a los funcionarios del Pentágono implementar la designación de la lista negra.
Es el último giro en una disputa que enfrenta al Pentágono con Anthropic sobre las reglas de seguridad de la compañía que rigen su poderoso servicio.
Los abogados de Anthropic dijeron en la demanda que Claude no fue desarrollado para ser utilizado como un arma letal autónoma sin supervisión humana, ni para espiar a ciudadanos estadounidenses, y que usar la herramienta de esta manera constituye un mal uso de su tecnología.
«Permitir que Claude sea utilizado para permitir que el Departamento vigile a los estadounidenses a gran escala y utilice un sistema de armas que puede matar sin supervisión humana sería inconsistente con los objetivos fundacionales y los compromisos públicos de Anthropic», según la demanda.
Los funcionarios del Pentágono niegan que la lucha contra Anthropic se trate de armas letales y vigilancia masiva y, en cambio, afirman que las empresas privadas no pueden dictar cómo el gobierno utiliza la tecnología en escenarios como la guerra y las operaciones tácticas, y afirman que todos los usos serán “legales”.
La determinación del riesgo de la cadena de suministro se produce tras una reunión en febrero entre el ministro de Defensa, Peter Hegseth, y Amodei. Los expertos en seguridad nacional dicen que esas etiquetas suelen aplicarse a contratistas extranjeros que tienen el potencial de sabotear los intereses estadounidenses. Según los expertos, es muy inusual utilizar una lista negra contra una empresa estadounidense.
Después de que los funcionarios del Pentágono notificaran a Anthropic sobre la designación, el presidente Trump dijo en las redes sociales que todas las agencias federales dejarían de usar las herramientas de Anthropic.
Anthropic fue el primer laboratorio fronterizo de IA que los funcionarios estadounidenses estaban autorizados a utilizar en redes clasificadas. Pero desde que comenzó la disputa, los funcionarios del Pentágono han dicho que xAI de Elon Musk y ChatGPT de OpenAI ahora han sido autorizados para su uso en sistemas clasificados.
Diario de Wall Street ha informado que Claude Anthropic ha sido utilizado en operaciones militares, incluida la incursión que condujo a la captura del líder venezolano Nicolás Maduro y para evaluaciones de inteligencia e identificación de objetivos en el actual conflicto de Estados Unidos con Irán. (NPR no ha confirmado de forma independiente Diario informes.)
Aunque Anthropic se opone firmemente al gobierno en materia de armas letales y vigilancia masiva, la compañía dijo en su demanda que desde 2024 se ha asociado con contratistas de seguridad nacional, como Palantir, para ayudar al gobierno con una variedad de operaciones que incluyen “procesamiento rápido de datos complejos, identificación de tendencias, simplificación de revisiones de documentos y ayuda a los funcionarios gubernamentales a tomar decisiones más informadas en situaciones urgentes”.



