OpenAI comparte el lenguaje del contrato con el Departamento de Guerra

 | AI,Tech,openai

📂 Categoría: AI,Tech,openai | 📅 Fecha: 1772331461

🔍 En este artículo:

OpenAI dice que su acuerdo con el Departamento de Guerra es «mejor» y tiene más salvaguardias de seguridad que el que Anthropic fue incluido en la lista negra por negarse a cumplir.

En una publicación de blog publicada el sábado, OpenAI compartió algunos términos de su contrato con el Departamento de Guerra, incluidas cláusulas que establecen que su tecnología no puede usarse para vigilancia doméstica masiva o para impulsar armas autónomas o sistemas de decisión de alto riesgo como puntajes de «crédito social».

«Creemos que nuestro acuerdo tiene más salvaguardias que cualquier acuerdo anterior para implementaciones de IA clasificadas, incluido el de Anthropic», decía el mensaje de OpenAI. «En nuestro acuerdo, protegemos nuestras líneas rojas con un enfoque más amplio y escalonado. Mantenemos discreción sobre nuestra pila de seguridad, implementamos a través de la nube, el personal autorizado de OpenAI está al tanto y tenemos fuertes protecciones contractuales. Todo esto se suma a las fuertes protecciones existentes en la ley de EE. UU.».

El director ejecutivo de OpenAI, Sam Altman, recurrió a las redes sociales poco después de la publicación del blog de la compañía y respondió preguntas de usuarios preocupados por la naturaleza del acuerdo de OpenAI con el gobierno rfv5.

En las respuestas de Ask-Me-Anything, redobló la apuesta por el acuerdo de OpenAI por ser mejor que el de Anthropic, no sólo para el panorama más amplio de la IA, sino también para el pueblo estadounidense.

«Anthropic parecía más centrado en prohibiciones específicas en el contrato, en lugar de citar leyes aplicables, con las que nos sentíamos cómodos», escribió Altman en respuesta a una pregunta sobre por qué OpenAI aceptó asociarse con el gobierno cuando su rival no lo hizo. «Creo que tal vez Anthropic quería más control operativo que nosotros».

El acuerdo de OpenAI con el gobierno federal sigue a la inclusión de Anthropic en la lista negra y la declaración de un riesgo para la cadena de suministro después de negarse a cumplir con los términos de uso militares para el modelo fronterizo de la compañía, Claude.

Anthropic, en un comunicado publicado el viernes, dijo que «ninguna intimidación o sanciones por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia interna masiva o las armas totalmente autónomas» y prometió «impugnar cualquier designación de riesgo de la cadena de suministro en los tribunales».

OpenAI, en su publicación del sábado, argumentó que Anthropic no debería ser designado como un riesgo para la cadena de suministro y dijo que había dejado su posición «clara al gobierno». Su acuerdo con el Departamento de Guerra surgió, en parte, del deseo de «reducir las tensiones entre el Departamento Occidental y los laboratorios de inteligencia artificial de Estados Unidos».

«Un futuro mejor requerirá una colaboración real y profunda entre el gobierno y los laboratorios de IA», dice el mensaje de OpenAI. «Como parte de nuestro acuerdo aquí, solicitamos que los mismos términos estuvieran disponibles para todos los laboratorios de IA, y específicamente que el gobierno intente resolver los problemas con Anthropic; el estado actual es una manera muy pobre de comenzar esta próxima fase de colaboración entre el gobierno y los laboratorios de IA».

Los representantes de OpenAI y Anthropic no respondieron de inmediato a las solicitudes de comentarios de Business Insider. No quedó claro de inmediato si Anthropic, o cualquier otra empresa líder en inteligencia artificial, había propuesto términos contractuales similares a los que OpenAI dijo que había acordado.

OpenAI dijo que, como parte de su acuerdo con el Departamento de Guerra, mantendría un «control total» sobre la pila de seguridad que despliega, así como «barandillas de seguridad» sólidas para evitar el uso indebido. Si el gobierno violaba los términos del acuerdo, OpenAI dijo que «podría» rescindir el contrato.

«No esperamos que esto suceda», dijo OpenAI en su publicación.

Altman, en su artículo Ask Me Anything, escribió que OpenAI no aceptaría permitir que el gobierno use su tecnología para vigilancia nacional masiva «porque viola la constitución».

Añadió que estaba preparado para un posible conflicto sobre la legalidad de solicitudes gubernamentales específicas en el futuro, pero añadió que si se enmendara la Constitución para legalizar dicha vigilancia, «tal vez renunciaría a mi trabajo».

«Creo profundamente en el proceso democrático, que nuestros líderes electos tienen poder y que todos debemos respetar la Constitución», escribió Altman. «Me aterroriza un mundo en el que las empresas de inteligencia artificial actúen como si tuvieran más poder que el gobierno. También me aterrorizaría un mundo en el que nuestro gobierno decidiera que la vigilancia interna masiva es aceptable. No sé cómo iría a trabajar todos los días si ese fuera el estado del país/la Constitución».

La disputa entre el gobierno y los gigantes de la IA ha generado críticas generalizadas, y los críticos expresan su preocupación por las implicaciones éticas del uso de la IA por parte del Departamento de Guerra y el acuerdo de OpenAI para proporcionar al gobierno acceso a su tecnología.

OpenAI dijo el sábado que creía que la IA “introduciría nuevos riesgos para el mundo” y, al permitir que el gobierno use sus modelos, daría a las personas que defienden la seguridad nacional “las mejores herramientas” para hacerlo.

Business Insider informó anteriormente que el modelo Anthropic Claude alcanzó la cima de la tienda de aplicaciones el sábado y que muchas personas en las redes sociales, incluidas celebridades como Katy Perry, anunciaron públicamente la cancelación de sus suscripciones a ChatGPT luego del acuerdo de OpenAI con el gobierno.

OpenAI dice que su acuerdo con el Departamento de Guerra es «mejor» y tiene más salvaguardias de seguridad que el que Anthropic fue incluido en la lista negra por negarse a cumplir.

En una publicación de blog publicada el sábado, OpenAI compartió algunos términos de su contrato con el Departamento de Guerra, incluidas cláusulas que establecen que su tecnología no puede usarse para vigilancia doméstica masiva o para impulsar armas autónomas o sistemas de decisión de alto riesgo como puntajes de «crédito social».

«Creemos que nuestro acuerdo tiene más salvaguardias que cualquier acuerdo anterior para implementaciones de IA clasificadas, incluido el de Anthropic», decía el mensaje de OpenAI. «En nuestro acuerdo, protegemos nuestras líneas rojas con un enfoque más amplio y escalonado. Mantenemos discreción sobre nuestra pila de seguridad, implementamos a través de la nube, el personal autorizado de OpenAI está al tanto y tenemos fuertes protecciones contractuales. Todo esto se suma a las fuertes protecciones existentes en la ley de EE. UU.».

El director ejecutivo de OpenAI, Sam Altman, recurrió a las redes sociales poco después de la publicación del blog de la compañía y respondió preguntas de usuarios preocupados por la naturaleza del acuerdo de OpenAI con el gobierno rfv5.

En las respuestas de Ask-Me-Anything, redobló la apuesta por el acuerdo de OpenAI por ser mejor que el de Anthropic, no sólo para el panorama más amplio de la IA, sino también para el pueblo estadounidense.

«Anthropic parecía más centrado en prohibiciones específicas en el contrato, en lugar de citar leyes aplicables, con las que nos sentíamos cómodos», escribió Altman en respuesta a una pregunta sobre por qué OpenAI aceptó asociarse con el gobierno cuando su rival no lo hizo. «Creo que tal vez Anthropic quería más control operativo que nosotros».

El acuerdo de OpenAI con el gobierno federal sigue a la inclusión de Anthropic en la lista negra y la declaración de un riesgo para la cadena de suministro después de negarse a cumplir con los términos de uso militares para el modelo fronterizo de la compañía, Claude.

Anthropic, en un comunicado publicado el viernes, dijo que «ninguna intimidación o sanciones por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia interna masiva o las armas totalmente autónomas» y prometió «impugnar cualquier designación de riesgo de la cadena de suministro en los tribunales».

OpenAI, en su publicación del sábado, argumentó que Anthropic no debería ser designado como un riesgo para la cadena de suministro y dijo que había dejado su posición «clara al gobierno». Su acuerdo con el Departamento de Guerra surgió, en parte, del deseo de «reducir las tensiones entre el Departamento Occidental y los laboratorios de inteligencia artificial de Estados Unidos».

«Un futuro mejor requerirá una colaboración real y profunda entre el gobierno y los laboratorios de IA», dice el mensaje de OpenAI. «Como parte de nuestro acuerdo aquí, solicitamos que los mismos términos estuvieran disponibles para todos los laboratorios de IA, y específicamente que el gobierno intente resolver los problemas con Anthropic; el estado actual es una manera muy pobre de comenzar esta próxima fase de colaboración entre el gobierno y los laboratorios de IA».

Los representantes de OpenAI y Anthropic no respondieron de inmediato a las solicitudes de comentarios de Business Insider. No quedó claro de inmediato si Anthropic, o cualquier otra empresa líder en inteligencia artificial, había propuesto términos contractuales similares a los que OpenAI dijo que había acordado.

OpenAI dijo que, como parte de su acuerdo con el Departamento de Guerra, mantendría un «control total» sobre la pila de seguridad que despliega, así como «barandillas de seguridad» sólidas para evitar el uso indebido. Si el gobierno violaba los términos del acuerdo, OpenAI dijo que «podría» rescindir el contrato.

«No esperamos que esto suceda», dijo OpenAI en su publicación.

Altman, en su artículo Ask Me Anything, escribió que OpenAI no aceptaría permitir que el gobierno use su tecnología para vigilancia nacional masiva «porque viola la constitución».

Añadió que estaba preparado para un posible conflicto sobre la legalidad de solicitudes gubernamentales específicas en el futuro, pero añadió que si se enmendara la Constitución para legalizar dicha vigilancia, «tal vez renunciaría a mi trabajo».

«Creo profundamente en el proceso democrático, que nuestros líderes electos tienen poder y que todos debemos respetar la Constitución», escribió Altman. «Me aterroriza un mundo en el que las empresas de inteligencia artificial actúen como si tuvieran más poder que el gobierno. También me aterrorizaría un mundo en el que nuestro gobierno decidiera que la vigilancia interna masiva es aceptable. No sé cómo iría a trabajar todos los días si ese fuera el estado del país/la Constitución».

La disputa entre el gobierno y los gigantes de la IA ha generado críticas generalizadas, y los críticos expresan su preocupación por las implicaciones éticas del uso de la IA por parte del Departamento de Guerra y el acuerdo de OpenAI para proporcionar al gobierno acceso a su tecnología.

OpenAI dijo el sábado que creía que la IA “introduciría nuevos riesgos para el mundo” y, al permitir que el gobierno use sus modelos, daría a las personas que defienden la seguridad nacional “las mejores herramientas” para hacerlo.

Business Insider informó anteriormente que el modelo Anthropic Claude alcanzó la cima de la tienda de aplicaciones el sábado y que muchas personas en las redes sociales, incluidas celebridades como Katy Perry, anunciaron públicamente la cancelación de sus suscripciones a ChatGPT luego del acuerdo de OpenAI con el gobierno.

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre AI,Tech,openai
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Katherine Tangalakis-Lippert
📅 Fecha Original: 2026-03-01 01:16:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario