📂 Categoría: AI,openai | 📅 Fecha: 1772518807
🔍 En este artículo:
2026-03-03T05:57:47.763Z
Copiar enlace
Correo electrónico
incógnita
cielo azul
Temas
Enlace de impacto
para salvaguardar
Registrado
Leer en la aplicación
¿Tienes una cuenta? .
- Los empleados de OpenAI están discutiendo públicamente el acuerdo de la empresa con el Departamento de Defensa.
- Algunos han pedido más claridad; otros dicen que el contrato incluye fuertes protecciones
- Sam Altman dijo que OpenAI estaba trabajando con el Pentágono para cambiar su contrato después de una reacción violenta.
Los empleados de OpenAI expresan sus puntos de vista sobre el acuerdo de la empresa con el Pentágono.
En artículos sobre
La semana pasada, Sam Altman confirmó el acuerdo de OpenAI para darle acceso al Departamento de Defensa a sus modelos de IA. El acuerdo se produjo después de que Anthropic se negara a aceptar las condiciones gubernamentales que podrían haber permitido que su modelo, Claude, fuera desplegado para vigilancia doméstica masiva o armas letales autónomas.
OpenAI dijo en una publicación de blog el sábado que su contrato con el Departamento de Defensa es «mejor» e incluye más salvaguardias de seguridad que el contrato original de Anthropic.
El lunes por la noche, tras las preocupaciones sobre el acuerdo, Altman dijo en X que OpenAI estaba trabajando con el Pentágono para «hacer algunas adiciones a nuestro acuerdo».
Esto es lo que dijo el equipo de OpenAI:
Booz Barac
Boaz Barak, miembro del equipo técnico de OpenAI que trabaja en la alineación y también profesor de informática en Harvard, se opuso a la idea de que OpenAI hubiera debilitado las salvaguardas.
En un artículo sobre
“Es un error presentar el contrato de OAI como si fuera el mismo acuerdo que Anthropic rechazó, o incluso como si protegiera menos las líneas rojas que el acuerdo que Anthropic ya había celebrado antes”, escribió.
«Obviamente, no conozco todos los detalles de lo que Anthropic tenía antes, pero por lo que sé, es muy probable que el contrato firmado por OAI le dé más garantías de no uso de modelos de vigilancia doméstica masiva o armas letales autónomas que Anthropic nunca tuvo”, añadió.
En otra publicación del lunes, Barak dijo: «La línea roja de no utilizar la IA para llevar a cabo una vigilancia masiva a nivel nacional no es la línea roja de Anthropic; debería ser la de todos nosotros». »
Miles Brundage
Miles Brundage, exjefe de investigación de políticas de OpenAI, dijo en un artículo sobre
«Para ser claros, la OAI es una organización compleja, y creo que muchas de las personas involucradas en este asunto han trabajado duro para lograr lo que consideran un resultado justo. Hay otros en quienes no confío en absoluto, particularmente cuando se trata de tratos con el gobierno y la política», añadió.
Luego aclaró en una respuesta a su publicación del domingo que «probablemente no debería haber dicho ‘ceder’ en el primer tweet».
«OpenAI bien podría haber obtenido lo que quería y, al mismo tiempo, podría haber debilitado la posición negociadora de Anthropic porque Anthropic estaba preocupado por un detalle que no era parte de la OAI y estaba cediendo en su punto de vista», dijo.
Clive Chan
Clive Chan, miembro del personal técnico de OpenAI, dijo en un artículo en X el domingo que creía que el contrato de la compañía incluía salvaguardias contra el uso de sus modelos para vigilancia doméstica masiva o para armas letales autónomas. Añadió que estaba «haciendo campaña internamente para publicar más información» sobre el acuerdo.
“Si luego nos enteramos de que no es así, abogaré internamente para rescindir el contrato”, añadió.
En respuesta a su publicación, Chan reconoció que probablemente existen límites a lo que se puede revelar públicamente sobre los contratos de defensa. Sin embargo, cree que la empresa debería haberse anticipado a las preocupaciones del público y preparado con antelación respuestas más claras.
Tras la publicación de la publicación del blog de OpenAI, Chan dijo el domingo en X que la publicación «cubre la mayoría» de sus preocupaciones. «Gracias al equipo por ser muy considerado con el enfoque adoptado», añadió.
Mahoma bávaro
Mohammad Bavarian, científico investigador de OpenAI, dijo en un artículo el lunes que no cree que exista una «brecha insalvable entre lo que Anthropic quiere y las demandas de DoW», y agregó que «con la cabeza más fría, debería ser posible cerrar la brecha».
La designación por parte del Pentágono de los productos antropogénicos como un riesgo para la cadena de suministro es «injusta, imprudente y una reacción tremendamente exagerada», escribió Bavarian el lunes.
“Diseñar una organización que ha contribuido tanto al avance de la IA y con tanta integridad no sirve bien al país ni a la humanidad”, añadió.
Noam Brown
Noam Brown, investigador de OpenAI, dijo en un artículo el martes que el lenguaje original del acuerdo de la compañía con el Departamento de Guerra dejaba «cuestiones legítimas sin respuesta», particularmente con respecto a las nuevas formas en que la IA podría potencialmente permitir la vigilancia legal.
Después de que OpenAI actualizara su blog el lunes por la noche, Brown dijo que «el lenguaje ahora está actualizado para abordar este problema», pero cree firmemente que «el mundo no debería tener que depender de la confianza en los laboratorios de IA o las agencias de inteligencia para su seguridad».
Brown añadió que el despliegue en la NSA y otras agencias de inteligencia del Departamento de Guerra se suspendería para dar tiempo a abordar posibles lagunas «a través del proceso democrático previo al despliegue».
«Sé que la legislación puede ser lenta a veces, pero temo una pendiente resbaladiza en la que nos acostumbremos a eludir el proceso democrático para tomar decisiones políticas importantes», escribió.
2026-03-03T05:57:47.763Z
Copiar enlace
Correo electrónico
incógnita
cielo azul
Temas
Enlace de impacto
para salvaguardar
Registrado
Leer en la aplicación
¿Tienes una cuenta? .
- Los empleados de OpenAI están discutiendo públicamente el acuerdo de la empresa con el Departamento de Defensa.
- Algunos han pedido más claridad; otros dicen que el contrato incluye fuertes protecciones
- Sam Altman dijo que OpenAI estaba trabajando con el Pentágono para cambiar su contrato después de una reacción violenta.
Los empleados de OpenAI expresan sus puntos de vista sobre el acuerdo de la empresa con el Pentágono.
En artículos sobre
La semana pasada, Sam Altman confirmó el acuerdo de OpenAI para darle acceso al Departamento de Defensa a sus modelos de IA. El acuerdo se produjo después de que Anthropic se negara a aceptar las condiciones gubernamentales que podrían haber permitido que su modelo, Claude, fuera desplegado para vigilancia doméstica masiva o armas letales autónomas.
OpenAI dijo en una publicación de blog el sábado que su contrato con el Departamento de Defensa es «mejor» e incluye más salvaguardias de seguridad que el contrato original de Anthropic.
El lunes por la noche, tras las preocupaciones sobre el acuerdo, Altman dijo en X que OpenAI estaba trabajando con el Pentágono para «hacer algunas adiciones a nuestro acuerdo».
Esto es lo que dijo el equipo de OpenAI:
Booz Barac
Boaz Barak, miembro del equipo técnico de OpenAI que trabaja en la alineación y también profesor de informática en Harvard, se opuso a la idea de que OpenAI hubiera debilitado las salvaguardas.
En un artículo sobre
“Es un error presentar el contrato de OAI como si fuera el mismo acuerdo que Anthropic rechazó, o incluso como si protegiera menos las líneas rojas que el acuerdo que Anthropic ya había celebrado antes”, escribió.
«Obviamente, no conozco todos los detalles de lo que Anthropic tenía antes, pero por lo que sé, es muy probable que el contrato firmado por OAI le dé más garantías de no uso de modelos de vigilancia doméstica masiva o armas letales autónomas que Anthropic nunca tuvo”, añadió.
En otra publicación del lunes, Barak dijo: «La línea roja de no utilizar la IA para llevar a cabo una vigilancia masiva a nivel nacional no es la línea roja de Anthropic; debería ser la de todos nosotros». »
Miles Brundage
Miles Brundage, exjefe de investigación de políticas de OpenAI, dijo en un artículo sobre
«Para ser claros, la OAI es una organización compleja, y creo que muchas de las personas involucradas en este asunto han trabajado duro para lograr lo que consideran un resultado justo. Hay otros en quienes no confío en absoluto, particularmente cuando se trata de tratos con el gobierno y la política», añadió.
Luego aclaró en una respuesta a su publicación del domingo que «probablemente no debería haber dicho ‘ceder’ en el primer tweet».
«OpenAI bien podría haber obtenido lo que quería y, al mismo tiempo, podría haber debilitado la posición negociadora de Anthropic porque Anthropic estaba preocupado por un detalle que no era parte de la OAI y estaba cediendo en su punto de vista», dijo.
Clive Chan
Clive Chan, miembro del personal técnico de OpenAI, dijo en un artículo en X el domingo que creía que el contrato de la compañía incluía salvaguardias contra el uso de sus modelos para vigilancia doméstica masiva o para armas letales autónomas. Añadió que estaba «haciendo campaña internamente para publicar más información» sobre el acuerdo.
“Si luego nos enteramos de que no es así, abogaré internamente para rescindir el contrato”, añadió.
En respuesta a su publicación, Chan reconoció que probablemente existen límites a lo que se puede revelar públicamente sobre los contratos de defensa. Sin embargo, cree que la empresa debería haberse anticipado a las preocupaciones del público y preparado con antelación respuestas más claras.
Tras la publicación de la publicación del blog de OpenAI, Chan dijo el domingo en X que la publicación «cubre la mayoría» de sus preocupaciones. «Gracias al equipo por ser muy considerado con el enfoque adoptado», añadió.
Mahoma bávaro
Mohammad Bavarian, científico investigador de OpenAI, dijo en un artículo el lunes que no cree que exista una «brecha insalvable entre lo que Anthropic quiere y las demandas de DoW», y agregó que «con la cabeza más fría, debería ser posible cerrar la brecha».
La designación por parte del Pentágono de los productos antropogénicos como un riesgo para la cadena de suministro es «injusta, imprudente y una reacción tremendamente exagerada», escribió Bavarian el lunes.
“Diseñar una organización que ha contribuido tanto al avance de la IA y con tanta integridad no sirve bien al país ni a la humanidad”, añadió.
Noam Brown
Noam Brown, investigador de OpenAI, dijo en un artículo el martes que el lenguaje original del acuerdo de la compañía con el Departamento de Guerra dejaba «cuestiones legítimas sin respuesta», particularmente con respecto a las nuevas formas en que la IA podría potencialmente permitir la vigilancia legal.
Después de que OpenAI actualizara su blog el lunes por la noche, Brown dijo que «el lenguaje ahora está actualizado para abordar este problema», pero cree firmemente que «el mundo no debería tener que depender de la confianza en los laboratorios de IA o las agencias de inteligencia para su seguridad».
Brown añadió que el despliegue en la NSA y otras agencias de inteligencia del Departamento de Guerra se suspendería para dar tiempo a abordar posibles lagunas «a través del proceso democrático previo al despliegue».
«Sé que la legislación puede ser lenta a veces, pero temo una pendiente resbaladiza en la que nos acostumbremos a eludir el proceso democrático para tomar decisiones políticas importantes», escribió.
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre AI,openai
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Lee Chong Ming |
| 📅 Fecha Original: | 2026-03-03 05:57:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
🔗 Artículos Relacionados en Nuestro Archivo
🏷️ Tags:
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.
Sobre Archivo Histórico RTA: Nuestro objetivo es hacer accesible información histórica, política y cultural de calidad. Todo nuestro contenido es cuidadosamente seleccionado y adaptado para nuestra audiencia hispanohablante.
Última actualización: 1772518807



