Sam Altman dice que “calibró mal” su desconfianza en el acuerdo con el Pentágono

 | Tech,ai,artificial-intelligence,sam-altman,tech-leaders,openai,anthropic,pentagon,defense

📂 Categoría: Tech,ai,artificial-intelligence,sam-altman,tech-leaders,openai,anthropic,pentagon,defense | 📅 Fecha: 1775135459

🔍 En este artículo:

Sam Altman analiza, por primera vez, lo que aprendió del acuerdo entre OpenAI y el Pentágono.

Si las empresas de IA deberían trabajar con el gobierno y en qué medida fue una de las principales preguntas planteadas por la directora ejecutiva de Mostly Human, Laurie Segall, quien entrevistó al director ejecutivo de OpenAI en su casa después de cubrirlo durante más de una década.

En el nuevo episodio del podcast Mostly Human publicado el jueves por la mañana, Altman le dijo a Segall que había «calibrado mal» el sentimiento de desconfianza hacia la IA y el gobierno.

«Hay al menos un grupo de personas en línea que realmente no confían en que el gobierno cumpla la ley», dijo Altman a Segall. «Y eso parece una muy mala señal para nuestra democracia».

«Si no les ayudamos a defender la infraestructura cibernética de Estados Unidos, si no les ayudamos a proporcionar la biodefensa de la que hablábamos antes, creo que eso es realmente malo», añadió Altman. «Creo que necesitamos trabajar con el gobierno».

En febrero, OpenAI llegó a un acuerdo con el Pentágono para desplegar sus modelos de IA en redes militares clasificadas y se encontró en un punto muerto entre el Pentágono y Antrópicoun día antes Estados Unidos golpeó a Irán.

Las protestas contra OpenAI continuaron después de que Altman dijera que haría cambios en el acuerdo para garantizar que la tecnología no se utilizara para armas autónomas o vigilancia doméstica.

Altman quiere que el gobierno asuma un papel más activo en la IA

Segall dijo a Business Insider que habló por primera vez con Altman mucho antes del lanzamiento de ChatGPT, pero debido a que su tecnología se encuentra entre las más poderosas jamás vistas en la historia de la humanidad, la cantidad de preguntas y tensiones sociales que la rodean han «cambiado fundamentalmente».

«Creo que lo que sentimos ahora como sociedad es esta tensión entre: ¿la inteligencia artificial será buena para todos nosotros o simplemente será buena para algunos de nosotros?» dijo a Business Insider F7sjso.

Segall dijo que Altman «realmente se detuvo» en la idea de que los gobiernos deben desempeñar un papel dominante en la supervisión de la IA, mientras que empresas como la suya ahora están tomando decisiones clave.

«Él cree que los gobiernos deberían ser más poderosos», dijo Segall, describiendo un debate político más amplio sobre si los laboratorios de IA o las instituciones públicas deberían dar forma al futuro de la tecnología.

Por su parte, Altman le dijo a Segall que «una de las preguntas más importantes que el mundo tendrá que responder el próximo año es: ¿son las empresas de IA o los gobiernos más poderosos?». Y creo que es muy importante que los gobiernos sean más poderosos”.

Altman señaló precedentes históricos de esfuerzos gubernamentales a gran escala considerados enormes avances tecnológicos, como el Proyecto Manhattan, el programa Apollo y el Sistema de Carreteras Interestatales.

«El futuro del mundo y las decisiones sobre los elementos más importantes de la seguridad nacional deben tomarse mediante un proceso elegido democráticamente», añadió Altman. “Y la persona que fue nombrada como parte de este proceso no soy yo ni el director ejecutivo de ningún otro laboratorio”.