📂 Categoría: AI,Tech,openai,ai,ai-safety | 📅 Fecha: 1775611390
🔍 En este artículo:
OpenAI está haciendo de los recursos informáticos una parte central de su argumento de venta para un nuevo intercambio de seguridad.
Según la solicitud, OpenAI gastará aproximadamente $15,000 por mes en computación en sus primeros becarios de seguridad de IA, que trabajarán junto con miembros del equipo de seguridad de Border Lab.
La informática ha sido durante mucho tiempo un barómetro de caché clave para las grandes empresas de tecnología e inteligencia artificial. Recientemente, el director ejecutivo de Nvidia, Jensen Huang, dijo que estaría “profundamente alarmado” si un ingeniero que gana 500.000 dólares no utilizara el equivalente a 250.000 dólares en tokens de IA.
La beca OpenAI se ejecuta desde el 14 de septiembre de 2026 hasta el 5 de febrero de 2027 y paga un estipendio semanal de 3.850 dólares. Con base en esta cantidad, el salario anual equivalente sería más de $200,000 antes de impuestos, excluyendo el probable tiempo de vacaciones. En total, los becarios ganarán más de 111.000 dólares.
El anuncio también se produjo horas después de que The New Yorker publicara un extenso artículo cuestionando la confiabilidad de Altman, basado en entrevistas con más de 100 personas con experiencia directa con el CEO de OpenAI, así como notas inéditas compiladas por el cofundador de OpenAI, Sutskever, y ahora el CEO de Anthropic, Dario Amodei.
Una de las principales razones por las que algunas personas cuestionan el liderazgo de Altman es la forma en que OpenAI maneja los problemas relacionados con la seguridad. En parte del artículo, los periodistas Ronan Farrow y Andrew Marantz relatan cómo OpenAI disolvió un «equipo de superalineación» que se suponía debía investigar uno de los problemas más apremiantes que enfrenta la IA: si los modelos de IA podían engañar a los probadores sólo para promover sus propios objetivos una vez implementados.
En el anuncio, OpenAI dijo que quiere que investigadores, ingenieros y profesionales externos realicen investigaciones rigurosas y de alto impacto sobre la seguridad y la alineación de los sistemas avanzados de IA. La compañía también destacó un puñado de áreas prioritarias en las que deben centrarse los becarios.
«Las áreas prioritarias incluyen, entre otras, evaluación de seguridad, ética, solidez, mitigaciones escalables, métodos de seguridad que preservan la privacidad, monitoreo agente y áreas de uso indebido de alta gravedad», decía el anuncio.
El programa de OpenAI refleja fielmente a su rival Anthropic, que ya ha establecido un “Programa de subvenciones para investigación de seguridad de IA”. En diciembre, Anthropic anunció dos nuevos grupos para mayo y julio de 2026. Los beneficios de OpenAI también son los mismos que los del programa Anthropic: un estipendio semanal de $3,850 y recursos informáticos de aproximadamente $15,000 por mes.
«Este año, planeamos trabajar con más becarios en una gama más amplia de áreas de investigación de seguridad, incluido el monitoreo evolutivo, la robustez y el control de la IA adversaria, los organismos modelo, la interpretabilidad mecanicista, la seguridad de la IA y el bienestar de los modelos», dijo Anthropic en un comunicado al anunciar su próxima beca en diciembre.
Amodei cofundó junto con seis ex empleados de OpenAI después de sentirse frustrado con la dirección de la empresa. Anthropic recientemente debilitó un compromiso central con la seguridad, pero Amodei y sus altos ejecutivos han posicionado a la startup de IA como centrada estrictamente en la seguridad.
Otras grandes empresas de tecnología y laboratorios de inteligencia artificial, incluidos Google DeepMind y Microsoft, ofrecen becas de inteligencia artificial más amplias.



