📂 Categoría: AI,openai,anthropic | 📅 Fecha: 1770194901
🔍 En este artículo:
OpenAI cumplió una función clave en materia de seguridad al contratar personal de un laboratorio rival.
La compañía ha contratado a Dylan Scand, un ex investigador de seguridad de IA en Anthropic, como su nuevo director de preparación, un puesto que conlleva un salario de hasta 555.000 dólares más capital. El puesto llamó la atención el mes pasado gracias a su atractivo paquete salarial en medio de las crecientes preocupaciones sobre la seguridad de la IA de OpenAI.
Sam Altman anunció la medida en un artículo en X el miércoles, diciendo que estaba «extremadamente emocionado» de darle la bienvenida a Scand a OpenAI.
«Las cosas están a punto de evolucionar bastante rápidamente y pronto estaremos trabajando con modelos extremadamente potentes», escribió Altman.
«Dylan liderará nuestros esfuerzos para prepararnos y mitigar estos graves riesgos. Es, con diferencia, el mejor candidato que he encontrado para este puesto», añadió.
Scand dijo en un artículo en X sobre su mudanza el miércoles que estaba «profundamente agradecido por mi tiempo en Anthropic y la gente increíble con la que trabajé».
«La IA está avanzando rápidamente. Los beneficios potenciales son grandes, al igual que los riesgos de daños extremos o incluso irreparables», añadió.
El mes pasado, Altman describió el trabajo como «estresante».
«Te sumergirás en lo más profundo casi de inmediato», escribió en
En la oferta de trabajo, OpenAI dijo que el puesto es más adecuado para alguien que pueda liderar equipos técnicos, realizar llamadas de alto riesgo en medio de la incertidumbre y alinear a las partes interesadas en competencia en torno a las decisiones de seguridad. La compañía también dijo que los candidatos deben tener una profunda experiencia en aprendizaje automático, seguridad de inteligencia artificial y áreas de riesgo relacionadas.
Han surgido tensiones sobre el enfoque de seguridad de OpenAI. Varios de los primeros empleados, incluido un exjefe del equipo de seguridad, abandonaron la empresa en los últimos años.
OpenAI también se ha enfrentado a demandas de usuarios que alegan que sus herramientas contribuyeron a comportamientos dañinos.
En octubre, la compañía dijo que algunos usuarios de ChatGPT habían mostrado posibles signos de angustia mental. Se estima que 560.000 usuarios por semana experimentan «posibles signos de una emergencia de salud mental», según el informe.
La compañía también dijo que está consultando con especialistas en salud mental para perfeccionar cómo responde el chatbot cuando los usuarios muestran signos de angustia psicológica o adicción poco saludable.
OpenAI cumplió una función clave en materia de seguridad al contratar personal de un laboratorio rival.
La compañía ha contratado a Dylan Scand, un ex investigador de seguridad de IA en Anthropic, como su nuevo director de preparación, un puesto que conlleva un salario de hasta 555.000 dólares más capital. El puesto llamó la atención el mes pasado gracias a su atractivo paquete salarial en medio de las crecientes preocupaciones sobre la seguridad de la IA de OpenAI.
Sam Altman anunció la medida en un artículo en X el miércoles, diciendo que estaba «extremadamente emocionado» de darle la bienvenida a Scand a OpenAI.
«Las cosas están a punto de evolucionar bastante rápidamente y pronto estaremos trabajando con modelos extremadamente potentes», escribió Altman.
«Dylan liderará nuestros esfuerzos para prepararnos y mitigar estos graves riesgos. Es, con diferencia, el mejor candidato que he encontrado para este puesto», añadió.
Scand dijo en un artículo en X sobre su mudanza el miércoles que estaba «profundamente agradecido por mi tiempo en Anthropic y la gente increíble con la que trabajé».
«La IA está avanzando rápidamente. Los beneficios potenciales son grandes, al igual que los riesgos de daños extremos o incluso irreparables», añadió.
El mes pasado, Altman describió el trabajo como «estresante».
«Te sumergirás en lo más profundo casi de inmediato», escribió en
En la oferta de trabajo, OpenAI dijo que el puesto es más adecuado para alguien que pueda liderar equipos técnicos, realizar llamadas de alto riesgo en medio de la incertidumbre y alinear a las partes interesadas en competencia en torno a las decisiones de seguridad. La compañía también dijo que los candidatos deben tener una profunda experiencia en aprendizaje automático, seguridad de inteligencia artificial y áreas de riesgo relacionadas.
Han surgido tensiones sobre el enfoque de seguridad de OpenAI. Varios de los primeros empleados, incluido un exjefe del equipo de seguridad, abandonaron la empresa en los últimos años.
OpenAI también se ha enfrentado a demandas de usuarios que alegan que sus herramientas contribuyeron a comportamientos dañinos.
En octubre, la compañía dijo que algunos usuarios de ChatGPT habían mostrado posibles signos de angustia mental. Se estima que 560.000 usuarios por semana experimentan «posibles signos de una emergencia de salud mental», según el informe.
La compañía también dijo que está consultando con especialistas en salud mental para perfeccionar cómo responde el chatbot cuando los usuarios muestran signos de angustia psicológica o adicción poco saludable.
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre AI,openai,anthropic
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Lee Chong Ming |
| 📅 Fecha Original: | 2026-02-04 05:01:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.



