📂 Categoría: Tech,anthropic,claude,artificial-intelligence,technology,ai,society,careers,ethics | 📅 Fecha: 1770693740
🔍 En este artículo:
Un ex empleado de Anthropic dijo en una carta de salida publicada el lunes que dejará la empresa porque espera un «mundo en peligro».
Mrinank Sharma, quien dijo que dirigió el equipo de investigación de salvaguardias en Anthropic, publicó el lunes una carta que envió a sus colegas anunciando su partida. Sharma explicó por qué dejaba la empresa de inteligencia artificial y describió sus planes futuros.
«Logré todo lo que quería aquí», escribió Sharma, citando proyectos como el desarrollo de defensas para reducir los riesgos del bioterrorismo asistido por IA y un proyecto final sobre la comprensión de los efectos de la IA en la humanidad pdf view.
También dijo que era hora de seguir adelante mientras lidiaba constantemente con los peligros de la IA, las armas biológicas y «una gran cantidad de crisis interconectadas que están sucediendo en este momento».
«Parece que nos estamos acercando a un umbral en el que nuestra sabiduría debe crecer en proporción a nuestra capacidad de influir en el mundo. Afrontemos las consecuencias», escribió.
Y añadió: «A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen verdaderamente nuestras acciones. Lo he visto en mí mismo, dentro de la organización, donde constantemente enfrentamos presiones para dejar de lado lo que más importa, y también en la sociedad en su conjunto. »
Sharma dijo que planea realizar un trabajo acorde con su integridad, estudiar poesía y dedicarse a hablar con valentía.
Ni Sharma ni Anthropic respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Sharma es el último empleado de Anthropic en anunciar públicamente su partida.
Harsh Mehta, que trabaja en investigación y desarrollo, y el destacado científico en inteligencia artificial, Behnam Neyshabur, dijeron: En publicaciones con clasificación X la semana pasada, explicaron que dejaron Anthropic para «comenzar algo nuevo», mientras promocionaban la empresa por su talento y su sólida cultura. Dylan Scandinaro, ex investigador de seguridad de IA en Anthropic, se unió recientemente a OpenAI como jefe de preparación.
Mientras tanto, Anthropic anunció otras contrataciones recientes, incluido el CTO Rahul Patil, quien anteriormente ocupó el mismo puesto en Skype, en octubre.
La empresa de IA está en conversaciones para recaudar una nueva ronda de financiación que podría valorar a Anthropic en 350.000 millones de dólares.
El jueves, Anthropic lanzó Claude Opus 4.6, un modelo mejorado diseñado para mejorar la productividad de la oficina y el rendimiento de la codificación, con una ventana emergente más grande para manejar documentos más largos y trabajos más complejos en una sola sesión.
Lea la carta completa de Sharma a continuación.
Estimados colegas, He decidido dejar Anthropic. Mi último día será el 9 de febrero. GRACIAS. Hay tantas cosas aquí que me inspiran y me han inspirado. Por nombrar algunas de estas cosas: un deseo y una voluntad sinceros de presentarse en una situación tan difícil y aspirar a contribuir de una manera impactante y de alta integridad; voluntad de tomar decisiones difíciles y defender lo que es correcto; una cantidad irrazonable de genio intelectual y determinación; y, por supuesto, la considerable amabilidad que impregna nuestra cultura. Logré lo que quería aquí. Llegué a San Francisco hace dos años, después de terminar mi doctorado y querer ayudar a mantener a Al a salvo. Me siento afortunado de haber podido contribuir a lo que tengo aquí: comprender la adulación de Al y sus causas; desarrollar defensas para reducir los riesgos asociados con el bioterrorismo asistido por Al; realmente poner en producción estas defensas; y escribir uno de los primeros informes de seguridad de Al. Estoy particularmente orgulloso de mis recientes esfuerzos para ayudarnos a vivir nuestros valores a través de mecanismos internos de transparencia; y también mi proyecto final sobre cómo los asistentes de IA pueden hacernos menos humanos o distorsionar nuestra humanidad. Gracias por tu confianza. Sin embargo, me parece claro que ha llegado el momento de seguir adelante. Continuamente me encuentro considerando nuestra situación. El mundo está en peligro. Y no sólo por el aluminio o las armas biológicas, sino por toda una serie de crisis interconectadas que se están desarrollando mientras hablamos. Parece que nos acercamos a un umbral en el que nuestra sabiduría debe crecer en una medida igual a nuestra capacidad de influir en el mundo, afrontemos las consecuencias. Además, a lo largo de mi estancia aquí, he observado repetidamente lo difícil que es dejar que nuestros valores gobiernen nuestras acciones. Lo he visto en mí mismo, dentro de la organización, donde constantemente enfrentamos presión para dejar de lado lo que más importa, y en toda la sociedad. Es considerando esta situación y escuchando lo mejor que puedo que queda claro lo que debo hacer. Quiero contribuir a un enfoque que me parece totalmente íntegro y que me permite resaltar aún más mis particularidades. Quiero explorar las preguntas que realmente me parecen esenciales, las preguntas que, según David Whyte, «no deben desaparecer», las preguntas que Rilke nos implora que «vivamos». Para mí eso significa irse. Lo que viene después, no lo sé. Creo que la cita zen más famosa es «no saber es lo más íntimo». Mi intención es crear un espacio para dejar de lado las estructuras que me han frenado en los últimos años y ver qué podría surgir en su ausencia. Me siento llamado a escribir que aborde e interactúe plenamente con el lugar donde nos encontramos, y que coloque la verdad poética junto a la verdad científica como medios de conocimiento igualmente válidos, los cuales creo que tienen algo esencial que aportar al desarrollar nuevas tecnologías.* Espero explorar una carrera en poesía y dedicarme a la práctica del discurso valiente. También me entusiasma profundizar mi práctica de facilitación, coaching, desarrollo comunitario y trabajo en grupo. Veremos qué pasa. Gracias y adiós. He aprendido mucho estando aquí y les deseo lo mejor. Os dejo con uno de mis poemas favoritos, The Way It Is de William Stafford. Buena suerte, mrinank es así Hay un hilo que estás siguiendo. esto va entre cosas que cambian. Pero eso no cambia. La gente se pregunta qué estás persiguiendo. Necesitas explicar el hilo. Pero a los demás les resulta difícil verlo. Mientras lo sostengas, no podrás perderte. Las tragedias suceden; la gente está herida o morir; y sufres y envejeces. Nada de lo que hagas podrá detener el tiempo. Nunca soltamos el hilo. William Stafford
Un ex empleado de Anthropic dijo en una carta de salida publicada el lunes que dejará la empresa porque espera un «mundo en peligro».
Mrinank Sharma, quien dijo que dirigió el equipo de investigación de salvaguardias en Anthropic, publicó el lunes una carta que envió a sus colegas anunciando su partida. Sharma explicó por qué dejaba la empresa de inteligencia artificial y describió sus planes futuros.
«Logré todo lo que quería aquí», escribió Sharma, citando proyectos como el desarrollo de defensas para reducir los riesgos del bioterrorismo asistido por IA y un proyecto final sobre la comprensión de los efectos de la IA en la humanidad pdf view.
También dijo que era hora de seguir adelante mientras lidiaba constantemente con los peligros de la IA, las armas biológicas y «una gran cantidad de crisis interconectadas que están sucediendo en este momento».
«Parece que nos estamos acercando a un umbral en el que nuestra sabiduría debe crecer en proporción a nuestra capacidad de influir en el mundo. Afrontemos las consecuencias», escribió.
Y añadió: «A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen verdaderamente nuestras acciones. Lo he visto en mí mismo, dentro de la organización, donde constantemente enfrentamos presiones para dejar de lado lo que más importa, y también en la sociedad en su conjunto. »
Sharma dijo que planea realizar un trabajo acorde con su integridad, estudiar poesía y dedicarse a hablar con valentía.
Ni Sharma ni Anthropic respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Sharma es el último empleado de Anthropic en anunciar públicamente su partida.
Harsh Mehta, que trabaja en investigación y desarrollo, y el destacado científico en inteligencia artificial, Behnam Neyshabur, dijeron: En publicaciones con clasificación X la semana pasada, explicaron que dejaron Anthropic para «comenzar algo nuevo», mientras promocionaban la empresa por su talento y su sólida cultura. Dylan Scandinaro, ex investigador de seguridad de IA en Anthropic, se unió recientemente a OpenAI como jefe de preparación.
Mientras tanto, Anthropic anunció otras contrataciones recientes, incluido el CTO Rahul Patil, quien anteriormente ocupó el mismo puesto en Skype, en octubre.
La empresa de IA está en conversaciones para recaudar una nueva ronda de financiación que podría valorar a Anthropic en 350.000 millones de dólares.
El jueves, Anthropic lanzó Claude Opus 4.6, un modelo mejorado diseñado para mejorar la productividad de la oficina y el rendimiento de la codificación, con una ventana emergente más grande para manejar documentos más largos y trabajos más complejos en una sola sesión.
Lea la carta completa de Sharma a continuación.
Estimados colegas, He decidido dejar Anthropic. Mi último día será el 9 de febrero. GRACIAS. Hay tantas cosas aquí que me inspiran y me han inspirado. Por nombrar algunas de estas cosas: un deseo y una voluntad sinceros de presentarse en una situación tan difícil y aspirar a contribuir de una manera impactante y de alta integridad; voluntad de tomar decisiones difíciles y defender lo que es correcto; una cantidad irrazonable de genio intelectual y determinación; y, por supuesto, la considerable amabilidad que impregna nuestra cultura. Logré lo que quería aquí. Llegué a San Francisco hace dos años, después de terminar mi doctorado y querer ayudar a mantener a Al a salvo. Me siento afortunado de haber podido contribuir a lo que tengo aquí: comprender la adulación de Al y sus causas; desarrollar defensas para reducir los riesgos asociados con el bioterrorismo asistido por Al; realmente poner en producción estas defensas; y escribir uno de los primeros informes de seguridad de Al. Estoy particularmente orgulloso de mis recientes esfuerzos para ayudarnos a vivir nuestros valores a través de mecanismos internos de transparencia; y también mi proyecto final sobre cómo los asistentes de IA pueden hacernos menos humanos o distorsionar nuestra humanidad. Gracias por tu confianza. Sin embargo, me parece claro que ha llegado el momento de seguir adelante. Continuamente me encuentro considerando nuestra situación. El mundo está en peligro. Y no sólo por el aluminio o las armas biológicas, sino por toda una serie de crisis interconectadas que se están desarrollando mientras hablamos. Parece que nos acercamos a un umbral en el que nuestra sabiduría debe crecer en una medida igual a nuestra capacidad de influir en el mundo, afrontemos las consecuencias. Además, a lo largo de mi estancia aquí, he observado repetidamente lo difícil que es dejar que nuestros valores gobiernen nuestras acciones. Lo he visto en mí mismo, dentro de la organización, donde constantemente enfrentamos presión para dejar de lado lo que más importa, y en toda la sociedad. Es considerando esta situación y escuchando lo mejor que puedo que queda claro lo que debo hacer. Quiero contribuir a un enfoque que me parece totalmente íntegro y que me permite resaltar aún más mis particularidades. Quiero explorar las preguntas que realmente me parecen esenciales, las preguntas que, según David Whyte, «no deben desaparecer», las preguntas que Rilke nos implora que «vivamos». Para mí eso significa irse. Lo que viene después, no lo sé. Creo que la cita zen más famosa es «no saber es lo más íntimo». Mi intención es crear un espacio para dejar de lado las estructuras que me han frenado en los últimos años y ver qué podría surgir en su ausencia. Me siento llamado a escribir que aborde e interactúe plenamente con el lugar donde nos encontramos, y que coloque la verdad poética junto a la verdad científica como medios de conocimiento igualmente válidos, los cuales creo que tienen algo esencial que aportar al desarrollar nuevas tecnologías.* Espero explorar una carrera en poesía y dedicarme a la práctica del discurso valiente. También me entusiasma profundizar mi práctica de facilitación, coaching, desarrollo comunitario y trabajo en grupo. Veremos qué pasa. Gracias y adiós. He aprendido mucho estando aquí y les deseo lo mejor. Os dejo con uno de mis poemas favoritos, The Way It Is de William Stafford. Buena suerte, mrinank es así Hay un hilo que estás siguiendo. esto va entre cosas que cambian. Pero eso no cambia. La gente se pregunta qué estás persiguiendo. Necesitas explicar el hilo. Pero a los demás les resulta difícil verlo. Mientras lo sostengas, no podrás perderte. Las tragedias suceden; la gente está herida o morir; y sufres y envejeces. Nada de lo que hagas podrá detener el tiempo. Nunca soltamos el hilo. William Stafford
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre Tech,anthropic,claude,artificial-intelligence,technology,ai,society,careers,ethics
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Jordan Hart |
| 📅 Fecha Original: | 2026-02-09 20:40:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.



