Anthropic abandona su compromiso de seguridad en medio de una acalorada carrera por la IA

 | AI,Tech,anthropic

📂 Categoría: AI,Tech,anthropic | 📅 Fecha: 1772041376

🔍 En este artículo:

Anthropic ya no está en línea por ser tan diferente.

La startup de IA fundada por antiguos empleados de OpenAI, centrada en el correcto desarrollo de la tecnología, debilita su principio fundamental de seguridad.

En un comunicado publicado el martes, Anthropic dijo que en medio de una mayor competencia y una falta de regulación gubernamental, ya no cumplirá su compromiso de «pausar la ampliación y/o retrasar el despliegue de nuevos modelos» cuando dichos avances hayan superado sus propias medidas de seguridad.

La nueva política significa que Anthropic está mucho menos limitado por preocupaciones de seguridad en un momento en que su chatbot insignia, Claude, está revolucionando los mercados financieros y generando preocupaciones sobre la muerte del software.

Como parte de los cambios, Anthropic ahora tiene recomendaciones de seguridad separadas, llamadas Política de Escalamiento Responsable, para sí misma y para la industria de la IA en su conjunto. La política se basa libremente en los estándares de Nivel de Bioseguridad (BSL) del gobierno de EE. UU.

El director científico de Anthropic, Jared Kaplan, dijo a la revista Time que la política de escalamiento responsable no es consistente con el estado actual de la carrera de la IA.

«Pensamos que no ayudaría a nadie si dejábamos de entrenar modelos de IA», Kaplan dicho Tiempo. «Con los rápidos avances en IA, realmente no pensamos que tuviera sentido para nosotros asumir compromisos unilaterales… si nuestros competidores estaban avanzando».

La nueva política todavía incluye el compromiso de retrasar el desarrollo o lanzamiento de un modelo de IA de “alto rendimiento”, pero sólo en circunstancias más limitadas.

En una extensa publicación de blog, Anthropic citó “un clima político antirregulatorio” para justificar su decisión. Read more: tgb6. La empresa y su director ejecutivo, Dario Amodei, han presionado para que se regule la IA con cierto éxito a nivel estatal, pero sin ninguna acción importante a nivel federal.

«Seguimos confiando en que la participación gubernamental efectiva en la seguridad de la IA es necesaria y alcanzable, y nuestro objetivo es continuar avanzando en una conversación basada en evidencia, intereses de seguridad nacional, competitividad económica y confianza pública», dijo la compañía. escribió. «Pero esto resulta ser un proyecto a largo plazo, no algo que suceda orgánicamente a medida que la IA se vuelve más capaz o cruza ciertos umbrales».

La compañía dijo que la política de escala siempre tuvo como objetivo ser «un documento vivo», que se describió en la primera versión en 2023. Dicho esto, Amodei ha dicho anteriormente que la política de seguridad tiene como objetivo mitigar los riesgos que la IA podría traer, incluso citando la famosa advertencia del tío Ben a Peter Parker, también conocido como Spider-Man.

“El poder de los modelos y su capacidad para resolver todos estos problemas en biología, neurociencia, desarrollo económico, gobernanza y paz, partes importantes de la economía, también conlleva riesgos, ¿verdad?” Amodei le dijo al podcaster Lex Fridman en noviembre de 2024. “Un gran poder conlleva una gran responsabilidad”.

Anthropic dijo que otra razón para cambiar los estándares es que los niveles de riesgo teórico más altos, ASL-4 y superiores, dentro de su marco no pueden ser controlados por una sola empresa. (En el mundo de la bioseguridad, BSL-4 se refiere al nivel más alto de protección que un número muy pequeño de laboratorios implementa para controlar patógenos como el Ébola).

La seguridad está en el corazón del alma de Anthropic

Amodei ha dicho repetidamente que el compromiso de su empresa con la seguridad fue evidente en una de sus primeras decisiones importantes: no liberar a Claude en el verano de 2022.

Al recordar esa medida, Amodei dijo que a Anthropic le preocupaba no poder desarrollar salvaguardias lo suficientemente rápido para el lanzamiento público de una tecnología revolucionaria. OpenAI lanzó ChatGPT en noviembre de 2022, iniciando la carrera de la IA. Unos meses más tarde, Anthropic finalmente liberó a Claude.

«Ahora era muy caro desde el punto de vista comercial», dijo Amodei en una entrevista reciente con el multimillonario e inversor Nikhil Kamath. «Probablemente por eso tomamos la delantera en la IA del consumidor».

El cambio de políticas también ocurre en el contexto antropogénico. presión facial del Pentágono sobre las líneas rojas a disposición de la startup para el uso de sus modelos de IA. Amodei se reunió el martes con el secretario de Defensa, Pete Hegseth, para discutir el tema. Anthropic enfrenta una fecha límite el viernes, o Hegseth podría intentar invocar poderes para obligar a la compañía a dar marcha atrás.

Uno de los documentos de formación anteriores de Claude se llama internamente «Alma Doc«, un ejemplo de retórica que estaría fuera de lugar en la mayoría de las otras empresas de IA.

Kamath presionó a Amodei sobre cómo respondió a las críticas de que Anthropic solo estaba presionando para que la regulación detuviera el crecimiento de futuros competidores. Amodei dijo que la medida de 2022 era un ejemplo de cómo la empresa estaba respaldando su narrativa de seguridad. También destacó la necesidad de controlar las exportaciones estadounidenses de chips avanzados a China, una postura criticada por el director ejecutivo de Nvidia, Jensen Huang.

«Cualquiera que piense que nos beneficiamos de ser los únicos que hacemos esto, es realmente difícil entender cuál es el caso», dijo Amodei. «Miras a cualquiera de ellos y ‘vale, está bien’, pero has reunido suficientes y no sé, te estoy pidiendo que nos juzgues por nuestras acciones».

Anthropic ya no está en línea por ser tan diferente.

La startup de IA fundada por antiguos empleados de OpenAI, centrada en el correcto desarrollo de la tecnología, debilita su principio fundamental de seguridad.

En un comunicado publicado el martes, Anthropic dijo que en medio de una mayor competencia y una falta de regulación gubernamental, ya no cumplirá su compromiso de «pausar la ampliación y/o retrasar el despliegue de nuevos modelos» cuando dichos avances hayan superado sus propias medidas de seguridad.

La nueva política significa que Anthropic está mucho menos limitado por preocupaciones de seguridad en un momento en que su chatbot insignia, Claude, está revolucionando los mercados financieros y generando preocupaciones sobre la muerte del software.

Como parte de los cambios, Anthropic ahora tiene recomendaciones de seguridad separadas, llamadas Política de Escalamiento Responsable, para sí misma y para la industria de la IA en su conjunto. La política se basa libremente en los estándares de Nivel de Bioseguridad (BSL) del gobierno de EE. UU.

El director científico de Anthropic, Jared Kaplan, dijo a la revista Time que la política de escalamiento responsable no es consistente con el estado actual de la carrera de la IA.

«Pensamos que no ayudaría a nadie si dejábamos de entrenar modelos de IA», Kaplan dicho Tiempo. «Con los rápidos avances en IA, realmente no pensamos que tuviera sentido para nosotros asumir compromisos unilaterales… si nuestros competidores estaban avanzando».

La nueva política todavía incluye el compromiso de retrasar el desarrollo o lanzamiento de un modelo de IA de “alto rendimiento”, pero sólo en circunstancias más limitadas.

En una extensa publicación de blog, Anthropic citó “un clima político antirregulatorio” para justificar su decisión. Read more: tgb6. La empresa y su director ejecutivo, Dario Amodei, han presionado para que se regule la IA con cierto éxito a nivel estatal, pero sin ninguna acción importante a nivel federal.

«Seguimos confiando en que la participación gubernamental efectiva en la seguridad de la IA es necesaria y alcanzable, y nuestro objetivo es continuar avanzando en una conversación basada en evidencia, intereses de seguridad nacional, competitividad económica y confianza pública», dijo la compañía. escribió. «Pero esto resulta ser un proyecto a largo plazo, no algo que suceda orgánicamente a medida que la IA se vuelve más capaz o cruza ciertos umbrales».

La compañía dijo que la política de escala siempre tuvo como objetivo ser «un documento vivo», que se describió en la primera versión en 2023. Dicho esto, Amodei ha dicho anteriormente que la política de seguridad tiene como objetivo mitigar los riesgos que la IA podría traer, incluso citando la famosa advertencia del tío Ben a Peter Parker, también conocido como Spider-Man.

“El poder de los modelos y su capacidad para resolver todos estos problemas en biología, neurociencia, desarrollo económico, gobernanza y paz, partes importantes de la economía, también conlleva riesgos, ¿verdad?” Amodei le dijo al podcaster Lex Fridman en noviembre de 2024. “Un gran poder conlleva una gran responsabilidad”.

Anthropic dijo que otra razón para cambiar los estándares es que los niveles de riesgo teórico más altos, ASL-4 y superiores, dentro de su marco no pueden ser controlados por una sola empresa. (En el mundo de la bioseguridad, BSL-4 se refiere al nivel más alto de protección que un número muy pequeño de laboratorios implementa para controlar patógenos como el Ébola).

La seguridad está en el corazón del alma de Anthropic

Amodei ha dicho repetidamente que el compromiso de su empresa con la seguridad fue evidente en una de sus primeras decisiones importantes: no liberar a Claude en el verano de 2022.

Al recordar esa medida, Amodei dijo que a Anthropic le preocupaba no poder desarrollar salvaguardias lo suficientemente rápido para el lanzamiento público de una tecnología revolucionaria. OpenAI lanzó ChatGPT en noviembre de 2022, iniciando la carrera de la IA. Unos meses más tarde, Anthropic finalmente liberó a Claude.

«Ahora era muy caro desde el punto de vista comercial», dijo Amodei en una entrevista reciente con el multimillonario e inversor Nikhil Kamath. «Probablemente por eso tomamos la delantera en la IA del consumidor».

El cambio de políticas también ocurre en el contexto antropogénico. presión facial del Pentágono sobre las líneas rojas a disposición de la startup para el uso de sus modelos de IA. Amodei se reunió el martes con el secretario de Defensa, Pete Hegseth, para discutir el tema. Anthropic enfrenta una fecha límite el viernes, o Hegseth podría intentar invocar poderes para obligar a la compañía a dar marcha atrás.

Uno de los documentos de formación anteriores de Claude se llama internamente «Alma Doc«, un ejemplo de retórica que estaría fuera de lugar en la mayoría de las otras empresas de IA.

Kamath presionó a Amodei sobre cómo respondió a las críticas de que Anthropic solo estaba presionando para que la regulación detuviera el crecimiento de futuros competidores. Amodei dijo que la medida de 2022 era un ejemplo de cómo la empresa estaba respaldando su narrativa de seguridad. También destacó la necesidad de controlar las exportaciones estadounidenses de chips avanzados a China, una postura criticada por el director ejecutivo de Nvidia, Jensen Huang.

«Cualquiera que piense que nos beneficiamos de ser los únicos que hacemos esto, es realmente difícil entender cuál es el caso», dijo Amodei. «Miras a cualquiera de ellos y ‘vale, está bien’, pero has reunido suficientes y no sé, te estoy pidiendo que nos juzgues por nuestras acciones».

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre AI,Tech,anthropic
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Brent D. Griffiths
📅 Fecha Original: 2026-02-25 17:20:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario