Claude alcanza el primer puesto en la App Store a medida que los usuarios de ChatGPT cambian a Anthropic

 | Tech,Politics,Military & Defense,chat-gpt,claude,anthropic,pentagon,military

📂 Categoría: Tech,Politics,Military & Defense,chat-gpt,claude,anthropic,pentagon,military | 📅 Fecha: 1772323259

🔍 En este artículo:

Mientras OpenAI bloquea Washington, Anthropic bloquea a los usuarios y se dispara a la cima de la App Store.

Anthropic fue marginada en Washington luego de una disputa pública con el Departamento de Defensa sobre cómo se desplegarían sus modelos de IA. Presidente Donald Trump ordenó a las agencias federales que eliminaran gradualmente su tecnología.

Mientras tanto, OpenAI ha ido ganando terreno, y el director ejecutivo Sam Altman anunció en un artículo del viernes por la noche en X que había llegado a un acuerdo con el Departamento de Guerra para implementar modelos de IA en su red clasificada.

El acuerdo con OpenAI dejó a algunos usuarios leales de ChatGPT preocupados por las ambiciones de OpenAI, lo que provocó debates en línea sobre las implicaciones éticas, y algunos dijeron que estaban desertando para rivalizar con Claude.

A partir de las 18:38 horas. Lihat juga tgb7. ET del sábado, Claude se ubicó como la aplicación de productividad más descargada en la App Store de Apple, detrás de ChatGPT.

BI



Los conversos recurrieron a las redes sociales para compartir capturas de pantalla que documentan su cambio.

La música pop Katy Perry escribió que había «terminado» con X, junto con una captura de pantalla de la página de precios de Claude, con un corazón rojo alrededor del plan «Pro» de $20 por mes.

Otro usuario de X, Adam Lyttle, escribió: «Hice el cambio», junto con una captura de pantalla de su bandeja de entrada de correo electrónico con un recibo de Anthropic y una confirmación de cancelación de OpenAI.

En el subreddit ChatGPT de Reddit, decenas de usuarios dicen que han eliminado sus cuentas e instan a otros a hacer lo mismo.

«Cancelar ChatGPT» se convirtió en un estribillo común en línea, mientras que algunos usuarios adoptaron un tono más personal y dijeron que la decisión de Altman «cruzó la línea».

Sin embargo, el acuerdo no ha polarizado a todos los usuarios de IA.

En un hilo de Reddit, varios comentaristas dijeron que la noticia no afectó su elección del modelo de IA, argumentando que el trabajo de Anthropic con Palantir generó preocupaciones similares. En noviembre de 2024, Anthropic, Palantir y Amazon Web Services firmaron un acuerdo para proporcionar a las agencias de inteligencia y defensa de EE. UU. acceso a los modelos de Claude.

Después de que el Secretario de Guerra, Pete Hegseth, dijera que designaría a Anthropic como un «riesgo para la cadena de suministro para la seguridad nacional», Anthropic dijo que «impugnaría cualquier designación de riesgo para la cadena de suministro en los tribunales».

En su mensaje del viernes, Altman dijo que el Departamento de Guerra había aceptado dos de los principios de seguridad de OpenAI.

«Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva interna y la responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomos», escribió Altman en X. «El Departamento de Guerra está de acuerdo con estos principios, los refleja en la ley y la política, y los consagramos en nuestro acuerdo».

El sábado por la tarde, OpenAI publicó una descripción más detallada de su contrato con el DoW, incluido el lenguaje específico utilizado con respecto al uso de sus modelos para vigilancia y armas autónomas.

Sobre el tema de las armas autónomas, OpenAI dijo:

El sistema de IA no se utilizará para dirigir de forma independiente armas autónomas en los casos en que la ley, la regulación o la política del departamento requieran control humano, ni se utilizará para tomar otras decisiones de alto riesgo que requieran la aprobación de un tomador de decisiones humano bajo las mismas autoridades.

Sobre el tema de la vigilancia masiva, OpenAI dijo:

El sistema de IA no debería utilizarse para la vigilancia ilimitada de información privada de personas estadounidenses, según estas autoridades.

Mientras que algunos usuarios de chatbot sugirieron que todo era justo en los negocios, la guerra y las adquisiciones federales, otros sugirieron que la postura del Pentágono podría haberle dado a Anthropic una victoria en relaciones públicas.

El usuario de X, Tae Kim, bromeó diciendo que Hegseth podría necesitar un nuevo título: «Secretario Hegseth, director de marketing de Claude».

Mientras OpenAI bloquea Washington, Anthropic bloquea a los usuarios y se dispara a la cima de la App Store.

Anthropic fue marginada en Washington luego de una disputa pública con el Departamento de Defensa sobre cómo se desplegarían sus modelos de IA. Presidente Donald Trump ordenó a las agencias federales que eliminaran gradualmente su tecnología.

Mientras tanto, OpenAI ha ido ganando terreno, y el director ejecutivo Sam Altman anunció en un artículo del viernes por la noche en X que había llegado a un acuerdo con el Departamento de Guerra para implementar modelos de IA en su red clasificada.

El acuerdo con OpenAI dejó a algunos usuarios leales de ChatGPT preocupados por las ambiciones de OpenAI, lo que provocó debates en línea sobre las implicaciones éticas, y algunos dijeron que estaban desertando para rivalizar con Claude.

A partir de las 18:38 horas. Lihat juga tgb7. ET del sábado, Claude se ubicó como la aplicación de productividad más descargada en la App Store de Apple, detrás de ChatGPT.

BI



Los conversos recurrieron a las redes sociales para compartir capturas de pantalla que documentan su cambio.

La música pop Katy Perry escribió que había «terminado» con X, junto con una captura de pantalla de la página de precios de Claude, con un corazón rojo alrededor del plan «Pro» de $20 por mes.

Otro usuario de X, Adam Lyttle, escribió: «Hice el cambio», junto con una captura de pantalla de su bandeja de entrada de correo electrónico con un recibo de Anthropic y una confirmación de cancelación de OpenAI.

En el subreddit ChatGPT de Reddit, decenas de usuarios dicen que han eliminado sus cuentas e instan a otros a hacer lo mismo.

«Cancelar ChatGPT» se convirtió en un estribillo común en línea, mientras que algunos usuarios adoptaron un tono más personal y dijeron que la decisión de Altman «cruzó la línea».

Sin embargo, el acuerdo no ha polarizado a todos los usuarios de IA.

En un hilo de Reddit, varios comentaristas dijeron que la noticia no afectó su elección del modelo de IA, argumentando que el trabajo de Anthropic con Palantir generó preocupaciones similares. En noviembre de 2024, Anthropic, Palantir y Amazon Web Services firmaron un acuerdo para proporcionar a las agencias de inteligencia y defensa de EE. UU. acceso a los modelos de Claude.

Después de que el Secretario de Guerra, Pete Hegseth, dijera que designaría a Anthropic como un «riesgo para la cadena de suministro para la seguridad nacional», Anthropic dijo que «impugnaría cualquier designación de riesgo para la cadena de suministro en los tribunales».

En su mensaje del viernes, Altman dijo que el Departamento de Guerra había aceptado dos de los principios de seguridad de OpenAI.

«Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva interna y la responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomos», escribió Altman en X. «El Departamento de Guerra está de acuerdo con estos principios, los refleja en la ley y la política, y los consagramos en nuestro acuerdo».

El sábado por la tarde, OpenAI publicó una descripción más detallada de su contrato con el DoW, incluido el lenguaje específico utilizado con respecto al uso de sus modelos para vigilancia y armas autónomas.

Sobre el tema de las armas autónomas, OpenAI dijo:

El sistema de IA no se utilizará para dirigir de forma independiente armas autónomas en los casos en que la ley, la regulación o la política del departamento requieran control humano, ni se utilizará para tomar otras decisiones de alto riesgo que requieran la aprobación de un tomador de decisiones humano bajo las mismas autoridades.

Sobre el tema de la vigilancia masiva, OpenAI dijo:

El sistema de IA no debería utilizarse para la vigilancia ilimitada de información privada de personas estadounidenses, según estas autoridades.

Mientras que algunos usuarios de chatbot sugirieron que todo era justo en los negocios, la guerra y las adquisiciones federales, otros sugirieron que la postura del Pentágono podría haberle dado a Anthropic una victoria en relaciones públicas.

El usuario de X, Tae Kim, bromeó diciendo que Hegseth podría necesitar un nuevo título: «Secretario Hegseth, director de marketing de Claude».

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre Tech,Politics,Military & Defense,chat-gpt,claude,anthropic,pentagon,military
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Lakshmi Varanasi
📅 Fecha Original: 2026-02-28 23:54:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario