📂 Categoría: AI,Tech,anthropic,dario-amodei,ai,openai,claude,chat-gpt | 📅 Fecha: 1774865755
🔍 En este artículo:
El momento viral de Anthropic gime.
Business Insider examinó datos de varias empresas de seguimiento, lo que muestra que el interés en la startup de IA comenzó a estabilizarse después de un aumento notable cuando Anthropic se negó a dar marcha atrás en medio de una disputa contractual con el Pentágono.
Los datos de Appfigures, una empresa de inteligencia de aplicaciones, muestran que ChatGPT superó a Claude en descargas diarias estimadas en las tiendas Apple y Google Play en los Estados Unidos a principios de este mes, en contraste con la breve ventana en la que Anthropic reinó.
El ascenso de Anthropic coincidió con el CEO de OpenAI, Sam Altman, y el gigante de la IA sufrió un gran golpe después de lo que Altman describió como un acuerdo «apresurado» con el Pentágono, pocas horas después de que el Secretario de Defensa, Pete Hegseth, dijera que etiquetaría formalmente a Anthropic como un riesgo para la seguridad nacional.
Kara Lee, analista digital y de marca de Sensor Tower, una firma de inteligencia de mercado, escribió a Business Insider que la tasa de descarga diaria de Claude «se ha estabilizado en gran medida, con una disminución promedio del Departamento de Defensa del 2% (día tras día)» a partir del 25 de marzo. Al mismo tiempo, las descargas de ChatGPT aumentaron un 1% día tras día.
Las noticias no son del todo malas para Anthropic. Lihat juga SO8JlD. Los datos muestran que el interés por Claude sigue siendo mucho mayor que hace casi dos meses.
A principios de febrero, Claude ni siquiera estaba entre las 40 aplicaciones gratuitas más descargadas en la App Store americana de Apple. El viernes por la tarde, Claude ocupó el segundo lugar, detrás de ChatGPT. Y el número de usuarios activos diarios de Claude ha seguido aumentando, según datos de Similarweb.
Lee dijo que Anthropic experimentó un aumento del 166 % en las descargas diarias en comparación con febrero, hasta el 25 de marzo. ChatGPT bajó un 4 %.
A pesar de tener modelos de IA muy queridos, OpenAI ha dominado durante mucho tiempo el espacio del consumidor después de impulsar la carrera de IA generativa con el lanzamiento de ChatGPT en noviembre de 2022. En cambio, Anthropic se ha centrado en el mercado empresarial, que Amodei describió anteriormente como un modelo de negocio más confiable.
«Creo que tenemos un mejor modelo de negocio. Creo que tenemos mejores márgenes», dijo Amodei en la Cumbre DealBook del New York Times en diciembre. «Creo que somos responsables en eso. Pero, de nuevo, digamos que tienes un modelo de negocio diferente. Digamos que tienes un modelo de negocio impulsado por el consumidor, y piensas: la fuente de tus ingresos no es tan buena, tus márgenes son inciertos».
La crisis del Pentágono proporcionó una apertura inesperada hacia la corriente principal. La gente escribía mensajes de agradecimiento con tiza frente a la sede de Anthropic. Katy Perry publicó una captura de pantalla en X de su nueva suscripción Claude Pro, decorada con un corazón. El momento viral se produjo después de que los avances en los modelos de inteligencia artificial de Anthropic y la nueva codificación y la inteligencia artificial centrada en los negocios provocaran una venta masiva de acciones de software.
A medida que crecía el interés de los consumidores, los funcionarios de Anthropic expresaron una inmensa preocupación por las operaciones de su empresa. En presentaciones legales, la compañía dijo que se podrían perder miles de millones si se mantuviera la designación de riesgo para la seguridad nacional.
Anthropic demandó al Pentágono y a la administración Trump para bloquear la decisión de Hegseth de etiquetar oficialmente a Anthropic como un «riesgo para la cadena de suministro». Por otra parte, el presidente Donald Trump ordenó a todas las agencias federales que dejen de usar productos Anthropic en un plazo de seis meses. A pesar de las tensiones actuales, Anthropic todavía está intentando trabajar con el gobierno federal. El Washington Post informó que Claude estaba siendo utilizado para ayudar al ejército estadounidense a llevar a cabo ataques en Irán.
El jueves, un juez federal en San Francisco impidió temporalmente que el Pentágono calificara a Anthropic como un riesgo para la seguridad nacional. La jueza de distrito estadounidense Rita Lin suspendió su fallo durante una semana para darle tiempo al Departamento de Justicia para apelar.
Anthropic también está mostrando cierta tensión debido a su crecimiento. A principios de esta semana, la empresa de IA cambió sus límites de uso para intentar estabilizar la demanda durante las horas pico.
«Sé que fue frustrante», escribió en X Thariq Shihipar, que trabaja en Claude. «Seguimos invirtiendo en escalar».
Madison Hoff contribuyó con gráficos para esta historia.



