📂 Categoría: Tech,AI,amazon,amazon-web-services,openai,big-tech,artificial-intelligence,limited-synd,exclusive,inside-business | 📅 Fecha: 1773286797
🔍 En este artículo:
Cuando Amazon anunció recientemente una inversión de 50 mil millones de dólares y una amplia asociación en la nube con OpenAI, surgió una pregunta dentro del gigante de la nube: ¿qué significa esto para Anthropic?
Amazon es uno de los mayores inversores de Anthropic y tiene una profunda asociación en la nube con la startup. OpenAI y Anthropic son enemigos jurados, por lo que existe tensión y conflicto potencial si Amazon trabaja en estrecha colaboración con ambos laboratorios de IA.
El gigante tecnológico abordó parte de este problema en temas de conversación internos que preparó recientemente para los equipos de ventas y marketing de Amazon. Business Insider revisó una copia de las pautas.
El artículo es el último ejemplo de cómo las relaciones entrelazadas se han convertido en la vanguardia del campo de la IA generativa. Esta tecnología requiere una revisión extremadamente costosa de la industria de la nube y del sector tecnológico en general.
Esto ha llevado a los gigantes tecnológicos a invertir fuertemente en muchas de las mayores empresas emergentes de IA. Por ejemplo, Anthropic tomó miles de millones de dólares de Google y Amazon, que son a su vez grandes rivales en computación en la nube y búsqueda de productos en línea.
“En las barandillas”
Matt Garman, director ejecutivo de AWS Noé Berger/Reuters
La cuestión antrópica es sólo uno de los muchos temas delicados abordados en la nota. Las directrices describen el lenguaje aprobado y el lenguaje prohibido y preparan respuestas a preguntas que van desde la dinámica competitiva hasta las acusaciones de que el acuerdo con OpenAI equivale a una financiación circular.
En conjunto, los documentos revelan cómo Amazon está dando forma deliberadamente a la narrativa en torno a una de las alianzas de IA más importantes de la industria.
«Es muy importante que todo nuestro marketing se mantenga dentro de los límites», decía el memorando. Un portavoz de Amazon se negó a hacer comentarios.
Tranquilidad para los clientes de AWS
En su guía, Amazon pidió a sus empleados que aseguraran a los clientes de AWS que tiene «relaciones sólidas» con Anthropic, así como con otros proveedores de modelos de IA, incluidos Meta, Mistral y Cohere.
«Continuaremos trabajando estrechamente con todos los proveedores de modelos y esperamos que estas asociaciones se fortalezcan con el tiempo a medida que aumente la demanda de múltiples modelos por parte de los clientes», afirma el documento.
No es «OpenAI en AWS»
Como parte del nuevo acuerdo de Amazon con OpenAI, la compañía ha creado una arquitectura de sistema de IA llamada Stateful Runtime Environment o SRE. El nuevo servicio funciona con modelos OpenAI y está disponible en Amazon Bedrock, la plataforma del gigante de la nube para que los clientes accedan a diferentes modelos.
Amazon controla estrictamente cómo los empleados describen la oferta de SRE.
Los empleados de AWS pueden decir que el SRE «funciona con modelos OpenAI», «está habilitado por modelos OpenAI» o «se integra con modelos OpenAI», según los puntos de conversación del documento revisado por Business Insider.
Sin embargo, se pide explícitamente al personal de AWS que no diga que SRE «permite el acceso a modelos OpenAI» o permite a los clientes «llamar a modelos OpenAI». El documento advierte contra la descripción del SRE como un «puente» hacia los modelos GPT o sugiere que los modelos de frontera de OpenAI están generalmente disponibles en AWS.
También se pide a los empleados de AWS que no den a entender que OpenAI «ofrece» SRE. En cambio, las empresas “colaboran conjuntamente para lograrlo”.
La distinción es deliberada. Los modelos OpenAI admitirán SRE, pero los clientes no podrán llamarlos directamente a través de las API de Bedrock existentes. (Las interfaces de programación de aplicaciones, o API, son una forma común para que las aplicaciones accedan y compartan datos).
Este posicionamiento de Amazon separa su nuevo acuerdo del acuerdo de Microsoft para alojar modelos OpenAI en su servicio en la nube Azure. Info lengkap: osh4. Esto también refuerza que AWS no solo revende modelos OpenAI, sino que integra sus modelos en un servicio de infraestructura específico.
Muchos detalles operativos siguen siendo confidenciales. Los precios, los límites técnicos y la disponibilidad regional se enumeran internamente en «estén atentos».
¿Es este un acuerdo circular?
El memorando interno también aborda la cuestión de si la inversión de 50 mil millones de dólares de Amazon en OpenAI equivale a un acuerdo circular. Estas preocupaciones se han vuelto comunes en el sector de la inteligencia artificial, donde los gigantes tecnológicos invierten en nuevas empresas, solo para ver que gran parte de ese dinero regresa en forma de gasto en la nube.
En el caso de Amazon, OpenAI está ampliando su actual acuerdo de nube con AWS en 100.000 millones de dólares a lo largo de 8 años y comprometiéndose a 2 gigavatios de chips AWS Trainium como parte del acuerdo del mes pasado.
Se pide a los empleados de AWS que rechacen cualquier solicitud de financiación circular. El documento sostiene que las empresas frecuentemente invierten y hacen negocios entre sí, particularmente en sectores intensivos en capital. Dice que las razones por las que Amazon está invirtiendo en OpenAI son independientes de las razones por las que OpenAI utiliza la infraestructura de AWS.
¿Abandonar Nova?
Los puntos de conversación preparan aún más a los equipos para abordar las preocupaciones de que el acuerdo podría dejar de lado los propios modelos Nova AI de Amazon o su oferta de aplicaciones Quick Agentic AI. Como parte del acuerdo, Amazon se convertirá en el proveedor exclusivo del servicio Frontier de OpenAI, que tiene características de tecnología empresarial similares a Quick.
La guía destaca el compromiso continuo de Amazon con Nova y Quick, así como la importancia de ofrecer a los clientes opciones. Los clientes utilizan múltiples modelos de IA incluso dentro de la misma aplicación, dice la guía.
Los puntos de conversación también abordan cuestiones de suministro de chips.
Dadas las enormes necesidades de infraestructura de OpenAI, AWS espera que los clientes se pregunten si la capacidad de Trainium será limitada. Amazon ha dicho anteriormente que el crecimiento de AWS habría sido más fuerte sin los problemas de capacidad limitada.
Sin embargo, la guía garantiza a los equipos que muchos clientes seguirán teniendo acceso a Trainium para sus propias cargas de trabajo de IA.
¿Tiene algún consejo? Póngase en contacto con este periodista por correo electrónico a ekim@businessinsider.com o Signal, Telegram o WhatsApp al 650-942-3061. Usar una dirección de correo electrónico personal, una red WiFi que no sea del trabajo y un dispositivo que no sea del trabajo; aquí está nuestra guía para compartir información de forma segura.
Cuando Amazon anunció recientemente una inversión de 50 mil millones de dólares y una amplia asociación en la nube con OpenAI, surgió una pregunta dentro del gigante de la nube: ¿qué significa esto para Anthropic?
Amazon es uno de los mayores inversores de Anthropic y tiene una profunda asociación en la nube con la startup. OpenAI y Anthropic son enemigos jurados, por lo que existe tensión y conflicto potencial si Amazon trabaja en estrecha colaboración con ambos laboratorios de IA.
El gigante tecnológico abordó parte de este problema en temas de conversación internos que preparó recientemente para los equipos de ventas y marketing de Amazon. Business Insider revisó una copia de las pautas.
El artículo es el último ejemplo de cómo las relaciones entrelazadas se han convertido en la vanguardia del campo de la IA generativa. Esta tecnología requiere una revisión extremadamente costosa de la industria de la nube y del sector tecnológico en general.
Esto ha llevado a los gigantes tecnológicos a invertir fuertemente en muchas de las mayores empresas emergentes de IA. Por ejemplo, Anthropic tomó miles de millones de dólares de Google y Amazon, que son a su vez grandes rivales en computación en la nube y búsqueda de productos en línea.
“En las barandillas”
Matt Garman, director ejecutivo de AWS Noé Berger/Reuters
La cuestión antrópica es sólo uno de los muchos temas delicados abordados en la nota. Las directrices describen el lenguaje aprobado y el lenguaje prohibido y preparan respuestas a preguntas que van desde la dinámica competitiva hasta las acusaciones de que el acuerdo con OpenAI equivale a una financiación circular.
En conjunto, los documentos revelan cómo Amazon está dando forma deliberadamente a la narrativa en torno a una de las alianzas de IA más importantes de la industria.
«Es muy importante que todo nuestro marketing se mantenga dentro de los límites», decía el memorando. Un portavoz de Amazon se negó a hacer comentarios.
Tranquilidad para los clientes de AWS
En su guía, Amazon pidió a sus empleados que aseguraran a los clientes de AWS que tiene «relaciones sólidas» con Anthropic, así como con otros proveedores de modelos de IA, incluidos Meta, Mistral y Cohere.
«Continuaremos trabajando estrechamente con todos los proveedores de modelos y esperamos que estas asociaciones se fortalezcan con el tiempo a medida que aumente la demanda de múltiples modelos por parte de los clientes», afirma el documento.
No es «OpenAI en AWS»
Como parte del nuevo acuerdo de Amazon con OpenAI, la compañía ha creado una arquitectura de sistema de IA llamada Stateful Runtime Environment o SRE. El nuevo servicio funciona con modelos OpenAI y está disponible en Amazon Bedrock, la plataforma del gigante de la nube para que los clientes accedan a diferentes modelos.
Amazon controla estrictamente cómo los empleados describen la oferta de SRE.
Los empleados de AWS pueden decir que el SRE «funciona con modelos OpenAI», «está habilitado por modelos OpenAI» o «se integra con modelos OpenAI», según los puntos de conversación del documento revisado por Business Insider.
Sin embargo, se pide explícitamente al personal de AWS que no diga que SRE «permite el acceso a modelos OpenAI» o permite a los clientes «llamar a modelos OpenAI». El documento advierte contra la descripción del SRE como un «puente» hacia los modelos GPT o sugiere que los modelos de frontera de OpenAI están generalmente disponibles en AWS.
También se pide a los empleados de AWS que no den a entender que OpenAI «ofrece» SRE. En cambio, las empresas “colaboran conjuntamente para lograrlo”.
La distinción es deliberada. Los modelos OpenAI admitirán SRE, pero los clientes no podrán llamarlos directamente a través de las API de Bedrock existentes. (Las interfaces de programación de aplicaciones, o API, son una forma común para que las aplicaciones accedan y compartan datos).
Este posicionamiento de Amazon separa su nuevo acuerdo del acuerdo de Microsoft para alojar modelos OpenAI en su servicio en la nube Azure. Info lengkap: osh4. Esto también refuerza que AWS no solo revende modelos OpenAI, sino que integra sus modelos en un servicio de infraestructura específico.
Muchos detalles operativos siguen siendo confidenciales. Los precios, los límites técnicos y la disponibilidad regional se enumeran internamente en «estén atentos».
¿Es este un acuerdo circular?
El memorando interno también aborda la cuestión de si la inversión de 50 mil millones de dólares de Amazon en OpenAI equivale a un acuerdo circular. Estas preocupaciones se han vuelto comunes en el sector de la inteligencia artificial, donde los gigantes tecnológicos invierten en nuevas empresas, solo para ver que gran parte de ese dinero regresa en forma de gasto en la nube.
En el caso de Amazon, OpenAI está ampliando su actual acuerdo de nube con AWS en 100.000 millones de dólares a lo largo de 8 años y comprometiéndose a 2 gigavatios de chips AWS Trainium como parte del acuerdo del mes pasado.
Se pide a los empleados de AWS que rechacen cualquier solicitud de financiación circular. El documento sostiene que las empresas frecuentemente invierten y hacen negocios entre sí, particularmente en sectores intensivos en capital. Dice que las razones por las que Amazon está invirtiendo en OpenAI son independientes de las razones por las que OpenAI utiliza la infraestructura de AWS.
¿Abandonar Nova?
Los puntos de conversación preparan aún más a los equipos para abordar las preocupaciones de que el acuerdo podría dejar de lado los propios modelos Nova AI de Amazon o su oferta de aplicaciones Quick Agentic AI. Como parte del acuerdo, Amazon se convertirá en el proveedor exclusivo del servicio Frontier de OpenAI, que tiene características de tecnología empresarial similares a Quick.
La guía destaca el compromiso continuo de Amazon con Nova y Quick, así como la importancia de ofrecer a los clientes opciones. Los clientes utilizan múltiples modelos de IA incluso dentro de la misma aplicación, dice la guía.
Los puntos de conversación también abordan cuestiones de suministro de chips.
Dadas las enormes necesidades de infraestructura de OpenAI, AWS espera que los clientes se pregunten si la capacidad de Trainium será limitada. Amazon ha dicho anteriormente que el crecimiento de AWS habría sido más fuerte sin los problemas de capacidad limitada.
Sin embargo, la guía garantiza a los equipos que muchos clientes seguirán teniendo acceso a Trainium para sus propias cargas de trabajo de IA.
¿Tiene algún consejo? Póngase en contacto con este periodista por correo electrónico a ekim@businessinsider.com o Signal, Telegram o WhatsApp al 650-942-3061. Usar una dirección de correo electrónico personal, una red WiFi que no sea del trabajo y un dispositivo que no sea del trabajo; aquí está nuestra guía para compartir información de forma segura.
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre Tech,AI,amazon,amazon-web-services,openai,big-tech,artificial-intelligence,limited-synd,exclusive,inside-business
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Eugene Kim |
| 📅 Fecha Original: | 2026-03-11 18:57:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.



