El nuevo Siri de Apple utilizará en secreto los modelos Google Gemini detrás de escena


Vía Mark GurmanApple ha delineado su estrategia para la nueva actualización de Siri proveniente de iOS 26.4 en la primavera del próximo año. Detrás de escena, gran parte de la nueva experiencia Siri utilizará modelos Google Gemini.

El modelo Gemini personalizado se ejecutará en los servidores Private Cloud Compute de Apple para ayudar a satisfacer las demandas de los usuarios. Apple prometió que la nueva Siri podría responder preguntas personales como «encontrar la recomendación de un libro de mamá» rastreando los datos de su dispositivo y generando la respuesta adecuada sobre la marcha.

Como informó anteriormente Bloomberg, la nueva arquitectura Siri tendrá tres componentes distintos: un planificador de consultas, un sistema de búsqueda de conocimientos y un resumen. Los modelos de Google Gemini se ejecutarán en los servidores de Apple y ofrecerán capacidades de programación y resumen.

La privacidad del usuario se preservará al ejecutar los modelos de Google en la infraestructura del servidor de Apple sin compartir datos externos, y los datos personales en el dispositivo probablemente se procesarán utilizando los propios modelos Foundation de Apple.

El nuevo componente de búsqueda de conocimiento. También puede funcionar con modelos Gemini. Esto le dará a Siri una «comprensión» de los temas y trivialidades del mundo, y permitirá que el asistente de voz de Apple responda preguntas de cultura más general sin recurrir a integraciones de terceros como la pobre integración de ChatGPT, o volver a los resultados de búsqueda básicos de «Encontré esto en la web».

Aunque la implementación de back-end de los modelos Gemini será extensa, Bloomberg dice que no se espera que Apple promueva esta asociación. Los modelos Gemini simplemente alimentarán partes de Siri en secreto detrás de escena. Todos los nuevos Siri se comercializarán como tecnología Apple que se ejecuta en servidores Apple y se presentarán mediante una interfaz de usuario de Apple. El acuerdo simplemente ayudará a Apple a llenar algunos vacíos tecnológicos cruciales donde sus propios sistemas LLM actualmente no funcionan lo suficientemente bien.

El arreglo no es muy diferente de lo que hace Samsung con sus teléfonos Galaxy, donde muchas de sus funciones «Galaxy AI» son envoltorios finos de las funciones de Google Gemini.

El acuerdo es un movimiento práctico que ayuda a Apple a ofrecer finalmente las funciones de IA de Siri que prometió por primera vez hace un año. En última instancia, a los clientes realmente no les importan los detalles de implementación, sólo quieren que el iPhone tenga las características que esperan.

Actualmente esperamos que Apple anuncie la nueva versión de Siri en la primavera junto con el lanzamiento de iOS 26.4 en marzo o abril. Apple también está preparando un nuevo dispositivo de visualización doméstico inteligente que aprovechará las nuevas capacidades del asistente de IA.

FTC: utilizamos enlaces de afiliados automáticos que generan ingresos. Más.



Fuente