Tim Cook citó recientemente una función específica de IA, Visual Intelligence, como una de las funciones de Apple Intelligence más populares hasta la fecha. Y los rumores indican que a finales de este año podría volverse mucho más potente.
La inteligencia visual es uno de los primeros éxitos entre los usuarios de Apple, dice Tim Cook
Visual Intelligence debutó en el iPhone 16 como parte del botón de control de la cámara.
Con todos los modelos de iPhone habilitados para IA, puedes presionar prolongadamente Control de cámara para ingresar al modo de inteligencia visual. O, opcionalmente, configure un botón del Centro de control o de la pantalla de bloqueo para hacer lo mismo.
Visual Intelligence esencialmente combina su cámara con IA para proporcionar nuevas funciones, como:
- traducir una señal de tráfico a su idioma nativo
- agregue un evento de un folleto a su calendario
- ver reseñas de restaurantes, fotos y más
Cuando se lanzó iOS 26, amplió enormemente la inteligencia visual. Esto ya no se limita a la cámara. Ahora todo lo que ves en tu iPhone puede beneficiarse de la IA mediante capturas de pantalla.
Tome una captura de pantalla en iOS 26 y, como parte del visor de capturas de pantalla rediseñado, ahora encontrará opciones de inteligencia visual como las anteriores.
Uno de mis usos favoritos ha sido tomar una captura de pantalla de URL de texto sin formato para convertirlas en enlaces procesables.
La semana pasada, durante la conferencia telefónica sobre resultados trimestrales de Apple, Tim Cook llamó específicamente a Visual Intelligence una de las funciones de Apple Intelligence más populares hasta la fecha. Él dijo:
Una de nuestras funciones más populares es Visual Intelligence, que ayuda a los usuarios a aprender y hacer más que nunca con el contenido en la pantalla de su iPhone, haciendo que sea más rápido encontrar, tomar medidas y responder preguntas en sus aplicaciones.
¿Por qué Cook decidió promocionar específicamente el éxito de la inteligencia visual? No podemos saberlo con seguridad.
Sin embargo, una razón podría ser que Cook sabe que Apple tiene grandes planes para expandir esta función pronto.
Los rumores dicen que los nuevos AirPods Pro y Apple Glasses utilizarán inteligencia visual
Visual Intelligence es interesante como función de la cámara y la encontré particularmente útil como opción de captura de pantalla.
Pero los rumores indican que la función pronto se ampliará a dos nuevas plataformas, lo que podría hacerla realmente brillar.
Se espera que a finales de este año se revelen un nuevo modelo de AirPods Pro 3 de alta gama y Apple Glasses.
Ambos productos tendrán cámaras integradas vinculadas a una función clave de IA. Lo has adivinado: inteligencia visual.
Aquí está Mark Gurman escribiendo sobre los nuevos AirPods:
El plan definitivo de Apple para la inteligencia visual va mucho más allá del iPhone. La compañía quiere que esta característica sea fundamental para dispositivos futuros, incluidos los AirPods equipados con cámara sobre los que he estado escribiendo durante varios meses.
Asimismo, dice sobre las Apple Glasses:
la idea es convertir las gafas en un dispositivo Apple Intelligence. El producto analizará el entorno circundante y proporcionará información al usuario.
En otras palabras, Apple predice que la inteligencia visual será una gran parte de su oferta de productos portátiles en un futuro no muy lejano.
Entonces, si hubiera una característica de la IA sobre la que Cook quisiera llamar más la atención, no sorprende que fuera la inteligencia visual.
¿Qué hace la inteligencia visual en tu iPhone hoy? Háganos saber en los comentarios.



