Siri de Apple Recibe un Cerebro Gemini en la Renovación de iOS 26.4
Apple está reconstruyendo fundamentalmente Siri con los modelos de IA Gemini de Google en iOS 26.4, introduciendo reconocimiento contextual en pantalla y acciones de varios pasos: el mayor cambio en Siri desde su debut en 2011. Algunas funciones podrían retrasarse a actualizaciones posteriores debido a problemas técnicos.
Un Nuevo Cerebro para un Viejo Asistente
Por primera vez en quince años, Siri está recibiendo una renovación arquitectónica genuina. Apple confirmó en enero de 2026 que su asistente de voz, largamente criticado, será reconstruido sobre la base de los modelos de IA Gemini de Google, manejando tareas de razonamiento complejas que los propios sistemas integrados de Apple han tenido dificultades para gestionar. La actualización, que se espera que se lance con iOS 26.4 en la primavera de 2026, representa el cambio más significativo en Siri desde su lanzamiento en el iPhone 4S en 2011.
Qué Está Cambiando Realmente
La característica principal es el reconocimiento en pantalla. El Siri reconstruido podrá leer y hacer referencia a cualquier contenido que se muestre actualmente en el dispositivo, lo que lo convierte, por primera vez, en un asistente genuinamente sensible al contexto. Si un correo electrónico de confirmación de vuelo está abierto, Siri puede agregar automáticamente el viaje al Calendario y establecer recordatorios de salida. Si se muestra una página de restaurante en Safari, Siri puede iniciar una reserva sin que el usuario copie un nombre o una dirección.
Más allá del reconocimiento de pantalla, el nuevo Siri gana la capacidad de encadenar múltiples acciones a partir de una sola solicitud y mantener conversaciones naturales de varios turnos, alejándose de los comandos aislados y únicos que han definido (y limitado) la utilidad de Siri desde su lanzamiento. Según MacRumors, Gemini maneja las funciones de resumen y planificación de Siri, mientras que Apple conserva el control total sobre la interfaz de usuario y el enrutamiento de datos.
La Arquitectura de Privacidad
Apple y Google han construido un amortiguador de privacidad deliberado en el sistema. Como Apple explicó en enero, las consultas simples permanecen en el dispositivo, las moderadamente complejas se enrutan a través de los servidores Private Cloud Compute de Apple, y solo las tareas de razonamiento más exigentes llegan a la infraestructura de Google, con Apple actuando como un proxy de privacidad que elimina la identidad del usuario antes de que cualquier dato salga de su control.
CNBC informó que Apple está pagando aproximadamente $1 mil millones por año por el acceso a las capacidades de Gemini, una cifra sorprendente que subraya cuán en serio se está tomando la compañía la presión competitiva de ChatGPT y la propia aplicación Gemini de Google.
Retrasos Nublan el Lanzamiento
El camino hacia el lanzamiento no ha sido fácil. En febrero, tanto 9to5Mac como MacRumors informaron que varias funciones impulsadas por Gemini se están retrasando más allá de iOS 26.4 a iOS 26.5 (esperado en mayo) y posiblemente a iOS 27 en el otoño. Los evaluadores internos señalaron la latencia de respuesta, los cortes a mitad de frase y una alternativa inusual donde Siri estaba enrutando algunas consultas a ChatGPT en lugar del canal Gemini que Apple había contratado. El acceso profundo a datos personales, como la búsqueda de mensajes antiguos, también sigue siendo inestable, según los informes.
La versión beta de iOS 26.4 de Apple se lanzó en febrero sin que ninguna de las nuevas funciones de Siri fuera visible, lo que sugiere que el lanzamiento público puede ser más gradual de lo anunciado inicialmente.
Un Giro Estratégico, y una Admisión Competitiva
La asociación con Google señala algo significativo: Apple está reconociendo que la construcción interna de modelos de razonamiento de IA de vanguardia, a la escala requerida por Siri, está actualmente fuera de su alcance, o al menos de su cronograma. La compañía que construyó su marca sobre la integración vertical está subcontratando una de sus características más visibles para el usuario a su rival de búsqueda más antiguo.
Se espera que la visión completa, incluidos los flujos de trabajo multi-aplicación al nivel de ChatGPT y la personalización profunda, llegue con iOS 27 en septiembre de 2026. La actualización de primavera, cuandoquiera que aterrice, será el acto de apertura de lo que Apple está llamando una transformación en dos fases de su estrategia de IA.