Technologie

Siri d'Apple se dote d'un cerveau Gemini dans la refonte d'iOS 26.4

Apple refondamentalise Siri avec les modèles d'IA Gemini de Google dans iOS 26.4, introduisant la conscience contextuelle à l'écran et des actions en plusieurs étapes – le plus grand changement apporté à Siri depuis ses débuts en 2011. Certaines fonctionnalités pourraient être reportées à des mises à jour ultérieures en raison de retards techniques signalés.

R
Redakcia
4 min de lecture
Partager
Siri d'Apple se dote d'un cerveau Gemini dans la refonte d'iOS 26.4

Un nouveau cerveau pour un vieil assistant

Pour la première fois en quinze ans, Siri bénéficie d'une véritable refonte architecturale. Apple a confirmé en janvier 2026 que son assistant vocal, longtemps décrié, sera reconstruit sur la base des modèles d'IA Gemini de Google, gérant des tâches de raisonnement complexes que les propres systèmes embarqués d'Apple ont eu du mal à gérer. La mise à jour, qui devrait être livrée avec iOS 26.4 au printemps 2026, représente le changement le plus important apporté à Siri depuis son lancement sur l'iPhone 4S en 2011.

Ce qui change réellement

La principale nouveauté est la conscience de l'écran. Le Siri reconstruit sera capable de lire et de référencer tout contenu actuellement affiché sur l'appareil, ce qui en fera, pour la première fois, un assistant véritablement sensible au contexte. Si un e-mail de confirmation de vol est ouvert, Siri peut automatiquement ajouter le voyage à Calendrier et définir des rappels de départ. Si une page de restaurant est affichée dans Safari, Siri peut lancer une réservation sans que l'utilisateur ait à copier un nom ou une adresse.

Au-delà de la conscience de l'écran, le nouveau Siri acquiert la capacité d'enchaîner plusieurs actions à partir d'une seule requête et de soutenir des conversations naturelles et à plusieurs tours de parole, s'éloignant ainsi des commandes isolées et ponctuelles qui ont défini (et limité) l'utilité de Siri depuis son lancement. Selon MacRumors, Gemini gère les fonctions de résumé et de planification de Siri, tandis qu'Apple conserve le contrôle total de l'interface utilisateur et du routage des données.

L'architecture de confidentialité

Apple et Google ont intégré un tampon de confidentialité délibéré dans le système. Comme Apple l'a expliqué en janvier, les requêtes simples restent sur l'appareil, les requêtes modérément complexes transitent par les serveurs Private Cloud Compute d'Apple, et seules les tâches de raisonnement les plus exigeantes atteignent l'infrastructure de Google, Apple agissant comme un proxy de confidentialité qui supprime l'identité de l'utilisateur avant que les données ne quittent son contrôle.

CNBC a rapporté qu'Apple paie environ 1 milliard de dollars par an pour accéder aux capacités de Gemini, un chiffre frappant qui souligne à quel point l'entreprise prend au sérieux la pression concurrentielle de ChatGPT et de l'application Gemini de Google.

Des retards assombrissent le déploiement

Le chemin vers le lancement n'a pas été sans heurts. En février, 9to5Mac et MacRumors ont tous deux rapporté que plusieurs fonctionnalités alimentées par Gemini sont repoussées au-delà d'iOS 26.4 vers iOS 26.5 (prévu en mai) et éventuellement iOS 27 à l'automne. Les testeurs internes ont signalé une latence de réponse, des coupures en milieu de phrase et un repli inhabituel où Siri acheminait certaines requêtes vers ChatGPT au lieu du pipeline Gemini pour lequel Apple avait passé un contrat. L'accès profond aux données personnelles, comme la recherche d'anciens messages, resterait également instable.

La version bêta d'iOS 26.4 d'Apple a été lancée en février sans qu'aucune des nouvelles fonctionnalités de Siri ne soit visible, ce qui suggère que le déploiement public pourrait être plus progressif que ce qui avait été annoncé initialement.

Un pivot stratégique – et une reconnaissance de la concurrence

Le partenariat avec Google signale quelque chose de significatif : Apple reconnaît que la construction de modèles de raisonnement d'IA de pointe en interne, à l'échelle requise par Siri, est actuellement hors de sa portée, ou du moins de son calendrier. L'entreprise qui a bâti sa marque sur l'intégration verticale externalise l'une de ses fonctionnalités les plus visibles pour l'utilisateur à son plus ancien rival dans le domaine de la recherche.

La vision complète – y compris les flux de travail multi-applications de niveau ChatGPT et la personnalisation approfondie – devrait maintenant arriver avec iOS 27 en septembre 2026. La mise à jour du printemps, quel que soit le moment où elle arrivera, sera l'acte d'ouverture de ce qu'Apple appelle une transformation en deux phases de sa stratégie d'IA.

Cet article est également disponible dans d'autres langues :

Articles connexes