Technologie

Apple parie sur Google Gemini pour réinventer Siri dans iOS 26.4

Apple a conclu un accord historique avec Google pour alimenter une version reconstruite de Siri en utilisant les modèles d'IA Gemini fonctionnant sur le Private Cloud Compute d'Apple – une première historique qui signale un changement fondamental dans la façon dont l'entreprise aborde l'intelligence artificielle.

R
Redakcia
Share

Un partenariat historique

Apple a confirmé l'un des partenariats les plus importants de son histoire : un accord pluriannuel avec Google pour utiliser les modèles d'IA Gemini comme moteur d'une version de Siri entièrement repensée. L'accord, rapporté par CNBC et TechCrunch en janvier 2026, marque la première fois qu'Apple intègre un modèle d'IA tiers directement dans son assistant système central – une décision qui aurait semblé impensable il y a quelques années à peine.

Apple paierait environ 1 milliard de dollars par an à Google pour la licence de la technologie Gemini, qui sera utilisée en marque blanche : les utilisateurs ne verront aucune marque Google. De l'extérieur, il s'agit toujours de Siri. En interne, c'est une bête fondamentalement différente.

Ce que le nouveau Siri peut faire

L'assistant remanié est conçu pour transcender le modèle classique de commande-réponse qui a défini les assistants vocaux depuis leur création. Selon MacRumors, Apple a défini trois améliorations principales :

  • Conscience de l'écran : Siri peut lire et référencer ce qui est affiché sur l'appareil en temps réel, éliminant ainsi la nécessité pour les utilisateurs de copier, coller ou changer de contexte manuellement.
  • Enchaînement d'actions en plusieurs étapes : Une seule requête en langage naturel peut déclencher jusqu'à dix actions séquentielles dans plusieurs applications.
  • Conversation naturelle à plusieurs tours : L'assistant maintient le contexte tout au long d'un dialogue étendu plutôt que de traiter chaque requête comme isolée.

Point essentiel, le modèle Gemini fonctionne sur l'infrastructure Private Cloud Compute d'Apple, ce qui permet de garder les données des utilisateurs isolées des propres serveurs de Google. Apple affirme qu'environ 60 % des requêtes sont traitées sur ses serveurs d'IA dédiés avec un chiffrement de bout en bout, tandis que les tâches de raisonnement plus complexes sont acheminées vers l'infrastructure de Google uniquement après anonymisation.

Un lancement difficile

Le déploiement, cependant, ne s'est pas déroulé sans heurts. Apple avait initialement ciblé iOS 26.4 – prévu en mars 2026 – comme véhicule de lancement du nouveau Siri. Mais les tests internes ont révélé des problèmes de fiabilité persistants : les ingénieurs ont constaté que Siri échoue parfois à traiter correctement les requêtes, met trop de temps à répondre ou coupe les utilisateurs en plein milieu de phrase lors de la gestion d'actions vocales intégrées aux applications.

Comme l'a rapporté 9to5Mac en février, Apple répartit désormais le déploiement sur plusieurs mises à jour. Certaines fonctionnalités pourraient arriver dans iOS 26.5, prévu pour mai, l'expérience complète d'IA conversationnelle étant potentiellement réservée à iOS 27 en septembre. Apple a publiquement insisté sur le fait que la sortie globale est « toujours sur les rails pour 2026 » tout en reconnaissant que la situation reste fluide.

Pourquoi c'est important

L'accord Apple-Google Gemini est plus qu'une simple mise à jour de produit – il signale une remise en question plus large de l'industrie. Apple a passé des années à insister sur le fait qu'elle pouvait construire une IA de classe mondiale entièrement en interne. Cette position a maintenant été officiellement abandonnée, au moins en partie, face aux progrès rapides de ses rivaux.

Ce changement reflète ce qui se passe dans l'ensemble de l'industrie de la technologie grand public. Microsoft a transformé Copilot d'un chatbot en un exécutant de tâches actif intégré à Microsoft 365. Amazon, Google et Meta sont tous en course pour faire passer leurs assistants de répondeurs passifs à des agents autonomes capables d'entreprendre des actions concrètes pour le compte d'un utilisateur.

La décision d'Apple d'acquérir une licence pour Gemini plutôt que d'attendre que ses propres modèles rattrapent leur retard suggère que l'entreprise a privilégié l'expérience utilisateur à la pureté idéologique – un pari pragmatique selon lequel le coût concurrentiel du retard l'emporte sur le coût de réputation lié au fait de s'appuyer sur la technologie d'un rival.

La voie à suivre

L'architecture à long terme reste ouverte. Apple a laissé entendre qu'iOS 26 permettra à terme aux utilisateurs de choisir entre différents moteurs d'IA – notamment OpenAI et Anthropic – plutôt que de s'appuyer exclusivement sur Gemini. Cette option pourrait redéfinir le rôle d'Apple, qui passerait d'un développeur d'IA à une plateforme d'IA, organisant et servant d'intermédiaire entre des modèles concurrents plutôt que de les construire.

Pour l'instant, l'entreprise la plus valorisée au monde parie qu'un Siri plus intelligent – quelle que soit la manière dont il est alimenté – est le chemin le plus sûr pour maintenir l'engagement de centaines de millions d'utilisateurs d'iPhone à une époque où l'IA devient rapidement l'interface principale entre les personnes et leurs appareils.

Cet article est également disponible dans d'autres langues :

Articles connexes