Technologia

Siri od Apple z mózgiem Gemini w gruntownej przebudowie iOS 26.4

Apple fundamentalnie przebudowuje Siri, wykorzystując modele AI Gemini od Google w iOS 26.4, wprowadzając świadomość kontekstu ekranowego i wieloetapowe działania – to największa zmiana w Siri od jej debiutu w 2011 roku. Niektóre funkcje mogą zostać przesunięte do późniejszych aktualizacji z powodu zgłaszanych opóźnień technicznych.

R
Redakcia
3 min czytania
Udostępnij
Siri od Apple z mózgiem Gemini w gruntownej przebudowie iOS 26.4

Nowy mózg dla starego asystenta

Po raz pierwszy od piętnastu lat Siri przechodzi prawdziwą architektoniczną przebudowę. Apple potwierdziło w styczniu 2026 roku, że jego od dawna krytykowany asystent głosowy zostanie zbudowany na bazie modeli AI Gemini od Google, obsługując złożone zadania rozumowania, z którymi własne systemy Apple działające na urządzeniu miały trudności. Aktualizacja, której premiera spodziewana jest wraz z iOS 26.4 wiosną 2026 roku, stanowi najbardziej znaczącą zmianę w Siri od czasu jej premiery na iPhonie 4S w 2011 roku.

Co się właściwie zmienia

Główną nowością jest świadomość kontekstu ekranowego. Przebudowana Siri będzie mogła czytać i odnosić się do treści aktualnie wyświetlanych na urządzeniu – stając się po raz pierwszy prawdziwie kontekstowym asystentem. Jeśli otwarty jest e-mail z potwierdzeniem lotu, Siri może automatycznie dodać podróż do Kalendarza i ustawić przypomnienia o wylocie. Jeśli w Safari wyświetlana jest strona restauracji, Siri może zainicjować rezerwację bez kopiowania nazwy lub adresu przez użytkownika.

Oprócz świadomości ekranu, nowa Siri zyskuje możliwość łączenia wielu działań w jednym żądaniu i prowadzenia naturalnych, wielowątkowych rozmów – odchodząc od izolowanych, jednorazowych poleceń, które definiowały (i ograniczały) użyteczność Siri od momentu jej uruchomienia. Według MacRumors, Gemini obsługuje funkcje podsumowywania i planowania Siri, podczas gdy Apple zachowuje pełną kontrolę nad interfejsem użytkownika i routingiem danych.

Architektura prywatności

Apple i Google wbudowały w system celowy bufor prywatności. Jak Apple wyjaśniło w styczniu, proste zapytania pozostają na urządzeniu, umiarkowanie złożone są kierowane przez serwery Private Cloud Compute Apple, a tylko najbardziej wymagające zadania rozumowania docierają do infrastruktury Google – przy czym Apple działa jako proxy prywatności, które usuwa tożsamość użytkownika, zanim jakiekolwiek dane opuszczą jego kontrolę.

CNBC poinformowało, że Apple płaci około 1 miliarda dolarów rocznie za dostęp do możliwości Gemini – to uderzająca kwota, która podkreśla, jak poważnie firma traktuje presję konkurencyjną ze strony ChatGPT i własnej aplikacji Gemini od Google.

Opóźnienia zaciemniają wdrożenie

Droga do premiery nie była gładka. W lutym zarówno 9to5Mac, jak i MacRumors poinformowały, że kilka funkcji opartych na Gemini jest przesuwanych poza iOS 26.4 do iOS 26.5 (oczekiwany w maju) i ewentualnie iOS 27 jesienią. Wewnętrzni testerzy zgłosili opóźnienia w odpowiedzi, ucinanie w środku zdania i nietypowy fallback, w którym Siri kierowała niektóre zapytania do ChatGPT zamiast do potoku Gemini, na który Apple zawarło umowę. Głęboki dostęp do danych osobowych – takich jak przeszukiwanie starych wiadomości – również podobno pozostaje niestabilny.

Wersja beta iOS 26.4 od Apple, która została uruchomiona w lutym, nie zawierała żadnych widocznych nowych funkcji Siri, co sugeruje, że publiczne wdrożenie może być bardziej stopniowe niż początkowo zapowiadano.

Strategiczny zwrot – i przyznanie się do konkurencji

Partnerstwo z Google sygnalizuje coś znaczącego: Apple przyznaje, że budowa własnych modeli rozumowania AI na poziomie frontier, w skali wymaganej przez Siri, jest obecnie poza jego zasięgiem – a przynajmniej poza jego harmonogramem. Firma, która zbudowała swoją markę na pionowej integracji, zleca na zewnątrz jedną z najbardziej widocznych dla użytkownika funkcji swojemu najstarszemu rywalowi w dziedzinie wyszukiwania.

Pełna wizja – w tym wielodostępne przepływy pracy na poziomie ChatGPT i głęboka personalizacja – ma się pojawić wraz z iOS 27 we wrześniu 2026 roku. Wiosenna aktualizacja, kiedykolwiek się pojawi, będzie aktem otwarcia tego, co Apple nazywa dwuetapową transformacją swojej strategii AI.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły