Technologia

Apple stawia na Gemini od Google, by odmienić Siri w iOS 26.4

Apple zawarło przełomową umowę z Google, aby wzmocnić przebudowaną Siri za pomocą modeli AI Gemini działających w chmurze Private Cloud Compute Apple. To historyczny krok, który sygnalizuje fundamentalną zmianę w podejściu firmy do sztucznej inteligencji.

R
Redakcia
Share

Historyczne partnerstwo

Apple potwierdziło jedno z najważniejszych partnerstw w swojej historii: wieloletnią umowę z Google na wykorzystanie modeli AI Gemini jako silnika całkowicie przeprojektowanej Siri. Umowa, o której informowały CNBC i TechCrunch w styczniu 2026 roku, jest pierwszym przypadkiem, gdy Apple zintegrowało model AI strony trzeciej bezpośrednio z podstawowym asystentem systemowym – co jeszcze kilka lat temu wydawało się nie do pomyślenia.

Apple ma płacić Google około 1 miliarda dolarów rocznie za licencję na technologię Gemini, która będzie działać w tle bez brandingu Google: użytkownicy nie zobaczą żadnych oznaczeń Google. Z zewnątrz to wciąż Siri. Wewnątrz to fundamentalnie inna bestia.

Co potrafi nowa Siri

Przeprojektowany asystent ma wyjść poza klasyczny model poleceń i odpowiedzi, który definiował asystentów głosowych od samego początku. Według MacRumors, Apple nakreśliło trzy podstawowe ulepszenia:

  • Świadomość ekranu: Siri może czytać i odnosić się do wszystkiego, co jest wyświetlane na urządzeniu w czasie rzeczywistym, eliminując potrzebę ręcznego kopiowania, wklejania lub zmiany kontekstu przez użytkowników.
  • Łączenie wieloetapowych akcji: Pojedyncze żądanie w języku naturalnym może wywołać do dziesięciu sekwencyjnych akcji w wielu aplikacjach.
  • Naturalna konwersacja wielowątkowa: Asystent utrzymuje kontekst w rozszerzonym dialogu, zamiast traktować każde zapytanie jako odizolowane.

Co istotne, model Gemini działa w infrastrukturze Private Cloud Compute Apple, oddzielając dane użytkowników od serwerów Google. Apple twierdzi, że około 60% zapytań jest obsługiwanych na dedykowanych serwerach AI z kompleksowym szyfrowaniem, a bardziej złożone zadania rozumowania są kierowane do infrastruktury Google dopiero po anonimizacji.

Wyboista droga do premiery

Wprowadzenie jednak nie przebiegło bezproblemowo. Apple pierwotnie planowało iOS 26.4 – zaplanowany na marzec 2026 roku – jako platformę debiutancką dla nowej Siri. Jednak wewnętrzne testy ujawniły uporczywe problemy z niezawodnością: inżynierowie odkryli, że Siri czasami nie przetwarza poprawnie żądań, zbyt długo odpowiada lub przerywa użytkownikom w połowie zdania podczas obsługi głosowych akcji w aplikacji.

Jak informował 9to5Mac w lutym, Apple rozkłada teraz wprowadzenie na wiele aktualizacji. Niektóre funkcje mogą pojawić się w iOS 26.5, zaplanowanym na maj, a pełne doświadczenie konwersacyjnej AI potencjalnie zarezerwowane dla iOS 27 we wrześniu. Apple publicznie zapewnia, że ogólna premiera jest „wciąż na dobrej drodze w 2026 roku”, jednocześnie przyznając, że sytuacja pozostaje płynna.

Dlaczego to ma znaczenie

Umowa Apple-Google Gemini to więcej niż aktualizacja produktu – sygnalizuje szersze rozliczenie się branży. Apple przez lata upierało się, że może zbudować światowej klasy AI w całości we własnym zakresie. To stanowisko zostało teraz formalnie porzucone, przynajmniej częściowo, w obliczu szybkiego postępu konkurentów.

Ta zmiana odzwierciedla to, co dzieje się w całej branży technologii konsumenckich. Microsoft przekształcił Copilot z chatbota w aktywnego wykonawcę zadań zintegrowanego z Microsoft 365. Amazon, Google i Meta ścigają się, aby przenieść swoich asystentów z pasywnych odpowiadających do autonomicznych agentów zdolnych do podejmowania realnych działań w imieniu użytkownika.

Decyzja Apple o licencjonowaniu Gemini zamiast czekania, aż własne modele nadrobią zaległości, sugeruje, że firma priorytetowo potraktowała doświadczenie użytkownika nad czystość ideologiczną – pragmatyczny zakład, że konkurencyjny koszt opóźnienia przeważa nad reputacyjnym kosztem polegania na technologii rywala.

Przyszłość

Długoterminowa architektura pozostaje otwarta. Apple zasugerowało, że iOS 26 ostatecznie pozwoli użytkownikom wybierać między backendami AI – w tym OpenAI i Anthropic – zamiast polegać wyłącznie na Gemini. Ta opcjonalność mogłaby przekształcić rolę Apple z dewelopera AI w platformę AI, kuratorującą i pośredniczącą między konkurującymi modelami, zamiast je budować.

Na razie najcenniejsza firma na świecie stawia na to, że inteligentniejsza Siri – niezależnie od tego, jak jest zasilana – jest najpewniejszą drogą do utrzymania zaangażowania setek milionów użytkowników iPhone'ów w erze, w której AI szybko staje się głównym interfejsem między ludźmi a ich urządzeniami.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły