Technológia

Az Apple Siri-je Gemini-alapú agyat kap az iOS 26.4-es nagyszabású átalakítás során

Az Apple alapjaiban építi újjá a Siri-t a Google Gemini AI modelljeivel az iOS 26.4-ben, bevezetve a képernyőn megjelenő kontextusérzékelést és a többlépcsős műveleteket – ez a legnagyobb változás a Siri 2011-es bemutatkozása óta. A jelentések szerint a technikai késések miatt egyes funkciók későbbi frissítésekre csúszhatnak.

R
Redakcia
3 perc olvasás
Megosztás
Az Apple Siri-je Gemini-alapú agyat kap az iOS 26.4-es nagyszabású átalakítás során

Egy új agy egy régi asszisztensnek

Tizenöt év után először kap a Siri valódi, átfogó építészeti felújítást. Az Apple 2026 januárjában megerősítette, hogy régóta kritizált hangasszisztensét a Google Gemini AI modelljeire építik át, kezelve azokat az összetett következtetési feladatokat, amelyekkel az Apple saját, eszközön futó rendszerei nehezen birkóztak meg. A frissítés, amely várhatóan a iOS 26.4-gyel érkezik 2026 tavaszán, a Siri legjelentősebb változását jelenti a 2011-ben, az iPhone 4S-en történt bevezetése óta.

Mi is változik valójában?

A legfontosabb újdonság a képernyőn megjelenő tartalom érzékelése. Az újjáépített Siri képes lesz olvasni és hivatkozni bármilyen tartalomra, amely éppen megjelenik az eszközön – ezáltal először válik valóban kontextusérzékeny asszisztenssé. Ha egy repülőjegy-visszaigazoló e-mail van megnyitva, a Siri automatikusan hozzáadhatja az utazást a Naptárhoz, és beállíthat indulási emlékeztetőket. Ha egy étterem oldala látható a Safariban, a Siri kezdeményezhet foglalást anélkül, hogy a felhasználónak másolnia kellene a nevet vagy a címet.

A képernyő-érzékelésen túl az új Siri képes lesz egyetlen kérésből több műveletet összefűzni, és természetes, többszörös fordulós beszélgetéseket folytatni – elmozdulva azoktól az izolált, egyszeri parancsoktól, amelyek a Siri hasznosságát meghatározták (és korlátozták) a bevezetése óta. A MacRumors szerint a Gemini kezeli a Siri összefoglaló és tervező funkcióit, míg az Apple teljes mértékben ellenőrzi a felhasználói felületet és az adatok irányítását.

Az adatvédelmi architektúra

Az Apple és a Google szándékos adatvédelmi pufferzónát épített a rendszerbe. Ahogy az Apple januárban elmagyarázta, az egyszerű lekérdezések az eszközön maradnak, a mérsékelten összetettek az Apple Private Cloud Compute szerverein keresztül irányítódnak, és csak a legigényesebb következtetési feladatok jutnak el a Google infrastruktúrájába – az Apple pedig adatvédelmi proxyként működik, amely eltávolítja a felhasználói azonosítót, mielőtt bármilyen adat elhagyná az ellenőrzése alól.

A CNBC jelentése szerint az Apple körülbelül évi 1 milliárd dollárt fizet a Gemini képességeihez való hozzáférésért – ez egy feltűnő szám, amely aláhúzza, hogy a vállalat mennyire komolyan veszi a ChatGPT és a Google saját Gemini alkalmazása által támasztott versenyhelyzetet.

Késések árnyékolják be a bevezetést

A bevezetéshez vezető út nem volt zökkenőmentes. Februárban a 9to5Mac és a MacRumors is arról számolt be, hogy számos Gemini-alapú funkciót az iOS 26.4-ről az iOS 26.5-re (várhatóan májusban) és esetleg az őszi iOS 27-re tolnak. A belső tesztelők késleltetést, mondat közbeni megszakításokat és egy szokatlan visszalépést jeleztek, ahol a Siri egyes lekérdezéseket a ChatGPT-hez irányított ahelyett a Gemini-folyamathoz, amelyre az Apple szerződött. A mély személyes adatokhoz való hozzáférés – például a régi üzenetek keresése – állítólag szintén instabil maradt.

Az Apple iOS 26.4 bétája februárban jelent meg anélkül, hogy az új Siri funkciók közül bármelyik is látható lett volna, ami arra utal, hogy a nyilvános bevezetés fokozatosabb lehet, mint ahogy azt eredetileg bejelentették.

Stratégiai fordulat – és versenybeli beismerés

A Google-lel való partnerség valami jelentőset jelez: az Apple elismeri, hogy a csúcstechnológiás AI következtetési modellek házon belüli felépítése, a Siri által megkövetelt méretben, jelenleg meghaladja a képességeit – vagy legalábbis az időkeretét. A vállalat, amely a vertikális integrációra építette a márkáját, az egyik legszembetűnőbb, felhasználó felé irányuló funkcióját a legrégebbi keresési riválisának szervezi ki.

A teljes vízió – beleértve a ChatGPT-szintű, több alkalmazást átfogó munkafolyamatokat és a mély személyre szabást – várhatóan az iOS 27-tel érkezik 2026 szeptemberében. A tavaszi frissítés, amikor csak megérkezik, az Apple által AI-stratégiájának kétfázisú átalakításának nevezett folyamat nyitánya lesz.

Ez a cikk más nyelveken is elérhető:

Kapcsolódó cikkek