Technologie

Apple setzt auf Google Gemini, um Siri in iOS 26.4 neu zu erfinden

Apple hat einen bahnbrechenden Vertrag mit Google geschlossen, um Siri mit Gemini-KI-Modellen, die auf Apples Private Cloud Compute laufen, neu zu beleben – eine historische Premiere, die einen grundlegenden Wandel in der Herangehensweise des Unternehmens an künstliche Intelligenz signalisiert.

R
Redakcia
Share

Eine historische Partnerschaft

Apple hat eine der folgenreichsten Partnerschaften seiner Geschichte bestätigt: eine mehrjährige Vereinbarung mit Google zur Nutzung von Gemini AI-Modellen als Motor hinter einer komplett neu gestalteten Siri. Der Deal, über den CNBC und TechCrunch im Januar 2026 berichteten, markiert das erste Mal, dass Apple ein KI-Modell eines Drittanbieters direkt in seinen Kernsystemassistenten integriert – ein Schritt, der vor wenigen Jahren noch undenkbar gewesen wäre.

Apple zahlt Google Berichten zufolge etwa 1 Milliarde US-Dollar jährlich für die Lizenzierung der Gemini-Technologie, die im Hintergrund als White-Label-Produkt laufen wird: Nutzer werden kein Google-Branding sehen. Von außen ist es immer noch Siri. Im Inneren ist es ein grundlegend anderes Wesen.

Was die neue Siri kann

Der überarbeitete Assistent soll das klassische Befehls-und-Antwort-Modell überwinden, das Sprachassistenten seit ihrer Einführung definiert hat. Laut MacRumors hat Apple drei Kern-Upgrades skizziert:

  • Bildschirmerkennung: Siri kann in Echtzeit lesen und referenzieren, was auf dem Gerät angezeigt wird, wodurch Benutzer nicht mehr manuell kopieren, einfügen oder den Kontext wechseln müssen.
  • Mehrstufige Aktionsverkettung: Eine einzige Anfrage in natürlicher Sprache kann bis zu zehn aufeinanderfolgende Aktionen über mehrere Apps hinweg auslösen.
  • Natürliche, mehrfache Konversation: Der Assistent behält den Kontext über einen längeren Dialog hinweg bei, anstatt jede Anfrage als isoliert zu behandeln.

Entscheidend ist, dass das Gemini-Modell auf Apples Private Cloud Compute-Infrastruktur läuft, wodurch Benutzerdaten von Googles eigenen Servern isoliert bleiben. Apple gibt an, dass etwa 60 % der Anfragen auf seinen dedizierten KI-Servern mit End-to-End-Verschlüsselung verarbeitet werden, während komplexere Denkaufgaben erst nach Anonymisierung an Googles Infrastruktur weitergeleitet werden.

Ein holpriger Start

Die Einführung verlief jedoch nicht reibungslos. Apple hatte ursprünglich iOS 26.4 – fällig im März 2026 – als Debütplattform für die neue Siri vorgesehen. Interne Tests ergaben jedoch hartnäckige Zuverlässigkeitsprobleme: Ingenieure stellten fest, dass Siri manchmal Anfragen nicht korrekt verarbeitet, zu lange zum Antworten benötigt oder Benutzer mitten im Satz unterbricht, wenn sprachbasierte In-App-Aktionen ausgeführt werden.

Wie 9to5Mac im Februar berichtete, verteilt Apple die Einführung nun auf mehrere Updates. Einige Funktionen könnten in iOS 26.5 erscheinen, das für Mai geplant ist, wobei die vollständige Konversations-KI-Erfahrung möglicherweise für iOS 27 im September reserviert ist. Apple hat öffentlich beteuert, dass die Gesamtveröffentlichung „weiterhin auf Kurs für 2026“ sei, räumte aber gleichzeitig ein, dass die Situation weiterhin im Fluss sei.

Warum das wichtig ist

Der Apple-Google-Gemini-Deal ist mehr als nur ein Produktupdate – er signalisiert eine umfassendere Branchenauseinandersetzung. Apple hat jahrelang darauf bestanden, dass es in der Lage sei, erstklassige KI vollständig intern zu entwickeln. Diese Position wurde nun zumindest teilweise angesichts der rasanten Fortschritte der Konkurrenz offiziell aufgegeben.

Die Verschiebung spiegelt wider, was in der gesamten Consumer-Tech-Branche geschieht. Microsoft hat Copilot von einem Chatbot in einen aktiven Aufgabenbearbeiter verwandelt, der in Microsoft 365 integriert ist. Amazon, Google und Meta wetteifern alle darum, ihre Assistenten von passiven Antwortgebern zu autonomen Agenten zu machen, die in der Lage sind, im Namen eines Benutzers reale Aktionen auszuführen.

Apples Entscheidung, Gemini zu lizenzieren, anstatt darauf zu warten, dass die eigenen Modelle aufholen, deutet darauf hin, dass das Unternehmen die Benutzererfahrung über ideologische Reinheit gestellt hat – eine pragmatische Wette, dass die Wettbewerbskosten der Verzögerung die Reputationskosten der Abhängigkeit von der Technologie eines Konkurrenten überwiegen.

Der Weg nach vorn

Die langfristige Architektur bleibt offen. Apple hat angedeutet, dass iOS 26 es Benutzern schließlich ermöglichen wird, zwischen KI-Backends – einschließlich OpenAI und Anthropic – zu wählen, anstatt sich ausschließlich auf Gemini zu verlassen. Diese Wahlfreiheit könnte Apples Rolle von einem KI-Entwickler zu einer KI-Plattform umgestalten, die konkurrierende Modelle kuratiert und vermittelt, anstatt sie zu entwickeln.

Vorerst wettet das wertvollste Unternehmen der Welt darauf, dass eine intelligentere Siri – wie auch immer sie betrieben wird – der sicherste Weg ist, um Hunderte Millionen iPhone-Nutzer in einer Ära zu binden, in der KI schnell zur primären Schnittstelle zwischen Menschen und ihren Geräten wird.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel