Technologie

Apples Siri erhält mit iOS 26.4 ein Gemini-Gehirn

Apple überarbeitet Siri grundlegend mit Googles Gemini-KI-Modellen in iOS 26.4 und führt kontextbezogene Bildschirmerkennung und mehrstufige Aktionen ein – die größte Veränderung für Siri seit dem Debüt im Jahr 2011. Einige Funktionen könnten sich aufgrund von technischen Verzögerungen auf spätere Updates verschieben.

R
Redakcia
3 Min. Lesezeit
Teilen
Apples Siri erhält mit iOS 26.4 ein Gemini-Gehirn

Ein neues Gehirn für einen alten Assistenten

Zum ersten Mal seit fünfzehn Jahren erhält Siri eine grundlegende architektonische Überarbeitung. Apple bestätigte im Januar 2026, dass der lange Zeit geschmähte Sprachassistent auf Basis von Googles Gemini-KI-Modellen neu aufgebaut wird, um komplexe Denkaufgaben zu bewältigen, mit denen Apples eigene On-Device-Systeme zu kämpfen hatten. Das Update, das voraussichtlich im Frühjahr 2026 mit iOS 26.4 ausgeliefert wird, stellt die bedeutendste Änderung an Siri seit der Einführung auf dem iPhone 4S im Jahr 2011 dar.

Was sich tatsächlich ändert

Das Hauptmerkmal ist die Bildschirmerkennung. Das neu aufgebaute Siri wird in der Lage sein, alle aktuell auf dem Gerät angezeigten Inhalte zu lesen und zu referenzieren – was es zum ersten Mal zu einem wirklich kontextsensitiven Assistenten macht. Wenn eine Flugbestätigungs-E-Mail geöffnet ist, kann Siri die Reise automatisch zum Kalender hinzufügen und Abflugerinnerungen einstellen. Wenn eine Restaurantseite in Safari angezeigt wird, kann Siri eine Reservierung initiieren, ohne dass der Benutzer einen Namen oder eine Adresse kopieren muss.

Über die Bildschirmerkennung hinaus erhält das neue Siri die Fähigkeit, mehrere Aktionen aus einer einzigen Anfrage zu verketten und natürliche, mehrteilige Konversationen zu führen – und sich von den isolierten, einmaligen Befehlen zu entfernen, die die Nützlichkeit von Siri seit dem Start definiert (und eingeschränkt) haben. Laut MacRumors übernimmt Gemini die Zusammenfassungs- und Planungsfunktionen von Siri, während Apple die volle Kontrolle über die Benutzeroberfläche und das Datenrouting behält.

Die Datenschutzarchitektur

Apple und Google haben einen bewussten Datenschutzpuffer in das System eingebaut. Wie Apple im Januar erläuterte, bleiben einfache Anfragen auf dem Gerät, mäßig komplexe werden über Apples Private Cloud Compute-Server geleitet, und nur die anspruchsvollsten Denkaufgaben erreichen die Infrastruktur von Google – wobei Apple als Datenschutz-Proxy fungiert, der die Benutzeridentität entfernt, bevor Daten die Kontrolle des Unternehmens verlassen.

CNBC berichtete, dass Apple rund 1 Milliarde US-Dollar pro Jahr für den Zugriff auf die Funktionen von Gemini zahlt – eine bemerkenswerte Zahl, die unterstreicht, wie ernst das Unternehmen den Wettbewerbsdruck durch ChatGPT und Googles eigene Gemini-App nimmt.

Verzögerungen trüben den Start

Der Weg zum Start verlief nicht reibungslos. Im Februar berichteten sowohl 9to5Mac als auch MacRumors, dass mehrere Gemini-gestützte Funktionen über iOS 26.4 hinaus in iOS 26.5 (voraussichtlich im Mai) und möglicherweise in iOS 27 im Herbst verschoben werden. Interne Tester bemängelten Reaktionslatenz, mitten im Satz abgebrochene Sätze und einen ungewöhnlichen Fallback, bei dem Siri einige Anfragen an ChatGPT weiterleitete, anstatt an die Gemini-Pipeline, für die Apple einen Vertrag abgeschlossen hatte. Auch der tiefe Zugriff auf persönliche Daten – wie das Durchsuchen alter Nachrichten – soll weiterhin instabil sein.

Die Betaversion von Apples iOS 26.4 wurde im Februar ohne sichtbare neue Siri-Funktionen veröffentlicht, was darauf hindeutet, dass die öffentliche Einführung möglicherweise schrittweiser erfolgt als ursprünglich angekündigt.

Ein strategischer Schwenk – und ein Wettbewerbsgeständnis

Die Google-Partnerschaft signalisiert etwas Bedeutendes: Apple räumt ein, dass der Aufbau von hochmodernen KI-Denkmodellen im eigenen Haus, in dem von Siri geforderten Umfang, derzeit außerhalb seiner Reichweite – oder zumindest seines Zeitplans – liegt. Das Unternehmen, das seine Marke auf vertikale Integration aufgebaut hat, lagert eine seiner sichtbarsten, benutzerorientierten Funktionen an seinen ältesten Suchrivalen aus.

Die vollständige Vision – einschließlich ChatGPT-ähnlicher Multi-App-Workflows und tiefer Personalisierung – wird nun voraussichtlich mit iOS 27 im September 2026 eintreffen. Das Update im Frühjahr, wann immer es kommt, wird der Auftakt zu dem sein, was Apple als eine zweiphasige Transformation seiner KI-Strategie bezeichnet.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel