Nach jahrelangen Beschwerden über missverstandene Anfragen und wenig hilfreiche Antworten scheint Apple nun kurz vor dem Start zu stehen. Siris größtes Update seit LangemEs wäre keine einfache Faceliftung, sondern eine tiefgreifende Veränderung der Technologie hinter dem Assistentendamit rückt es näher an die künstlichen Intelligenz-Chatbots heran, die in den letzten Jahren an Popularität gewonnen haben.
Die neue Siri: Ein KI-gestützter Assistent der nächsten Generation
Berichte von Fachmedien wie Bloomberg, ZDNET und 9to5Mac stimmen darin überein, dass Apple baut Siri auf einer neuen Architektur auf Große Sprachmodelle (LLM)Ähnlich wie bei ChatGPT oder Google Gemini. Diese Änderung der Grundlage würde natürlichere Gespräche ermöglichen, bei denen man weniger das Gefühl hat, mit einer starren Maschine zu sprechen.
Nach diesen Quellen Die neue Siri wird seit Monaten intern getestet. auf iPhone, iPad und Mac, zunächst als eigenständige Anwendung und später integriert in die Testversionen des SystemsZiel ist es, die alte Infrastruktur schrittweise durch diese neue KI-Engine zu ersetzen, die in der Lage ist, natürliche Sprache besser zu verstehen und komplexere Anfragen zu bearbeiten.
Die Idee ist, dass der Assistent solche alltäglichen Situationen hinter sich lässt, wie zum Beispiel falsch interpretierte Sprachbefehle oder absurde AntwortenDiese wurden sogar schon in Fernsehserien parodiert. Apple möchte, dass Siri sich stärker an modernen Chatbots orientiert: kontinuierliche Dialoge, die Fähigkeit, sich den Kontext zu merken, und weniger Verständnisfehler.
In diesem neuen System würde Siri nicht nur Fragen beantworten, sondern auch Er würde als wahrer Drahtzieher der Aktionen agieren. innerhalb des Systems und der Anwendungen, etwas, das bisher nur sehr eingeschränkt oder unbeständig funktioniert hat.

Möglicher Veröffentlichungstermin: Alle Augen sind auf den März gerichtet
Die große Frage für viele Nutzer ist, wann sie die neue Siri ausprobieren können. Alles deutet darauf hin. Das Update wird zusammen mit iOS 26.4 und den entsprechenden Versionen auf iPadOS und macOS veröffentlicht., in einem Zeitfenster, das zu Apples Entwicklung in den vergangenen Jahren passt.
In vergangenen Zyklen die .4-Versionen des Systems Sie wurden tendenziell im März veröffentlicht, insbesondere gegen Ende des Monats. Die jüngste Veröffentlichungsgeschichte selbst verdeutlicht dieses Muster:
- iOS 18.4Es wurde am Montag, dem 31. März, gestartet.
- iOS 17.4Es traf am Dienstag, dem 5. März, ein und damit etwas früher als üblich.
- iOS 16.4Es wurde am Montag, dem 27. März, veröffentlicht.
In diesem Zusammenhang deuten interne Leaks darauf hin, dass iOS 26.4 würde erneut im Zeitraum Ende März veröffentlicht werden.iOS 26.3 befindet sich bereits in der Beta-Testphase und soll Ende Januar veröffentlicht werden. Dies würde Raum für die Veröffentlichung der ersten Betaversion von iOS 26.4 Ende Januar oder im Februar lassen.
Wenn diese Betaversion bald veröffentlicht würde, wäre es nicht unvernünftig, ... Einsatz etwas früher im MärzBerichten zufolge wird jedoch die Leistung des neuen Siri in der Praxis bei Tests entscheidend sein: Sollten Probleme mit Genauigkeit, Stabilität oder App-Kompatibilität festgestellt werden, könnte Apple sich einige zusätzliche Wochen Zeit nehmen, um das Nutzererlebnis zu optimieren, bevor es der breiten Öffentlichkeit zugänglich gemacht wird.
In Europa kommt noch ein weiterer Faktor hinzu: Einhaltung der Vorschriften zum digitalen und DatenschutzIn der Vergangenheit hat das Unternehmen bereits den Veröffentlichungsplan für bestimmte Versionen, wie beispielsweise iOS 17.4, angepasst, um die Vorgaben des französischen Digitalmarktgesetzes einzuhalten. Daher ist es möglich, dass der EU-Starttermin spezifischen regulatorischen Anforderungen unterliegt.
Welche praktischen Änderungen werden die Nutzer bemerken?
Abgesehen vom Datum ist für spanische und europäische Nutzer Folgendes relevant: Was wird die neue Siri können, was sie jetzt noch nicht kann?Hier kommen mehrere Funktionen zum Tragen, die Apple ursprünglich als Teil seiner KI-Strategie vorgestellt hatte und deren Einführung sich letztendlich verzögerte.
Die erste große Neuigkeit ist eine wesentlich tiefere Integration mit Anwendungen durch die Anrufe App-AbsichtenDiese Technologie ermöglicht es dem Assistenten, ganz bestimmte Aktionen innerhalb von Apps auszuführen, ohne dass der Benutzer durch Menüs navigieren oder den Bildschirm berühren muss.
Eine deutliche Verbesserung wird auch erwartet bei den persönlichen Kontext verstehenSiri hätte einen strukturierteren Zugriff auf Daten wie E-Mails, Nachrichten, Kalender und Notizen – stets unter Einhaltung der Apple-Datenschutzrichtlinien –, um Anfragen, die bisher schwer zu beantworten waren, besser zu verstehen, beispielsweise die Suche nach einer bestimmten Nachricht oder das Auffinden wichtiger Informationen in den Gerätedaten. Teil dieser Verbesserung wäre eine bessere Integration von Systemen wie … Apple Intelligence mit dem Assistenten.
Eine weitere wichtige Säule wird die BildschirmbewusstseinDer Assistent wird in der Lage sein, das aktuell Sichtbare zu berücksichtigen und direkt auf diesen Inhalt zu reagieren: eine in einer E-Mail erscheinende Adresse hinzufügen, eine Telefonnummer speichern, einen im Browser gelesenen Artikel zusammenfassen oder Aktionen im Zusammenhang mit einer vom Benutzer geöffneten App durchführen.
Schließlich die Fähigkeit von Siri, Allgemeine Wissensfragen direkt beantwortenEs fungiert eher als dialogbasierte Suchmaschine denn als bloßer Vermittler von Links. Die Idee ist, klare und prägnante Erklärungen zu aktuellen Ereignissen, Geschichte, Sport oder Kultur zu liefern, ohne dass Nutzer für jede Suche eine Webseite öffnen müssen.
Eine LLM-Architektur zur Reduzierung von Fehlern und Missverständnissen.
Ein Großteil der historischen Frustration mit Siri hat mit Folgendem zu tun: wiederkehrende Missverständnisse, wiederholte, fehlgeschlagene Befehle und absurde ReaktionenApple beabsichtigt, dieses Problem an der Wurzel zu packen, indem es große Sprachmodelle einsetzt – dieselbe Technologiefamilie, die auch hinter den heutigen führenden Chatbots steckt.
Diese Modelle werden anhand großer Datenmengen trainiert, um Lerne, die menschliche Sprache mit ihren feineren Nuancen zu interpretieren.Es wird Anspielungen, subtile Ironie und verknüpfte Anfragen verstehen. Anstatt sich auf starre Befehle zu verlassen, wird der Assistent Anweisungen verarbeiten können, die natürlicher formuliert sind, ähnlich wie wir im Alltag sprechen.
Durchgesickerte Informationen deuten darauf hin, dass die neue Siri dazu in der Lage sein wird, um den Faden des zuvor Gesagten besser aufrechtzuerhalten.Dadurch sollte die typische Aussage „Ich habe Sie nicht verstanden“ reduziert werden, wenn sich die Person auf etwas bezieht, das in einem vorherigen Satz erwähnt wurde, oder auf ein Element, das auf dem Bildschirm zu sehen ist.
Des Weiteren wird erwartet, dass viele Situationen, in denen der Assistent leicht aufgibt oder eine falsche Antwort gibt, ohne seine eigenen Grenzen anzuerkennen, verschwinden werden. Das Ziel ist Siri wird weniger wahrscheinlich Namen, Orte oder Navigationsanweisungen verwechseln.und mit einer besseren Möglichkeit, anzuzeigen, wann die Anfrage neu formuliert werden muss.
Beobachter weisen jedoch darauf hin, dass Apple in der Vergangenheit bereits ähnliche Versprechen abgegeben hat, beispielsweise im Rahmen seiner Initiative Apple Intelligence, die Es hat die Erwartungen nicht ganz erfüllt. Mit diesem Neustart des Assistenten steht ein erheblicher Teil der Glaubwürdigkeit des Unternehmens im Bereich der künstlichen Intelligenz auf dem Spiel.
Wo die Informationen verarbeitet werden: Gerät, Cloud und Datenschutz
Ein weiterer wichtiger Aspekt dieses Updates betrifft wo die Berechnungen durchgeführt werden, die das neue Siri zum Leben erwecken.Das Unternehmen würde sich für ein Hybridmodell entscheiden, bei dem einige Anfragen auf dem Gerät selbst gelöst und andere an Cloud-Server weitergeleitet werden.
Die lokale Verarbeitung – direkt auf dem iPhone, iPad oder Mac – hat den Vorteil, schneller und diskreter seinBei relativ einfachen Aufgaben oder solchen, die nur Informationen erfordern, die sich bereits auf dem Gerät befinden, könnte Siri antworten, ohne persönliche Daten nach außen zu senden, indem sie auf Modelle zurückgreift, die für den Betrieb mit Apple-Chips optimiert sind.
Für komplexere Anfragen, wie zum Beispiel ausführliche Zusammenfassungen, fortgeschrittene Analysen oder allgemeine WissensrecherchenDas System würde auf Cloud-Computing basieren. Hier kommen Spekulationen über den möglichen Einsatz von Drittanbietertechnologien auf, wobei Google und OpenAI als aussichtsreichste Kandidaten für die Bereitstellung eines Teils der High-Level-Sprach-Engine gelten.
Laut diesen Berichten würde Apple die Kontrolle behalten über die endgültige Ausführung der Aktionen und der Zugriff auf die Benutzerdatenwelches auf seine eigenen Modelle und Systeme zurückgreifen würde, selbst wenn es ein externes LLM verwendet, um die natürliche Sprache besser zu interpretieren.
Dieser Ansatz ist in Europa besonders heikel, da dort die Datenschutz-Grundverordnung und neue Vorschriften für digitale Dienste gelten. Sie stellen hohe Anforderungen an Transparenz, Datenminimierung und Benutzerkontrolle.Das Unternehmen muss klar darlegen, was auf dem Gerät verarbeitet wird, was in die Cloud übertragen wird, wie lange es gespeichert wird und welche Garantien gelten.

Integration mit Anwendungen und neue Nutzungsmöglichkeiten
Eine der sichtbarsten Veränderungen im Alltag wird mit Folgendem einhergehen erweiterte Siri-Integration in AnwendungenBislang spielte der Sprachassistent in vielen Apps eine sehr begrenzte Rolle, was die Benutzer oft dazu zwang, auf Touchscreens und Menüs zurückzugreifen, um Aufgaben zu erledigen, die theoretisch per Spracheingabe gelöst werden könnten.
Mit der neuen Version können Entwickler Folgendes nutzen: App-Intents zur Definition sehr spezifischer Aktionen Innerhalb seiner Apps, die Siri direkt ausführen kann. Dies könnte alles umfassen, vom Bearbeiten eines bestimmten Fotos in der Fotos-App über das Abrufen eines Flugstatus in einer Airline-App bis hin zum Wiederholen einer Bestellung in einem Online-Shop.
Damit all das funktioniert, müssen App-Entwickler Folgendes tun: Passen Sie Ihre Anwendungen an die neuen Assistenten-APIs an.Es wird erwartet, dass große Dienstleistungsunternehmen – wie Messenger, Shopping, Banking, Mobilität oder Reisen – diese Möglichkeiten schnell nutzen werden, insbesondere in Märkten wie Europa, wo die iPhone-Nutzerbasis groß ist.
Die Kombination von App-Intents mit der Bildschirmbewusstsein Es verspricht außerdem eine natürlichere Nutzung. Wenn ein Nutzer beispielsweise eine Adresse in einer E-Mail sieht, könnte er Siri bitten, diese in seinen Kontakten zu speichern; wenn er eine Bestellinformationsseite geöffnet hat, könnte er die Sendungsverfolgung oder eine Rücksendung anfordern, ohne manuell durch die App navigieren zu müssen.
Parallel dazu wird der verbesserte Kontext dem Assistenten ermöglichen Abfragen verwalten, die bisher unzuverlässig waren, Was „Suche die Nachricht, die sie mir geschickt haben die Kontonummer“ oder „sagen Sie mir, wann der morgige Flug aus der Bestätigungs-E-Mail abfliegt“, wobei stets die Datenschutzeinstellungen und Berechtigungen des Nutzers beachtet werden.
Auswirkungen auf andere Geräte im Apple-Ökosystem
Die neue Siri wird nicht auf das iPhone beschränkt sein. Das Unternehmen beabsichtigt, dass Ihr gesamtes Ökosystem wird von diesem Intelligenzsprung profitieren.insbesondere bei Produkten, bei denen die Sprachsteuerung die primäre Interaktionsform ist.
Zu den Geräten, die die Veränderung am deutlichsten bemerken könnten, gehören intelligente Lautsprecher und mögliche Haushaltsgeräte mit integriertem BildschirmEs gibt schon lange Gerüchte über ein Produkt, das Elemente von HomePod und iPad vereint und als Steuerzentrale für das ganze Haus, Bildschirm für Videoanrufe und schneller Zugriffspunkt auf Informationen per Sprachbefehl fungieren soll.
Diese Art von Produkt wäre unter anderem deshalb auf Eis gelegt worden, weil Siri war nicht darauf vorbereitet, ein wirklich aktuelles Nutzererlebnis zu bieten.Mit einem leistungsfähigeren Assistenten, der den familiären Kontext, Benutzerprofile und die Bildschirminhalte besser verstehen kann, gewinnt die Idee eines solchen Geräts für das Wohnzimmer oder die Küche immer mehr an Bedeutung.
Die Apple Watch ist ein weiterer klarer Kandidat, der von dieser Änderung profitieren wird. Ihre Bauform macht sie ideal für kurze und häufige Interaktionen mit dem AssistentenDas Abrufen von Nachrichten, das Verwalten von Erinnerungen, das Protokollieren von Trainingseinheiten oder das Starten komplexer Automatisierungen ohne Berührung des iPhones könnten deutlich reibungsloser ablaufen, wenn Siri besser reagieren würde.
AirPods und andere Kopfhörer der Marke könnten ebenfalls von einem zuverlässigster Assistent für SprachbefehleVon der Wiedergabesteuerung bis zu Navigationsanweisungen – alles, ohne dass Sie Ihr Smartphone aus der Tasche nehmen müssen. In all diesen Fällen hängt der Erfolg davon ab, ob die neue Architektur ihre Versprechen hinsichtlich Genauigkeit und Geschwindigkeit einlöst.
Nach all den Enthüllungen ist das Update, das Apple für März mit iOS 26.4 vorbereitet, vielversprechend. Dies markiert einen Wendepunkt für die Zukunft von Siri.Wenn die Kombination aus fortschrittlichen Sprachmodellen, besserer Integration mit Apps und optimiertem Kontextmanagement wie erwartet funktioniert, könnte der Assistent einen Großteil seines angesammelten schlechten Rufs ablegen und zu einem wirklich nützlichen Werkzeug für Millionen von Nutzern werden, sowohl in Spanien und Europa als auch im Rest der Welt.