Apple Intelligence: So nennt der iPhone-Hersteller seine KI-Offensive. Das neue KI-System soll zum persönlichen Assistenten auf dem iPhone, iPad und Mac werden. Es soll sowohl generative Eigenschaften haben, also Bilder oder Texte erstellen können, als auch persönlich auf den Nutzer zugeschnitten sein und dabei hohe Datenschutzstandards einhalten.
Nach dem Auftakt der Entwicklerkonferenz WWDC blieben viele Fragen offen. Apples Software-Chef Craig Federighi und KI-Chef John Giannandrea nahmen sich die Zeit, einige davon in Anwesenheit von Journalisten zu klären. Federighi stellte gleich zu Beginn klar: «Wir sehen die Rolle von KI nicht darin, den Menschen zu ersetzen, sondern ihn zu stärken.»
Intelligenz nur für neue Geräte
Das Ziel: Apple Intelligence soll überall sein, aber für die Nutzerinnen und Nutzer nur dann sichtbar, wenn sie sie wirklich benötigen. Zum Beispiel, um eleganter schreiben zu können: «Die KI wird überall dort sein, wo ein Cursor blinkt», sagt Federighi. Die KI soll auch neue Emojis erstellen können oder KI-Bilder anhand von Skizzen oder mit Fotos von Freunden als Vorlage.
Der Clou: Apple Intelligence läuft direkt auf dem Gerät. Das Modell hat laut Apples KI-Chef rund drei Milliarden Parameter. Damit ist es in etwa ähnlich gross und leistungsfähig wie Gemini Nano des Konkurrenten Google. Der Haken: Damit es läuft, braucht es ein neueres iPhone 15 Pro oder einen Mac oder ein iPad mit M1-Prozessor. Das dürfte viele Besitzer von älteren Geräten verärgern. Und zudem kommen die Funktionen frühestens im Herbst und zuerst nur auf Englisch aufs iPhone.
KI bringt Siri auf Steroiden
Komplexe Anfragen an die KI werden in die Cloud ausgelagert. «Wir schicken die Nutzerdaten aber nicht einfach ungesichert an einen Server», sagt Giannandrea. Dafür habe man spezielle Serverfarmen eingerichtet. Wo, verrät Apple nicht. Laut Federighi haben die Server mit neuen Apple-Prozessoren aber keine Möglichkeit, Nutzerdaten abzugreifen.
Ein wesentlicher Bestandteil von Apple Intelligence ist die Weiterentwicklung von Siri. Federighi erklärt dazu: «Siri ist nicht mehr nur ein Sprachassistent, sondern ein umfassender Geräteassistent.» Siri soll in Zukunft eine tiefere semantische Verständnisfähigkeit haben, was bedeutet, dass sie kontextuell besser versteht, was auf dem Gerät passiert.
«Siri kann nun Anfragen auf der Grundlage von Inhalten beantworten, die auf dem Gerät verfügbar sind», so Federighi. Ein Beispiel dafür ist die erweiterte Suche: «Wenn Sie nach einer bestimmten Nachricht oder einem Foto suchen, kann Siri dank der neuen semantischen Indexierung schnell und präzise die relevanten Inhalte finden.»
KI-Technologie von Apple
Sowohl Federighi als auch Giannandrea betonten, dass die Technologie hinter Apple Intelligence aus dem eigenen Haus stammt. Dabei verrieten sie auch Details, wie die KI-Systeme trainiert werden: «Einerseits mit Daten aus dem öffentlichen Web, aber auch mit Partnerschaften mit Textanbietern oder mit Bilddatenbanken», sagt Giannandrea.
Apple hat im Vergleich zu anderen Unternehmen erst sehr spät KI-Funktionen gezeigt. Google, Microsoft, Samsung, OpenAI haben alle in den letzten Wochen und Monaten KI-Funktionen enthüllt. Doch Apple sieht die anderen Unternehmen offenbar nicht wirklich als Konkurrenten.
Und Google Gemini?
Auf der Veranstaltung gab sich Apple ungewohnt offen. Auf der Bühne kündigte CEO Tim Cook eine Partnerschaft mit ChatGPT-Entwickler OpenAI an, um GPT-4o direkt in das Apple-Ökosystem zu integrieren. Federighi bezeichnete GPT-4o als «das beste KI-Modell, das es derzeit gibt». So wird Siri durch die Integration von ChatGPT erweitert. Federighi erklärte, dass man ChatGPT so nutzen könne, ohne den Arbeitsablauf unterbrechen zu müssen.
Man denke zudem darüber nach, in Zukunft weitere KI-Modelle von anderen Unternehmen zu integrieren, so Federighi. Als erstes Beispiel nannte er das Modell Gemini von Google. Gleichzeitig stellte er aber auch klar, dass er diesbezüglich im Moment nichts anzukündigen habe.