Wird in einem neuen Fenster geöffnet
PRESSEMELDUNG 09 Juni 2025

Apple Intelligence wird dank neuer Möglichkeiten über alle Apple Geräte hinweg noch leistungsstärker

Entwickler:innen können ab sofort auf das Apple Intelligence Grundmodell auf dem Gerät zugreifen, um private, intelligente Erlebnisse in ihren Apps zu ermöglichen
Das neueste Prodktlineup von Apple zeigt neue Apple Intelligence Features.
Apple hat auf der WWDC25 neue Apple Intelligence Features für iPhone, iPad, Mac, Apple Watch und Apple Vision Pro vorgestellt.
CUPERTINO, KALIFORNIEN Apple hat heute neue Apple Intelligence Features vorgestellt, die das Nutzererlebnis auf iPhone, iPad, Mac, Apple Watch und Apple Vision Pro noch besser machen. Mit Apple Intelligence bekommen Nutzer:innen neue Features für die Kommunikation wie beispielsweise Live Übersetzung. Durch Updates für Visuelle Intelligenz kann man mehr mit Bildschirminhalten anfangen. Mit Verbesserungen für Image Playground und Genmoji erhält man neue Ausdrucksmöglichkeiten.1 Zusätzlich können ab jetzt Kurzbefehle Apple Intelligence direkt verwenden, und Entwickler:innen haben On-Device Zugriff auf das Large Language Sprachmodell, das die Grundlage von Apple Intelligence bildet. So kann eine Intelligenz genutzt werden, die leistungsstark und schnell und von Grund auf für Datenschutz entwickelt worden ist. Darüberhinaus ist sie offline verfügbar. Diese Apple Intelligence Features stehen ab heute zum Testen zur Verfügung und werden diesen Herbst für Nutzer:innen mit unterstützen Geräten vefügbar, wenn diese auf eine unterstützte Sprache eingestellt sind.
„Letztes Jahr haben wir die ersten Schritte unternommen, um Nutzer:innen eine Intelligenz zu bieten, die hilfreich, relevant und benutzerfreundlich ist und genau da eingesetzt werden kann, wo sie gebraucht wird. Gleichzeitig schützt sie die Privatsphäre der Nutzer:innen. Nun werden die Modelle hinter Apple Intelligence leistungsfähiger und effizienter, und wir integrieren Features noch umfassender in alle unsere Betriebssysteme“, sagt Craig Federighi, Senior Vice President of Software Engineering bei Apple. „Wir machen ausserdem einen grossen Schritt und geben Entwickler:innen jetzt zusätzlich Zugriff auf das Grundmodell auf dem Gerät, auf dem Apple Intelligence basiert. So können sie eine Intelligenz nutzen, die leistungsstark und schnell und von Grund auf mit Datenschutz entwickelt worden ist. Ausserdem ist sie offline verfügbar. Wir glauben, dass dies eine völlig neue Generation intelligenter Erlebnisse in Apps ermöglichen wird, auf die sich Nutzer:innen in ihrem Alltag verlassen. Wir sind schon sehr auf die Ideen der Entwickler:innen gespannt.“
Apple Intelligence Features werden bis Ende des Jahres in folgenden acht weiteren Sprachen verfügbar sein: Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, Chinesisch (traditionell) und Vietnamesisch.

Live Übersetzung baut Sprachbarrieren ab

In Situationen, in denen Sprachbarrieren auftreten, kann Live Übersetzung Nutzer:innen helfen, in anderen Sprachen zu kommunizieren, wenn sie Textnachrichten schreiben oder sprechen. Das Erlebnis ist in die Apps Nachrichten, FaceTime und Telefon integriert und wird durch von Apple entwickelte Modelle ermöglicht, die vollständig auf dem Gerät laufen. So bleiben die Unterhaltungen der Nutzer:innen privat.
In Nachrichten kann Live Übersetzung automatisch Nachrichten übersetzen. Wenn Anwender:innen etwa auf Auslandsreisen mit neuen Freund:innen etwas planen, kann ihre Nachricht beim Tippen übersetzt und in der bevorzugten Sprache der Empfänger:innen übermittelt werden. Wenn eine Antwort eingeht, kann jede Nachricht sofort übersetzt werden.2 In FaceTime Anrufen können Nutzer:innen mit übersetzten Live Untertiteln Gesprächen folgen und gleichzeitig die Stimmen der Sprecher:innen hören. In Telefonanrufen wird die Übersetzung während des gesamten Gesprächs laut vorgelesen.3

Neue Möglichkeiten, Kreativität auszuleben, mit Updates für Genmoji und Image Playground

Genmoji und Image Playground geben Nutzer:innen noch mehr Möglichkeiten, sich auszudrücken. Zusätzlich zum Verwandeln einer Textbeschreibung in ein Genmoji können Nutzer:innen jetzt verschiedene Emoji miteinander kombinieren und Beschreibungen hinzufügen, um etwas Neues zu gestalten. Wenn Anwender:innen mit Genmoji und Image Playground Bilder erstellen, die von Familie und Freund:innen inspiriert sind, können sie den Ausdruck verändern oder persönliche Merkmale wie die Frisur anpassen, um beispielsweise den aktuellen Look ihrer Freund:innen darzustellen.
Verbesserungen für Genmoji geben Nutzer:innen mehr Möglichkeiten, sich auszudrücken, mit der Option, durch Emoji-Kombinationen und Beschreibungen etwas Neues zu gestalten.
In Image Playground können Nutzer:innen komplett neue Stile mit ChatGPT nutzen, wie den eines Ölgemäldes oder Vektorgrafiken. Wenn man eine konkrete Idee im Kopf hat, kann man auf Any Style tippen und genau beschreiben, was man sich vorstellt. Image Playground sendet dann Beschreibungen und Fotos von Nutzer:innen an ChatGPT und erstellt ein einzigartiges Bild. Nutzer:innen behalten immer die Kontrolle, nichts wird ohne ihre Erlaubnis mit ChatGPT geteilt.
Die neue Any Style Option in Image Playground mit ChatGPT wird auf einem MacBook Pro gezeigt.
Image Playground mit ChatGPT bekommt neue Stile, darunter eine Any Style Option, die praktisch ist, wenn Nutzer:innen eine konkrete Idee im Kopf haben.

Visuelle Intelligenz hilft Nutzer:innen, nach etwas zu suchen und Aktionen auszuführen

Aufbauend auf Apple Intelligence erweitert Visuelle Intelligenz das iPhone Display, damit Nutzer:innen in Apps suchen und mit Inhalten Aktionen ausführen können.
Mit Updates für Apple Intelligence erweitert visuelle Intelligenz die Inhalte auf dem iPhone Display. So können Nutzer:innen Aktionen ausführen und beispielsweise mit Google, Etsy oder anderen unterstützten Apps nach ähnlichen Objekten suchen.
Visuelle Intelligenz hilft Nutzer:innen schon jetzt mit ihrer iPhone Kamera mehr über Objekte und Orte in ihrer Umgebung zu erfahren und ab sofort kann man noch mehr mit den Inhalten auf dem iPhone Display machen, und das schneller. Anwender:innen können ChatGPT Fragen dazu stellen, was sie gerade auf ihrem Display sehen, um mehr darüber zu erfahren. Man kann damit auch Google, Etsy oder andere unterstütze Apps durchsuchen, um ähnliche Bilder und Produkte zu finden. Wenn es ein Objekt gibt, an dem man ein besonderes Interesse hat, etwa eine Lampe, kann man es hervorheben, um nach diesem konkreten Gegenstand oder nach ähnlichen Objekten online zu suchen.
Visuelle Intelligenz macht es möglich, ChatGPT nach Details zu bestimmten Objekten zu fragen.
Visuelle Intelligenz erkennt auch, wenn Anwender:innen sich ein bestimmtes Ereignis ansehen, und schlägt dann vor, es zum Kalender hinzuzufügen.4 Apple Intelligence extrahiert daraus Datum, Uhrzeit und Standort, um ein Kalenderereignis mit diesen Details einzutragen.
Visuelle Intelligenz erkennt auch, wenn Anwender:innen sich ein bestimmtes Ereignis ansehen, und schlägt dann vor, es zum Kalender hinzuzufügen. Apple Intelligence extrahiert daraus Datum, Uhrzeit und Standort, um ein Kalenderereignis mit diesen Details einzutragen.
Nutzer:innen können Visuelle Intelligenz auf ihre Bildschirminhalte anwenden, indem sie einfach dieselben Tasten drücken, mit denen ein Screenshot aufgenommen wird. Nutzer:innen haben dann die Wahl, ob sie ihren Screenshot sichern oder teilen oder ob sie mithilfe visueller Intelligenz mehr über den Inhalt erfahren möchten.

Apple Intelligence für Fitness auf der Apple Watch verfügbar

Workout Buddy ist ein einzigartiges Fitnesserlebnis auf der Apple Watch mit Apple Intelligence, das anhand von Trainingsdaten und der Fitnesshistorie von Nutzer:innen personalisierte, motivierende Einblicke während eines Trainings generiert.5
Um Nutzer:innen in Echtzeit wirkungsvoll zu inspirieren, analysiert Workout Buddy Daten aus dem laufenden Training sowie die Fitnesshistorie der Anwender:innen im Hinblick auf Herzfrequenz, Pace, Distanz, Aktivitätsringe, persönliche Fitness-Meilensteine und mehr. Ein neues Text‑to‑Speech Modell setzt anschliessend die Einblicke in eine dynamische generative Stimme um, die mithilfe der Stimmdaten von Fitness+ Trainer:innen entwickelt worden ist. So passen Energie, Stil und Tonalität perfekt zu dem Workout. Workout Buddy verarbeitet diese Daten privat und sicher mit Apple Intelligence.
Workout Buddy wird auf der Apple Watch mit Bluetooth Kopfhörern verfügbar sein und erfordert ein Apple Intelligence-fähiges iPhone in der Nähe. Es wird zu Beginn auf Englisch in einigen der beliebtesten Trainingsarten verfügbar sein: Laufen Outdoor und Indoor, Gehen Outdoor und Indoor, Radfahren Outdoor, HIIT sowie Funktionelles und Traditionelles Krafttraining.
Workout Buddy kommt mit Apple Intelligence auf die Apple Watch und bietet ein einzigartiges Trainingserlebnis, das die Trainingsdaten und den persönlichen Fitnessverlauf der Nutzer:innen berücksichtigt, um personalisierte Einblicke zu generieren und für Motivation zu sorgen.

Apple Intelligence On-Device Modell ab sofort für Entwickler:innen verfügbar

Apple gibt allen Apps Zugriff auf das Grundmodell auf dem Gerät, auf dem Apple Intelligence basiert.
Mit dem Foundation Models Framework können Entwickler:innen direkt auf dem Gerät auf das grosse Sprachmodell zugreifen, auf dem Apple Intelligence basiert. Dadurch haben sie Zugriff auf eine Intelligenz, die leistungsstark und schnell ist und von Grund auf mit Datenschutz entwickelt worden ist Ausserdem ist sie offline verfügbar.
Mit dem Foundation Models Framework können App Entwickler:innen auf Apple Intelligence aufbauen, um neue Erlebnisse für Nutzer:innen zu schaffen, die intelligent und offline vefügbar sind, ihre Privatsphäre schützen und eine kostenlose KI Inferenz nutzen. Beispielsweise kann eine Lern-App das Modell auf dem Gerät nutzen, um anhand von Notizen der Anwender:innen ein personalisiertes Quiz zu generieren, ohne dass Kosten für eine Cloud-API entstehen. Oder eine Outdoor-App erhält Funktionen für das Suchen mit natürlicher Sprache, die sogar dann funktionieren, wenn Nutzer:innen offline sind.
Dank nativer Unterstützung von Swift können App Entwickler:innen mit dem Foundation Models Framework mit nur ein paar Zeilen Code ganz einfach auf das Apple Intelligence Modell zugreifen.
Das Framework bietet native Unterstützung für Swift, sodass App Entwickler:innen mit nur ein paar Zeilen Code ganz einfach auf das Apple Intelligence Modell zugreifen können. Generieren, Aufrufen von Tools und mehr ist in das Framework integriert. Das macht es Entwickler:innen einfacher als je zuvor, generative Funktionen direkt in ihre vorhandenen Apps zu implementieren.

Kurzbefehle werden intelligenter

Kurzbefehle sind ab sofort leistungsstärker und intelligenter als je zuvor. Anwender:innen können intelligente Aktionen nutzen – eine ganz neue Reihe von Kurzbefehlen, ermöglicht durch Apple Intelligence. Mit Aktionen, die bestimmten Features fest zugeordnet sind, kann man etwa Text mit Schreibwerkzeugen zusammenfassen oder Bilder mit Image Playground erstellen.
So können Nutzer:innen Apple Intelligence Modelle direkt nutzen – entweder auf dem Gerät oder mit Private Cloud Compute – um Antworten zu generieren, die in den restlichen Kurzbefehl einfliessen. Dabei werden alle im Kurzbefehl verwendeten Informationen geschützt. Zum Beispiel können Studierende einen Kurzbefehl erstellen, um mit dem Apple Intelligence Modell die Audiotranskription einer Vorlesung mit ihren Notizen abzugleichen und wichtige Punkte hinzuzufügen, die vielleicht fehlen. Nutzer:innen können sich auch für die Verwendung von ChatGPT entscheiden, um Antworten bereitzustellen, die in ihren Kurzbefehl einfliessen.
Die Kurzbefehle App auf einem MacBook Pro.
Kurzbefehle kommen mit der Power von Apple Intelligence, sodass Nutzer:innen Apple Intelligence Modelle direkt nutzen können – entweder auf dem Gerät oder mit Private Cloud Compute – um Antworten zu generieren, die in den restlichen Kurzbefehl einfliessen.

Weitere neue Features

Apple Intelligence ist noch tiefer in die Apps und Erlebnisse integriert, auf die sich Nutzer:innen täglich verlassen:
  • Die relevantesten Aktionen in E-Mails, auf Webseiten, in Notizen oder in anderen Inhalten können jetzt erkannt und in Erinnerungen automatisch kategorisiert werden.
  • Apple Wallet kann jetzt aus E-Mails von Händlern und Lieferanten Details zur Sendungsverfolgung identifizieren und zusammenfassen. Das funktioniert mit allen Bestellungen, sodass Nutzer:innen die gesamten Bestelldetails, den Lieferstatus und mehr an einem Ort einsehen können.
  • Nutzer:innen können zu allen Inhalten in Nachrichten eine Umfrage erstellen – und mit Apple Intelligence erkennt Nachrichten, wann eine Umfrage praktisch sein könnte, und schlägt sie vor. Zusätzlich haben Anwender:innen die Option, mit Hintergründe in der Nachrichten App ihre Chats mit beeindruckenden Designs zu personalisieren und mit Image Playground einzigartige Hintergründe zu erstellen, die zur Unterhaltung passen.
Diese Funktionen bauen auf einer Reihe von Apple Intelligence Features auf, die Nutzer:innen schon jetzt zur Verfügung stehen:
  • Schreibwerkzeuge können Nutzer:innen helfen, ihren eigenen Text umzuschreiben, Korrektur zu lesen und zusammenzufassen. Mit Änderung beschreiben können Nutzer:innen konkret beschreiben, wie ihr Text geändert werden soll, um beispielsweise eine Einladung zu einer Dinnerparty in ein Gedicht zu verwandeln.
  • Mit Bereinigen in Fotos können Nutzer:innen störende Elemente entfernen, ohne dabei das eigentliche Motiv zu verändern.
  • Visuelle Intelligenz nutzt Apple Intelligence und hilft Nutzer:innen, über Objekte und Orte in ihrer Umgebung sofort mehr zu erfahren.
  • Mit Genmoji können Nutzer:innen ihr eigenes Emoji erstellen, indem sie eine Beschreibung eintippen. Genau wie Emojis können diese in Nachrichten eingefügt oder als Sticker oder Reaktion in einem Tapback geteilt werden.
  • Mit Image Playground können Nutzer:innen lustige Bilder in wenigen Augenblicken mithilfe von Konzepten wie Themen, Kostümen, Zubehör und Orten erstellen. Und sie können ihre eigenen Textbeschreibungen hinzufügen und Bilder erstellen, die einem Familienmitglied oder Freund:innen ähneln, indem sie Fotos aus der Fotomediathek verwenden.
  • Image Wand kann eine grobe Skizze in ein ausgearbeitetes Bild verwandeln, das die Notizen von Nutzer:innen ergänzt.
  • Mit Zusammenfassungen von E-Mails können Nutzer:innen die wichtigsten Details für eine E-Mail oder einen langen Nachrichtenverlauf anzeigen, indem sie einfach auf „Zusammenfassen“ tippen oder klicken.
  • Das Feature Intelligente Antworten bietet Nutzer:innen Vorschläge für eine schnelle Antwort in Mail und Nachrichten.
  • Siri wird natürlicher und hilfreicher, mit der Option, Siri Anfragen tippen und das integrierte Produktwissen über die Features und Einstellungen der Apple Produkte zu nutzen. Siri kann selbst dann folgen, wenn Nutzer:innen sich verhaspeln, und den Kontext von einer Anfrage zur nächsten berücksichtigen.
  • Der Zugriff auf ChatGPT ist in Schreibwerkzeuge und Siri integriert. So können Nutzer:innen die Fähigkeiten von ChatGPT zum Verstehen von Bildern und Dokumenten nutzen, ohne zwischen Apps wechseln zu müssen.
  • Suchen mit natürlicher Sprache in Fotos macht es Nutzer:innen leichter, ein Foto oder Video anhand einer einfachen Beschreibung zu finden.
  • Nutzer:innen können in Fotos einen Rückblickfilm erstellen, indem sie eine Beschreibung eingeben.
  • Zusammenfassungen von Audio­trans­krip­tionen in Notizen werden automatisch generiert, um wichtige Informationen auf einen Blick anzuzeigen.
  • Nutzer:innen können auch Zusammenfassungen von Anruftranskriptionen generieren, um wichtige Details hervorzuheben.
  • Priorisierte Nachrichten, ein Bereich ganz oben im Posteingang, zeigt die dringendsten E-Mails, etwa eine Einladung zum Lunch am selben Tag oder eine Bordkarte.
  • Priorisierte Mitteilungen erscheinen ganz oben, um Mitteilungen hervorzuheben, die die sofortige Aufmerksamkeit der Nutzer:innen erfordern könnten.
  • Mit Zusammenfassungen von Mitteilungen können Nutzer:innen lange oder gestapelte Mitteilungen überfliegen und die wichtigsten Details direkt auf dem Sperrbildschirm sehen.
  • Vorschau in Mail und Vorschau in Nachrichten zeigen Nutzer:innen eine kurze Zusammenfassung der wichtigsten Informationen, ohne dass sie eine Nachricht öffnen müssen.
  • Der Fokus Unterbrechungen reduzieren zeigt nur Mitteilungen an, die möglicherweise sofortige Aufmerksamkeit erfordern.

Ein Durchbruch für den Datenschutz in der KI

Apple Intelligence ist entwickelt worden, um die Privatsphäre von Nutzer:innen bei jedem Schritt zu schützen. Dafür verarbeitet es Anfragen auf dem Gerät, was bedeutet, dass viele der zugrunde liegenden Modelle vollständig auf dem Gerät ausgeführt werden. Für komplexere Anfragen, die den Zugriff auf grössere Modelle erfordern, bringt Private Cloud Compute den Datenschutz und die Sicher­heit vom iPhone auch in die Cloud, um noch mehr Intel­ligenz zu ermögli­chen. Auf diese Weise werden die Daten der Nutzer:innen niemals bei Apple gespeichert oder mit Apple geteilt, sondern ausschliesslich genutzt, um die Anfrage auszuführen. Unabhängige Expert:innen können den Code einsehen, der auf Servern mit Apple Chips läuft, um dieses Datenschutzversprechen laufend zu überprüfen und tun dies bereits. Das ist ein grosser Schritt nach vorn beim Datenschutz in KI.
Verfügbarkeit
Alle neuen Features stehen ab heute über das Apple Developer Program unter developer.apple.com zum Testen zur Verfügung. Eine öffentliche Betaversion wird kommenden Monat über das Apple Beta Software-Programm unter beta.apple.com/ verfügbar sein. Anwender:innen, die Apple Intelligence auf unterstützen Geräten aktivieren, die auf eine unterstützte Sprache eingestellt sind, darunter alle iPhone 16 Modelle, das iPhone 15 Pro, iPhone 15 Pro Max, iPad mini (A17 Pro) sowie iPad und Mac Modelle mit M1 und neuer, erhalten diesen Herbst Zugriff, wenn Siri und die Gerätesprache auf dieselbe unterstützte Sprache eingestellt sind: Deutsch, Chinesisch (Vereinfacht), Englisch, Französisch, Italienisch, Japanisch, Koreanisch Portugiesisch (Brasilien) oder Spanisch. Folgende Sprachen werden bis Ende des Jahres verfügbar sein: Chinesisch (Traditionell), Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch und Vietnamesisch. Einige Funktionen sind möglicherweise nicht in allen Sprachen oder Regionen verfügbar, und die Verfügbarkeit kann aufgrund lokaler Gesetze und Vorschriften variieren. Weitere Informationen unter apple.com/chde/apple-intelligence.
Artikel teilen

Media

  • Text dieses Artikels

  • Bilder zu dieser Pressemeldung

  1. Genmojis und Image Playground sind verfügbar auf Englisch, Französisch, Deutsch, Italienisch, Portugiesisch (Brasilien), Spanisch und Japanisch.
  2. Live Übersetzung in Nachrichten unterstützt Deutsch, Chinesisch (Vereinfacht), Englisch (USA, Grossbritannien), Französisch (Frankreich), Italienisch, Japanisch, Koreanisch, Portugiesisch (Brasilien) und Spanisch (Spanien).
  3. Live Übersetzung in Telefon und FaceTime ist für Einzelgespräche in Englisch (USA, Grossbritannien), Französisch (Frankreich), Deutsch, Portugiesisch (Brasilien) und Spanisch (Spanien) verfügbar.
  4. Die Möglichkeit, mit visueller Intelligenz ein Ereignis zum Kalender hinzuzufügen, gibt es auf Englisch auf allen iPhone 16 Modellen, dem iPhone 15 Pro und iPhone 15 Pro Max.
  5. Workout Buddy wird auf der Apple Watch Series 6 oder neuer, der Apple Watch SE (2. Generation) sowie der Apple Watch Ultra und Ultra 2 mit einem Apple Intelligence-fähigen iPhone auf Englisch vefügbar sein.

Pressekontakte

Ulrich Taller

ulrich.taller@PRofessional.at

+41 76 431 7538

Apple Pressestelle

media.chde@apple.com