s’ouvre dans une nouvelle fenêtre
COMMUNIQUÉ DE PRESSE 9 juin 2025

Apple Intelligence gagne encore en puissance avec de nouvelles capacités sur tous les appareils Apple

Les développeurs peuvent désormais accéder au modèle embarqué d’Apple Intelligence pour alimenter des expériences confidentielles et intelligentes au sein de leurs apps
La gamme la plus récente des produits Apple affiche de nouvelles fonctionnalités Apple Intelligence.
Lors de la WWDC25, Apple a présenté les nouvelles fonctionnalités d’Apple Intelligence arrivant sur l’iPhone, l’iPad, le Mac, l’Apple Watch et l’Apple Vision Pro.
CUPERTINO, CALIFORNIE Apple a annoncé aujourd’hui de nouvelles fonctionnalités Apple Intelligence qui font passer l’expérience utilisateur au niveau supérieur sur iPhone, iPad, Mac, Apple Watch et Apple Vision Pro. Apple Intelligence permet aux utilisateurs de communiquer de façon inédite grâce à des fonctionnalités telles que Traduction en direct, d’interagir différemment avec les contenus affichés à l’écran grâce aux nouveautés de l’intelligence visuelle, et de s’exprimer de manière plus créative grâce à des améliorations apportées à Image Playground et Genmoji1. Et comme l’app Raccourcis peut désormais exploiter directement Apple Intelligence, les développeurs bénéficieront d’un accès au grand modèle de langage embarqué qui se trouve au cœur d’Apple Intelligence. Ils profiteront ainsi d’une intelligence puissante, rapide, fondée sur le respect de la vie privée et disponible même lorsque les utilisateurs sont hors ligne. Ces fonctionnalités Apple Intelligence peuvent être testées dès aujourd’hui, et les utilisateurs pourront y accéder cet automne via les appareils compatibles configurés dans une des langues prises en charge.
« L’année dernière, nous avons accompli les premières étapes d’une stratégie visant à fournir aux utilisateurs des informations utiles, pertinentes, faciles à utiliser et disponibles là où ils en ont besoin, tout en protégeant leur vie privée. Aujourd'hui, les modèles qui alimentent Apple Intelligence deviennent plus performants et efficaces, et nous intégrons des fonctionnalités à encore plus d’endroits au sein de chacun de nos systèmes d’exploitation », a déclaré Craig Federighi, Senior Vice President of Software Engineering d’Apple. « Immense avancée, nous offrons aux développeurs l’accès au modèle de base embarqué qui alimente Apple Intelligence, ce qui leur permet de puiser dans une intelligence qui est puissante et rapide, qui intègre des protections de la vie privée et qui est disponible même quand les utilisateurs sont hors ligne. Nous pensons que cela va initier une toute nouvelle vague d’expériences intelligentes dans les applications que les utilisateurs utilisent chaque jour. Et nous sommes impatients de découvrir les créations de ces développeurs. »
Les fonctionnalités Apple Intelligence seront disponibles dans huit langues supplémentaires d’ici la fin de l’année : chinois (traditionnel), danois, néerlandais, norvégien, portugais (Portugal), suédois, turc et vietnamien.

Traduction en direct élimine les barrières linguistiques

Lorsque la barrière de la langue empêche un utilisateur de s’exprimer, Traduction en direct peut lui venir en aide en lui permettant de communiquer dans plusieurs langues, que ce soit par écrit ou à l’oral. Intégrée aux apps Messages, FaceTime et Téléphone, cette expérience s’appuie sur des modèles développés par Apple et exécutés entièrement sur l’appareil. Les conversations des utilisateurs restent donc confidentielles.
Dans Messages, Traduction en direct peut automatiquement traduire des messages. Si un utilisateur organise son planning avec de nouveaux amis lors d’un voyage à l’étranger, son message peut être traduit à mesure qu’il tape, dans la langue de préférence du destinataire. Quand ce dernier répond, chaque message peut être instantanément traduit2. Lors d’appels FaceTime, un utilisateur peut suivre la conversation grâce à des sous-titres traduits tout en entendant la voix de la personne qui s’exprime. Et lors d’un appel téléphonique, la traduction est énoncée à voix haute au fil de la conversation3.

De nouvelles opportunités créatives avec les mises à jour de Genmoji et Image Playground

Genmoji et Image Playground offrent aux utilisateurs des moyens inédits de s’exprimer. En plus de convertir un texte descriptif en Genmoji, ils peuvent désormais mélanger des emoji et les combiner avec des descriptions pour aboutir à des créations uniques. Lorsque les utilisateurs génèrent des images inspirées de leurs proches à l’aide de Genmoji et d’Image Playground, ils ont la possibilité de modifier les expressions ou d’ajuster les attributs personnels, en choisissant par exemple une apparence similaire à celle de la personne.
Les Genmoji améliorés offrent aux utilisateurs plus de façons de s’exprimer avec l’option de mélanger et de combiner des emoji avec des descriptions pour créer des éléments inédits.
Dans Image Playground, les utilisateurs peuvent explorer de tout nouveaux styles avec ChatGPT, comme la peinture à l’huile ou les images vectorielles. Quand ils ont une idée précise en tête, les utilisateurs peuvent choisir « Any Style » et décrire ce qu’ils souhaitent. Image Playground envoie à ChatGPT la description ou la photo d’un utilisateur et génère une image originale. Les utilisateurs gardent toujours le contrôle et rien n’est partagé avec ChatGPT sans leur consentement.
La nouvelle option « Any Style » dans Image Playground avec ChatGPT, affichée sur MacBook Pro.
De nouveaux styles arrivent sur Image Playground avec ChatGPT, notamment une option « Any Style », lorsque les utilisateurs ont une idée précise en tête.

L’intelligence visuelle facilite les recherches et la prise de décisions

En tirant parti d’Apple Intelligence, l’intelligence visuelle s’étend à l’écran de l’iPhone pour permettre à l’utilisateur d’effectuer des recherches et d’interagir avec tous les éléments visibles, dans l’ensemble de ses apps.
Les mises à jour d’Apple Intelligence étendent l’intelligence visuelle au contenu affiché sur l’écran de l’iPhone des utilisateurs, ce qui leur permet d’effectuer des actions telles que des recherches sur des éléments similaires à l’aide de Google, d’Etsy ou d’autres apps prises en charge.
Déjà utile aux utilisateurs pour se renseigner sur les objets et les lieux qui les entourent à l’aide de la caméra de leur iPhone, l’intelligence visuelle leur permet désormais d’en faire plus, plus vite avec le contenu affiché à l’écran. Les utilisateurs peuvent interroger ChatGPT à propos du contenu en cours de consultation pour en savoir plus, mais aussi initier des recherches sur Google, Etsy ou d’autres apps prises en charge afin d’y trouver des images et des produits similaires. Si un utilisateur s’intéresse tout particulièrement à un objet, par exemple une lampe, il peut le mettre en évidence afin de rechercher en ligne cet objet précis ou des articles équivalents.
L’intelligence visuelle permet aux utilisateurs de demander à ChatGPT des informations sur des objets spécifiques.
L’intelligence visuelle détecte également lorsqu’un utilisateur consulte un évènement et lui suggère de l’ajouter à son calendrier4. Apple Intelligence extrait ensuite la date, l’heure et le lieu afin de préremplir ces informations essentielles dans un évènement.
L’intelligence visuelle peut également reconnaître le fait qu’un utilisateur soit en train de regarder un évènement et lui suggérer de l’ajouter à son calendrier. Si la personne le souhaite, Apple Intelligence en extrait alors les données pertinentes pour créer un évènement.
Les utilisateurs peuvent activer l’intelligence visuelle pour le contenu à l’écran en appuyant simplement sur les boutons permettant de faire une capture d’écran. Ils auront alors le choix d’enregistrer ou de partager leur capture d’écran, ou bien de s’informer davantage grâce à l’intelligence visuelle.

Apple Intelligence s’étend à l’app Forme sur l’Apple Watch

Workout Buddy est une expérience d’entraînement unique sur l’Apple Watch, alimentée par Apple Intelligence, qui se base sur les données d’entraînement et l’historique d’activité physique de l’utilisateur pour générer des suggestions personnalisées et motivantes pendant sa séance5.
Pour offrir une source de motivation significative en temps réel, Workout Buddy analyse les données de l’entraînement en cours ainsi que l’historique d’activité physique. L’utilisateur reçoit ainsi des suggestions et des messages motivants comme la fréquence cardiaque, l’allure, la distance, les anneaux Activité, les records personnels d’activité physique et plus encore. Un nouveau modèle du texte à la parole traduit ensuite ces observations en une voix générative dynamique élaborée à partir de données vocales provenant des coachs Fitness+, ce qui lui donne une énergie, un style et un ton adaptés à l’entraînement. Workout Buddy traite ces données de façon confidentielle et sécurisée avec Apple Intelligence.
Workout Buddy sera disponible sur Apple Watch avec des écouteurs ou un casque Bluetooth et requiert un iPhone à proximité, prenant en charge Apple Intelligence. Cette fonctionnalité sera disponible en anglais, au sein des entraînements les plus prisés : la course en plein air ou sur tapis, la marche en plein air ou sur tapis, le vélo en plein air ou d’intérieur, le fractionné (HIIT) et le renforcement fonctionnel et traditionnel.
Workout Buddy, alimenté par Apple Intelligence, arrive sur Apple Watch. Il s’agit d’une expérience d’entraînement unique qui se base sur les données d’entraînement et l’historique d’activité physique de l’utilisateur pour générer des suggestions personnalisées et motivantes.

Le modèle embarqué d’Apple Intelligence est désormais accessible aux développeurs

Apple permet à n’importe quelle app de tirer profit du modèle embarqué qui se trouve au cœur d’Apple Intelligence.
Le framework Foundation Models permet aux développeurs de puiser directement dans le modèle embarqué au cœur d’Apple Intelligence. Il leur donne ainsi accès à une intelligence puissante, rapide, fondée sur le respect de la vie privée et disponible quand les utilisateurs sont hors ligne.
Avec le framework Foundation Models, les développeurs d’apps pourront s’appuyer sur Apple Intelligence pour offrir aux utilisateurs de nouvelles expériences intelligentes, disponibles hors ligne et fondées sur le respect de la vie privée, grâce à l’inférence de l’IA accessible gratuitement. Par exemple, une app éducative peut exploiter le modèle embarqué pour générer un quiz personnalisé à partir des notes d’un utilisateur, sans qu’aucun coût lié à une API cloud ne lui soit imposé, ou une app d’activité en plein air peut ajouter des fonctionnalités de recherche en langage naturel, accessibles même hors ligne.
Intégrant la prise en charge de Swift, le framework Foundation Models permet aux développeurs d’apps d’accéder facilement au modèle d’Apple Intelligence en saisissant seulement trois lignes de code.
Ce framework prend naturellement en charge Swift, ce qui permet aux développeurs d’apps d’accéder facilement au modèle d’Apple Intelligence en saisissant seulement trois lignes de code. La génération de code assistée, l’appel d’outils et de nombreuses autres fonctionnalités sont intégrées au framework pour simplifier plus que jamais l’implémentation de capacités génératives directement au sein d’apps existantes.

Les Raccourcis sont encore plus intelligents

Les Raccourcis sont désormais plus puissants et intelligents que jamais. Les utilisateurs peuvent profiter d’actions intelligentes, un tout nouvel ensemble de raccourcis alimentés par Apple Intelligence. Les utilisateurs verront des actions dédiées à des fonctionnalités, par exemple pour résumer du texte avec les Outils d’écriture ou pour créer des images avec Image Playground.
Les utilisateurs peuvent désormais faire directement appel aux modèles d’Apple Intelligence, que ce soit sur l’appareil ou avec Private Cloud Compute, pour générer des réponses qui alimentent les étapes suivantes d’un raccourci, tout en préservant la confidentialité des informations exploitées dans le raccourci. Par exemple, un étudiant peut créer un raccourci qui exploite le modèle d’Apple Intelligence pour comparer la transcription audio d’un cours avec les notes qu’il a prises, puis ajouter les éléments manquants. Les utilisateurs peuvent également faire directement appel à ChatGPT pour générer des réponses qui alimentent les étapes suivantes de leur raccourci.
L’app Raccourcis affichée sur un MacBook Pro.
Les Raccourcis sont boostés par Apple Intelligence, ce qui permet désormais aux utilisateurs de faire directement appel aux modèles d’Apple Intelligence, que ce soit sur l’appareil ou avec Private Cloud Compute, pour générer des réponses qui alimentent les étapes suivantes d’un raccourci.

Autres nouvelles fonctionnalités

Apple Intelligence est encore plus étroitement intégrée aux apps et expériences indispensables au quotidien :
  • Les actions les plus pertinentes dans un e-mail, un site web, une note ou tout autre contenu peuvent désormais être identifiées et automatiquement classées dans Rappels.
  • Cartes peut maintenant identifier et résumer les informations de suivi des commandes à partir des e-mails envoyés par des commerçants ou des transporteurs. Comme cela fonctionne sur toutes les commandes, les utilisateurs peuvent voir les détails complets de leurs commandes, les notifications d’état de chacune d’entre elles ainsi que d’autres renseignements, en un seul et même endroit.
  • Les utilisateurs ont la possibilité de créer un sondage sur n’importe quel sujet dans Messages, et grâce à Apple Intelligence, Messages peut détecter les situations dans lesquelles un sondage serait pertinent et, le cas échéant, en suggérer un. De plus, Arrière-plans dans l’app Messages permet aux utilisateurs de personnaliser leurs discussions à l’aide de décors spectaculaires, et de créer des arrière-plans uniques adaptés à leur conversation grâce à Image Playground.
Ces fonctionnalités se basent sur un large panel de capacités d'Apple Intelligence auxquelles les utilisateurs ont déjà accès :
  • Les Outils d’écriture peuvent aider les utilisateurs à réécrire, réviser et résumer le texte qu’ils ont écrit. Avec l’option Décrivez votre modification, les utilisateurs peuvent décrire la modification spécifique qu’ils souhaitent voir appliquer à leur texte, comme par exemple transformer une invitation à dîner en poème.
  • L’Outil de correction dans Photos permet aux utilisateurs de supprimer les éléments indésirables tout en n’altérant pas le rendu du moment vécu.
  • L’intelligence visuelle se base sur Apple Intelligence et aide les utilisateurs à en savoir plus instantanément sur les objets et les lieux qui les entourent.
  • Les Genmoji permettent aux utilisateurs de créer leurs propres emoji en saisissant une description. Tout comme les emoji, ils peuvent être ajoutés à Messages, ou partagés en tant qu’autocollants ou réactions depuis un menu Tapback.
  • Image Playground permet aux utilisateurs de créer des images amusantes en quelques instants, via des concepts comme les thèmes, costumes, accessoires et lieux. De plus, ils peuvent ajouter leurs propres descriptions textuelles, et créer des images à l’effigie d’un membre de leur famille ou d’un ami à partir de photos de leur photothèque.
  • La Baguette graphique peut transformer un simple croquis en une image élaborée qui complète les notes d’un utilisateur.
  • Les Résumés dans Mail permettent aux utilisateurs de consulter les détails importants d’un e‑mail ou d’un long échange en choisissant l'option Résumer.
  • Réponse intelligente fournit des suggestions de réponses rapides dans Mail et Messages.
  • Siri est plus naturel et utile, avec l’option Écrire à Siri qui permet d’exploiter sa connaissance des fonctionnalités et réglages des produits Apple. Siri peut également s’adapter si une personne bute sur certains mots et conserver le contexte d’une demande à l’autre.
  • L’accès à ChatGPT est intégré aux Outils d’écriture et à Siri, ce qui permet à Siri d’exploiter les capacités de compréhension d’images ou de documents de ChatGPT en évitant de passer d’un outil à un autre.
  • La Recherche en langage naturel dans Photos simplifie la recherche de photos ou de vidéos en la rendant possible au moyen d’une simple description.
  • Les utilisateurs peuvent créer un film souvenir dans Photos en saisissant une description.
  • Les Résumés de transcriptions audio dans Notes sont automatiquement générés pour mettre en évidence des informations importantes en un coup d’œil.
  • Les utilisateurs peuvent générer des Résumés de transcriptions d’appel pour mettre en valeur des informations importantes.
  • Les Messages prioritaires, une section située en haut de la boîte de réception dans Mail, montre les e‑mails les plus urgents, comme une invitation à déjeuner ou une carte d’embarquement pour le jour même.
  • Les Notifications prioritaires apparaissent tout en haut des notifications d’un utilisateur et mettent en évidence les notifications importantes qui pourraient nécessiter une attention immédiate.
  • Les Résumés des notifications permettent aux utilisateurs de passer en revue des notifications longues ou empilées et d’en afficher les détails importants directement sur l’écran verrouillé.
  • Les Aperçus dans Mail et Messages montrent aux utilisateurs une synthèse succincte d’informations importantes qui leur évite d’avoir à ouvrir le message.
  • La fonctionnalité Réduire les interruptions, un nouveau mode Concentration, fait apparaître uniquement les notifications qui pourraient nécessiter une attention immédiate.

Une avancée majeure pour le respect de la vie privée dans l’IA

Conçue pour protéger la vie privée des utilisateurs à chaque étape, Apple Intelligence utilise le traitement embarqué, ce qui signifie que la grande majorité des modèles qui l’alimentent s’exécutent entièrement sur l’appareil. Pour les demandes exigeant des modèles plus grands, Private Cloud Compute étend le niveau de confidentialité et de sécurité de l’iPhone au cloud afin de libérer encore plus d’intelligence. Les données des utilisateurs ne sont donc jamais stockées ni communiquées à Apple. Elles sont uniquement utilisées pour répondre à la demande. Des organismes indépendants peuvent d’ores et déjà inspecter le code qui est exécuté sur les serveurs à puces Apple pour assurer en permanence ce respect de la vie privée. C’est un immense pas en avant pour le respect de la vie privée lié à l’IA.
Disponibilité
Toutes ces nouvelles fonctionnalités peuvent être testées dès aujourd’hui par les membres de l’Apple Developer Program sur developer.apple.com, et une version bêta publique sera disponible pour les membres du programme Apple Beta Software le mois prochain sur beta.apple.com/fr. Les utilisateurs activant Apple Intelligence sur les appareils compatibles et configurés dans une langue prise en charge auront accès à ces fonctionnalités cet automne, notamment tous les modèles d’iPhone 16, l’iPhone 15 Pro et l’iPhone 15 Pro Max, l’iPad mini (A17 Pro), ainsi que les modèles d’iPad et de Mac équipés d’une puce M1 (et modèles ultérieurs), avec la langue de Siri et celle de l’appareil réglées sur l’allemand, l’anglais, le chinois (simplifié), le coréen, l’espagnol, le français, l’italien, le japonais ou le portugais (Brésil). D’autres langues seront incluses d’ici la fin de l’année : chinois (traditionnel), danois, néerlandais, norvégien, portugais (Portugal), suédois, turc et vietnamien. La disponibilité de certaines fonction­­nalités peut varier en fonction des langues et des régions, et selon les lois et réglementations locales. Pour plus d’informations, rendez‑vous sur apple.com/fr/apple-intelligence.
Partager l’article

Media

  • Texte de cet article

  1. Les Genmoji et Image Playground sont disponibles en allemand, anglais, espagnol, français, italien, japonais et portugais (Brésil).
  2. Traduction en direct dans Messages prend en charge les langues suivantes : allemand, anglais (États‑Unis, Royaume‑Uni), chinois (simplifié), coréen, espagnol (Espagne), français (France), italien, japonais et portugais (Brésil).
  3. Traduction en direct dans les apps Téléphone et FaceTime est disponible pour les appels individuels dans les langues suivantes : allemand, anglais (États‑Unis, Royaume‑Uni), espagnol (Espagne), français (France) et portugais (Brésil).
  4. L’option permettant d’ajouter un évènement à l’app Calendrier avec l’intelligence visuelle est disponible en anglais sur tous les modèles d’iPhone 16 ainsi que sur l’iPhone 15 Pro et l’iPhone 15 Pro Max.
  5. Workout Buddy sera disponible sur l’Apple Watch Series 6 (et modèles ultérieurs), l’Apple Watch SE (2ᵉ génération) et les Apple Watch Ultra et Ultra 2 avec un iPhone prenant en charge Apple Intelligence, d’abord en anglais.

Contacts presse

Jasmine Khounnala

Apple

khounnala.j@apple.com

01 56 52 97 48

Ligne infos presse Apple

media.fr@apple.com

01 56 52 96 91