Depuis plusieurs mois, Apple fait face à des critiques quant à son retard apparent dans le domaine de l'intelligence artificielle générative, une technologie qui a pris un essor fulgurant avec des plateformes comme ChatGPT. Malgré ces reproches, l'entreprise a maintenu, à la fois auprès de ses investisseurs et des médias, qu'elle travaille activement à intégrer ces avancées technologiques au sein de son écosystème. Alors que ses concurrents comme Google et Microsoft ont déjà dévoilé leurs propres innovations en matière d'IA, Apple semble avoir choisi une approche plus discrète et réfléchie.
Apple, vraiment en retard sur l'IA ?
Les critiques autour du retard présumé d'Apple en matière d'intelligence artificielle ne sont pas nouvelles. Siri, l'assistant vocal emblématique d'Apple, est souvent cité comme un exemple de ce retard. Depuis son lancement, Siri a été perçu comme moins performant que ses concurrents, comme Google Assistant et Amazon Alexa. Les utilisateurs se plaignent de la compréhension limitée de Siri, de sa réactivité médiocre et de ses réponses souvent décalées ou incomplètes. La marque Siri elle-même est devenue, selon certains, une sorte de blague dans le monde technologique.
Cependant, il est important de noter qu'Apple intègre déjà de nombreuses fonctionnalités d'IA et de machine learning dans ses produits. Contrairement à ses concurrents, Apple mise sur l'exécution locale des modèles d'IA, ce qui permet de garantir une meilleure protection de la vie privée et une efficacité accrue. Des fonctions comme la reconnaissance faciale avec Face ID, la curation des photos dans l'application Photos, et l'amélioration automatique des images via Deep Fusion sont des exemples de l'IA omniprésente dans les produits Apple. Ces technologies montrent qu'Apple n'est pas en retard, mais qu'elle suit une approche différente et plus intégrée.
L'intégration de l'IA dans les produits Apple va au-delà de Siri et touche des domaines variés. Par exemple, l'application Photos utilise des algorithmes de machine learning pour organiser et cataloguer les images, tandis que l'application de messagerie propose des réponses intelligentes basées sur le contexte des messages reçus. De plus, Apple utilise l'IA pour améliorer l'expérience utilisateur dans ses applications de création comme Logic Pro et Final Cut Pro. Ces applications bénéficient d'outils puissants tels que le Stem Splitter pour la séparation des pistes audio et l'amélioration automatique de la lumière et des couleurs pour le montage vidéo .
Un autre domaine où Apple excelle est l'optimisation de ses processeurs pour les tâches liées à l'IA. La nouvelle génération de puces M4, intégrée dans les nouveaux iPad Pro (et les futurs Mac), est conçue pour exceller dans les tâches liées à l'IA. Avec une puissance de calcul atteignant 38 trillions d'opérations par seconde (TOPS), le M4 est une avancée significative par rapport aux générations précédentes. Rappelons que le M3 propose, lui, 18 TOPS avec son neural engine.
Il est également crucial de reconnaître que l'IA chez Apple est souvent invisible pour les utilisateurs, car elle est intégrée de manière transparente dans les systèmes d'exploitation et les applications. Par exemple, les fonctions de suggestions intelligentes dans les applications Calendrier et Mail, qui organisent automatiquement les événements et les emails importants, utilisent des algorithmes de machine learning pour anticiper les besoins des utilisateurs. De plus, les améliorations continues apportées à l'autocorrection et à la prédiction de texte sur le clavier iOS montrent l'engagement d'Apple à améliorer constamment l'expérience utilisateur grâce à l'IA.
Un pas de plus vers l'open-source
Ce que nous dit OpenELM
Avec le développement des OpenELM (Open Efficient Language Models), Apple semble faire un choix stratégique distinct en matière d'intelligence artificielle. Contrairement à ses concurrents qui misent sur des chatbots agrémentés de plugins comme ChatGPT ou Gemini, Apple opte pour une approche plus nuancée et ciblée. Les OpenELM se caractérisent par leur petite taille et leur capacité à fonctionner localement grâce au neural engine des puces Apple plutôt que de dépendre du cloud.
Cette stratégie présente plusieurs avantages notables. Premièrement, en utilisant des modèles de langage plus petits, Apple parvient à réduire la consommation d'énergie, ce qui est essentiel pour prolonger l'autonomie des appareils mobiles. Deuxièmement, en privilégiant l'exécution locale des IA, Apple assure une meilleure protection de la vie privée de ses utilisateurs, les données restant sur l'appareil plutôt que de transiter par des serveurs distants. Cette approche permet également une réactivité accrue, les opérations se déroulant directement sur l'appareil. Pour rappel, Apple n'en est pas à son coup d'essai pour le traitement on-device puisqu'iOS 15 avait déjà franchi le pas avec Siri en 2021, un changement que l'entreprise jugeait nécessaire au vu des prises de position de la marque concernant la protection de la vie privée de ses utilisateurs.
En misant sur des applications spécifiques plutôt que sur un chatbot généraliste, Apple donne le ton de sa stratégie en matière d'IA : une intégration locale et discrète, parfaitement distillée dans l'ensemble de l'expérience utilisateur. Plutôt que de proposer un assistant omniscient, l'entreprise intègre des capacités d'IA dans diverses fonctionnalités spécifiques, offrant ainsi une amélioration continue et subtile de l'expérience utilisateur sans perturber l'usage quotidien de ses produits.
MGIE et Keyframer
La présence d'Apple dans la recherche et le monde de l'open source ne se limite pas aux OpenELM. L'entreprise a récemment dévoilé d'autres projets open source prometteurs, démontrant son engagement à contribuer activement à la communauté technologique. Parmi ces initiatives, deux projets se démarquent particulièrement : MGIE (Multimodal Large Language Model Guided Image Editing) et Apple Keyframer.
MGIE est une avancée remarquable dans l'édition de photos via des commandes textuelles. Cet outil permet aux utilisateurs de modifier des images en utilisant des instructions en langage naturel, simplifiant ainsi des tâches complexes qui nécessiteraient normalement des compétences en retouche photo. Par exemple, un utilisateur peut simplement dire « rend le ciel plus bleu » et MGIE interprétera cela pour ajuster automatiquement la saturation du ciel dans l'image. Ce modèle peut également effectuer des modifications plus avancées comme changer l'arrière-plan, ajouter ou supprimer des objets, et appliquer divers effets artistiques.
D'autre part, Apple Keyframer est un générateur d'animations basé sur l'intelligence artificielle qui permet de créer des animations à partir d'une image fixe et d'une instruction textuelle. Par exemple, une image statique de Saturne peut être animée pour faire tourner la planète en utilisant une simple commande textuelle. Cet outil vise initialement les professionnels du graphisme, leur permettant de tester rapidement des idées avant de les développer plus en détail. Cependant, son potentiel s'étend bien au-delà des professionnels, offrant des possibilités aux petites entreprises et aux consommateurs pour créer du contenu attrayant pour les réseaux sociaux, par exemple.
Les bouchées doubles pour la WWDC
Avec la WWDC 2024 approchant à grands pas, les rumeurs autour des nouvelles fonctionnalités d'iOS 18 et des ambitions d'Apple en matière d'intelligence artificielle se multiplient. Beaucoup de bruits de couloir présentent la mise à jour à venir comme la plus importante de toute l'histoire du système d'exploitation. D'Après Mark Gurman, pointure de l'indiscrétion sur ce qu'il se trame à Cupertino, les utilisateurs peuvent s'attendre à voir des avancées telles que l'auto-génération d'emojis, des suggestions de réponses pour les mails et messages, la suppression intelligente des publicités dans Safari, ainsi que des résumés d'articles et des recherches Spotlight améliorées grâce à une meilleure indexation.
L'une des annonces phares pourrait être le partenariat entre Apple et OpenAI. Selon des sources fiables, Apple aurait signé un accord avec OpenAI pour intégrer la technologie de chatbot dans iOS 18, en particulier ChatGPT. Ce partenariat permettrait à Apple de proposer des fonctions avancées d'analyse de texte, de génération d'images et d'autres tâches complexes, tout en continuant à travailler sur ses propres modèles IA. En parallèle, Apple explore également un accord potentiel avec Google pour offrir Gemini comme une option supplémentaire. Aucune fuite ne précise comment cette intégration de modèles tiers prendrait forme, d'autant que Gemini et ChatGPT possèdent déjà tous deux une application sur iOS (et même un client Mac dans le cas de ChatGPT).
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
- Un modèle de génération puissant
- Une base de connaissances actualisée en temps réel
- Gratuit et intégré à l'écosystème Google
- Upload de fichiers pouvant aller jusqu'à 100 000 tokens (75 000 mots environ)
- Personnalisation avancée
- Conception éthique
Les fonctionnalités IA de la prochaine version d'iOS ne se limitent pas aux chatbots. Apple prévoit de déployer ses serveurs M2 Ultra pour alimenter certaines des nouvelles fonctions d'iOS 18 nécessitant une puissance de calcul accrue. Ces serveurs permettront d'améliorer des aspects tels que les recherches Spotlight et la suppression intelligente des contenus indésirables dans Safari, renforçant ainsi l'efficacité et la rapidité des opérations quotidiennes.
Avec son approche, Apple ne compte pas (encore) rattraper son retard. Le choix de ne pas intégrer un chatbot semble ici très délibéré puisqu'il évite toute comparaison directe avec ce que proposent OpenAI, Microsoft, Claude ou Google. Rien de surprenant quand on sait à quel point la firme de Cupertino aime exister en dehors des marchés où elle opère, d'autant que le partenariat avec l'entreprise de Sam Altman aidera à un peu mieux faire avaler la pilule. Reste tout de même des défis, notamment sur la justification du partenariat avec OpenAI alors que l'entreprise, et tout particulièrement Sam Altman, sont vivement critiqués entre accusation du vol de la voix de Scarlett Johansson, joute légale avec Elon Musk et menaces envers d'ex-employés sur le respect d'accords de non-divulgation.
11 décembre 2024 à 17h08