Apple a publié OpenELM, une famille de modèles de langage d'IA générative open source. La marque à la pomme l'a voulue efficace et moins gourmande en énergie. Bientôt sur iOS 18 et macOS 15 ?
À son tour, Apple a présenté cette semaine une toute nouvelle famille de modèles de langage (LLM), baptisée « OpenELM », qui se destine à l'intelligence artificielle générative. D'ordinaire très secret, le géant américain a fait le choix d'une stratégie open source, pour promouvoir des modèles teintés de sobriété, qui devraient se concentrer sur des usages spécifiques, et des appareils spécifiques. Ils pourraient se destiner aux iPhone et autres devices de la marque. Explications.
De petits modèles de langage destinés à fonctionner localement, sur les appareils Apple
Dans le même temps ou presque que son illustre concurrent Microsoft, qui a présenté un modèle d'IA plus petit et plus économe, Phi-3, Apple a dévoilé OpenELM, une famille de modèles de langage que ses concepteurs décrivent eux-mêmes comme « efficaces et open source ».
Le choix de l'open source, Meta a fait le même, mais chez Apple, il étonne forcément un peu. La firme de Cupertino a pourtant bien publié quatre versions du modèle sur Hugging Face et des extraits de code sur GitHub. On y retrouve des modèles pré-entraînés à 270 millions, 450 millions, 1,1 milliard et 3 milliards de paramètres, plus petits encore que le plus petit des modèles Phi-3 de Microsoft (3,8 milliards de paramètres), présenté en même temps.
À l'échelle des LLM parfois démesurés des géants du secteur, ces modèles de langage made in Apple sont… petits, oui. Mais cela ne signifie pas pour autant qu'ils ne sont pas performants ni encore moins utiles. Car si les modèles les plus imposants fonctionnent sur des serveurs distants, Apple veut faire marcher son IA localement, sur ses appareils directement. Et c'est toute la subtilité, outre une économie d'énergie non négligeable.
Une IA générative Apple, pour quels usages et pourquoi faire ?
De ce qu'on peut lire sur Hugging Face, on comprend que les modèles de langage de la famille OpenELM pourront se concentrer sur des tâches ciblées, comme la rédaction de courriers électroniques par exemple, en se concentrant sur des usages utilisateur purs. Ce qui a évidemment du sens, à l'heure où les Français utilisent de plus en plus les IA génératives (+60% d'usage par rapport à 2023, selon le dernier sondage Ifop pour Talan publié ce 26 avril 2024).
Le calendrier de sortie de ces modèles de langage n'est pas anodin. Apple prépare en effet sa WWDC (10 juin), sa conférence annuelle durant laquelle l'entreprise présentera les prochaines mises à jour de ses systèmes, iOS 18 et macOS 15 pour ne pas les citer. Si l'entreprise californienne n'a pas caché son ambition de « faire fonctionner l'IA localement sur les appareils Apple », il est encore aujourd'hui difficile de savoir quand et comment OpenELM apparaîtra dans les iPhone et autres appareils de la marque.
Les développeurs peuvent en tout cas d'ores et déjà les utiliser, tout en gardant à l'esprit, comme l'indique Apple, qu'ils sont mis à disposition « sans aucune garantie de sécurité », ce qui peut engendrer « des résultats inexacts, préjudiciables, biaisés ou répréhensibles », selon les requêtes (prompts) des utilisateurs. Apple a publié, pour cela, la bibliothèque CoreNet, pour les aider à former des modèles standards et nouveaux d'IA générative.
11 décembre 2024 à 17h08
Sources : Hugging Face, GitHub, Apple