L'éditeur de logiciels américain démontre une nouvelle fois son expertise dans le domaine de l'IA. Après l'image, il s'attaque à la musique.
Craignez-vous de ne pas trouver le tube que vous désirez cet été ? Ne vous inquiétez pas, le monde de la tech est là pour vous. Nous ne parlons pas ici des algorithmes magiques de Spotify ou des trends déchaînés de TikTok, mais de l'intelligence artificielle générative.
En effet, un certain nombre d'entreprises nous ont montré qu'il était possible de créer de la musique à partir de simples mots, à l'image de Meta et de son MusicGen. Aujourd'hui, c'est au tour d'un mastodonte du secteur de la création de s'essayer à l'exercice.
Donnez-moi du Vivaldi, et je vous rendrai du Wu-Tang
Plus besoin de partir à la recherche d'une chanson pour agrémenter votre prochain tutoriel de couture, vous pouvez en faire générer une en quelques mots à partir de votre logiciel d'édition audio favori. C'est en tout cas la promesse faite cette semaine par Adobe, qui vient de dévoiler les capacités de Project Music GenAI, son outil de génération de musique dopé à l'IA.
L'éditeur veut permettre de générer de la musique depuis de courts textes descriptifs tels que « jazz triste » ou « danse joyeuse ». Son programme peut créer des morceaux avec une variété de tempos et de structures, tout en étant capable de délimiter l'intro, le couplet ou le refrain.
Mais, Project Music va encore plus loin, puisque ses utilisateurs devraient pouvoir injecter leurs propres fichiers musicaux et en faire ce qu'ils veulent. La courte démo publiée par Adobe montre comment une chanson (dans ce cas, L'amour est un oiseau rebelle de Georges Bizet) peut être modifiée pour ressembler à une musique de film inspirante ou pour adopter un style plutôt hip-hop.
Jusqu'à présent, les résultats semblent impressionnants.
De (trop ?) belles promesses auxquelles on a envie de croire
Si le projet d'Adobe semble plutôt intuitif à utiliser, il devrait toutefois séduire de nombreux professionnels et s'intégrer parfaitement aux outils disponibles dans la suite Adobe Creative Cloud. Toujours dans sa démo, l'entreprise paraît utiliser Audition, ou une variante proche, pour diffuser les résultats de Project Music. Cela signifie qu'ils peuvent être modifiés à la volée et très rapidement intégrés dans des projets, des caractéristiques mises en avant par l'entreprise.
Pour l'instant, l'outil n'a pas été mis à la disposition du public, et il faudra certainement attendre la prochaine grande messe de l'entreprise, le 26 mars prochain, pour pouvoir mettre la main dessus. Cependant, au vu des derniers résultats d'Adobe en matière d'IA avec Firefly, on peut s'attendre à découvrir un très bon générateur de musique.
Les majors ont-ils des raisons de se faire du souci ? Alors qu'Universal s'inquiète de la prolifération des morceaux générés par l'IA sur les plateformes de streaming, Adobe tient à montrer patte blanche. La société a déclaré que les démonstrations de Project Music utilisent actuellement du « contenu issu du domaine public » pour générer ses résultats. Reste à voir comment les choses évolueront lorsque les utilisateurs injecteront des morceaux de Taylor Swift dans le programme.
10 novembre 2024 à 19h08
Source : TechRadar