Nous couvrons depuis des années divers projets de musique IA de Google et YouTube. Cette semaine, lors de la première conférence des développeurs d'E/S, nous avons eu un aperçu de ce qui va suivre du Googleplex dans cet espace.
« Music AI Sandbox » est décrit comme une suite d'outils qui « aide les musiciens à créer de la musique de manière sans précédent ». Il s'agit d'une collaboration entre DeepMind, la division IA de Google, et YouTube, et sa grande révélation était accompagnée de démos de chansons créées avec par les musiciens Wyclef Jean, Justin Tranter et Marc Rebillet.
La vidéo d'introduction montre une interface similaire à d'autres outils musicaux d'IA actuellement populaires, pilotée par des invites textuelles (y compris la liste des « sons que vous ne voulez pas ») ainsi que la possibilité de coller des paroles et des accords spécifiques. La sortie du modèle peut également être étendue et accompagnée.
Comme on pouvait s'y attendre, les musiciens partenaires sont très positifs à propos de tout cela. « En ce moment, nous sommes en train de creuser dans la caisse infinie », explique Jean. « C'est comme avoir cet ami bizarre qui dit : 'essaye ceci, essaye cela' », a ajouté Rebillet.
« Quelqu'un comme moi, qui n'est pas un producteur de la nouvelle école, puisse entendre les choses que j'entends dans ma tête et pouvoir y parvenir parce que les outils d'IA me permettront de parler le langage que je parle en tant qu'auteur-compositeur, c'est-à-dire est très excitant pour moi », a déclaré Tranter.
Le pitch est élaboré avec beaucoup de soin : Music AI Sandbox est un outil pour les musiciens humains professionnels plutôt que de les remplacer, leur créativité restant la force dominante du processus.
Cela correspond aux espoirs de l'industrie musicale pour cette technologie, même si cela pose clairement des questions à certains segments de l'industrie. Par exemple, si Music AI Sandbox était ouvert à tous les YouTubers en tant qu’outil permettant de créer leurs propres bandes sonores vidéo, cela entrerait en concurrence avec les plateformes accordant des licences de musique commerciale à ces créateurs.
La question de la formation – comme la musique utilisée pour former le modèle derrière Music AI Sandbox – n'apparaît pas dans la vidéo promotionnelle ou dans le billet de blog qui l'accompagne.
YouTube a travaillé avec Universal Music Group sur l'initiative « Music AI Incubator » dont est issu Music AI Sandbox. L'hypothèse serait donc que son approche en matière de formation est approuvée par le label majeur – qui est belliciste sur des questions telles que les autorisations, les licences et paiement.
Cela dit, en janvier, Billboard a affirmé que Google DeepMind *avait* formé son modèle sur la musique protégée par le droit d'auteur et « essayait de conclure des accords » après l'événement. Lorsque Music AI Sandbox sera déployé correctement auprès d'un plus grand nombre d'artistes (et de non-artistes ?), plus de clarté sur ces questions serait la bienvenue.
Nous nous sommes concentrés sur les annonces musicales de cette semaine, mais le travail de Google en matière d'IA est bien plus important : en fait, le discours d'ouverture de l'événement I/O a été dominé par celui-ci.
À noter pour les lecteurs de Music Ally : Veo est une IA de conversion texte-vidéo capable de générer des vidéos en résolution 1080p, et est actuellement mise à l'épreuve par les cinéastes et les créateurs (encore une fois, il s'agit d'outils pour les humains, pas de remplacements). d'eux).
En attendant, si le référencement relève de vos responsabilités en travaillant avec des artistes, la description de la manière dont le modèle Gemini AI de Google est appliqué à la recherche méritera d'être lue. L’IA est sur le point de bouleverser la façon dont les gens recherchent et trouvent du contenu en ligne – et la façon dont les spécialistes du marketing tentent de s’assurer que c’est bien leur contenu qui est trouvé.