Les auteurs protestent après que Taylor et Francis signent un accord avec Microsoft AI

Music Ally couvre régulièrement les litiges dans le secteur de l'édition musicale. L'édition de livres ? Pas tellement. Mais nous pensons que la dispute qui couve entre l'éditeur Taylor & Francis et les auteurs universitaires publiés par ses maisons d'édition est pertinente pour l'industrie musicale.

L'histoire a commencé en mai lorsque la société mère de Taylor & Francis, Informa, a conclu un partenariat en matière d'IA avec Microsoft. L'accord, d'un montant initial de 10 millions de dollars, permettait à ce dernier d'accéder au « contenu et aux données d'apprentissage avancé » de Taylor & Francis.

Le problème est maintenant que certains des auteurs de ces livres affirment qu’ils n’ont pas eu la possibilité de se retirer et ne semblent pas recevoir de paiements supplémentaires à la suite de l’accord. L'auteure Ruth Alison Clemens a tiré la sonnette d'alarme sur X la semaine dernière, et la publication spécialisée The Bookseller a depuis suivi l'histoire.

« Je n’ai appris cela que par le bouche à oreille ces derniers jours. J'ai été choqué qu'ils n'aient pas fait connaître cela plus largement à leurs auteurs, car l'utilisation de l'IA et des LLM est aujourd'hui une préoccupation majeure pour les chercheurs universitaires », a déclaré Clemens, ajoutant que « comme ils n'ont pas informé leurs auteurs de l'accord conclu dans le cadre de l'accord, En premier lieu, toute politique de désinscription n'est plus fonctionnelle ».

Pour sa part, Taylor & Francis a déclaré qu'elle « protège l'intégrité du travail de nos auteurs et les limites de la reproduction textuelle des textes, ainsi que les droits des auteurs à recevoir des paiements de redevances conformément à leurs contrats d'auteur ».

Donc, l’angle de l’industrie musicale. Un ayant-droit concluant un accord d’IA avec une entreprise qui implique son catalogue de contenus et de données, ce qui provoque ensuite une réaction violente de la part de sa communauté de créateurs ? Le parallèle potentiel pour les labels, les distributeurs et les éditeurs devrait être clair.

Nous avons couvert certaines discussions au sein de notre industrie à ce sujet au cours de la dernière année. En septembre 2023, le Council of Music Makers du Royaume-Uni – représentant les musiciens, les managers et les producteurs – a affirmé que « le consentement explicite des créateurs de musique individuels doit être obtenu avant que la musique ne soit utilisée pour former des modèles d'IA. Un tel consentement ne peut être déduit par les titulaires de droits ou les entreprises technologiques.

Puis, en janvier 2024, le Conseil a critiqué les majors, affirmant que lorsqu'il leur avait demandé de promettre d'obtenir ce consentement des musiciens avant la signature de tout accord, « nous nous sommes heurtés à un mur de silence… Des lettres d'artistes et de leurs managers demandant de discuter de l'accord » les opportunités dans l’IA sont restées sans réponse.

La question ici est moins de savoir si les titulaires de droits besoin demander l'autorisation des artistes et des auteurs-compositeurs dans le cas d'accords sur l'IA, et en savoir plus sur le type de réactions négatives auxquelles ils pourraient être confrontés s'ils ne le faisaient pas volontairement.

Sans parler de la question suivante : comment pourriez-vous, de manière réaliste, accorder une licence pour un catalogue de musique ou de compositions enregistrées à une société d'IA tout en donnant à chaque artiste et auteur-compositeur impliqué une option de non-participation ?

Une réponse à cela passe par une négociation minutieuse, des explications, du respect et de la confiance des deux côtés. Les murs de silence n’aident généralement pas à résoudre ces problèmes.

Cependant, regarder Taylor & Francis faire face aux retombées de l'accord de sa société mère avec Microsoft pourrait inciter notre industrie à redoubler d'efforts pour comprendre l'éthique et la logistique des accords que nous considérons comme une partie si importante de l'avenir de la musique IA.