Penguin Random House, le principal éditeur mondial de livres en langue anglaise, fait une déclaration publique claire sur l'IA en ce qui concerne ses droits – et si vous êtes le genre de finisseur de livres qui lit les petits caractères au début, vous serez je le lis bientôt.
Le libraire rapporte que l'éditeur a modifié la formulation du droit d'auteur qui apparaît dans tous les livres (nouveaux et réimprimés) qu'il publie ; et il est expressément destiné aux grattoirs d'IA et de Large Language Model – des robots qui récupèrent les millions de mots de texte sur lesquels les modèles d'IA sont formés.
La nouvelle formulation stipule : « Aucune partie de ce livre ne peut être utilisée ou reproduite de quelque manière que ce soit dans le but de former des technologies ou des systèmes d’intelligence artificielle », ce qui est assez sans ambiguïté. Penguin Random House n'a pas indiqué s'il serait ouvert à l'octroi de licences pour l'un de ses travaux.
Dans l’industrie musicale, le point de vue est similaire : les grands labels sont également clairs sur le fait que leur musique ne doit pas être utilisée comme support de formation. Mais Sony et WMG ont également tous deux expliqué qu'ils étaient disposés à discuter d'accords de licence – dans de bonnes conditions.
Il n'existe cependant pas de consensus sur l'approche de l'IA parmi les éditeurs de livres, et des accords de licence sont conclus : certains éditeurs universitaires ont annoncé des partenariats de plusieurs millions de dollars pour octroyer des licences de contenu à des sociétés d'IA.
Comme toujours, le problème ici est une question de perspective : il est peu probable que les résultats de l’IA générative – qu’elle soit formée sur la musique ou sur des romans – enfreignent la loi existante sur le droit d’auteur, et il est extrêmement possible que des textes et de la musique protégés par le droit d’auteur aient déjà été utilisés pour former ces modèles. . Ces positions des titulaires de droits ont donc plus de sens dans un scénario futur, où les plateformes d’IA pourraient être obligées de révéler exactement sur quoi elles ont formé leurs modèles.