« Meta doit créer un nouvel ensemble de règles distinctes pour garantir que les utilisateurs peuvent reconnaître de manière fiable le contenu généré par l'IA. De plus, il devrait modifier ses politiques actuelles pour garantir une réponse rapide et adéquate aux résultats trompeurs générés par l'IA. «
Ce sont les mots du propre conseil de surveillance de Meta : l'entité créée par le géant des médias sociaux pour examiner ses politiques et répondre aux plaintes des personnes qui ont épuisé ses procédures d'appel.
Sa dernière déclaration est que « l'approche de Meta pour faire apparaître le contenu généré par l'IA doit évoluer » – bien que dans ce cas, l'impulsion ne soit pas liée au droit d'auteur ou aux célébrités, mais se concentre plutôt sur le contenu « d'IA trompeuse » en temps de guerre.
Le conseil d'administration a cité « des résultats deepfake conçus pour tromper, manipuler ou accroître l'engagement » qui se sont répandus sur les plateformes de Meta lors des récents conflits et crises au Venezuela et en Iran.
Une fausse vidéo du conflit Israël-Iran l'année dernière a été vue plus de 700 000 fois, mais bien qu'elle ait été signalée à Meta par les utilisateurs, « n'a été ni examinée par l'entreprise ni vérifiée par des vérificateurs de faits tiers » – et n'a pas reçu de label d'IA.
Parmi les recommandations du conseil d'administration, Meta « investit dans des outils de détection plus puissants pour le contenu multiformat (audio, audiovisuel et image) généré par l'IA » – quelque chose qui serait pertinent pour l'industrie musicale et ses plus grandes stars, mais seulement si Meta suit la recommandation.