X a annoncé qu'il n'autoriserait plus les gens à utiliser son IA Grok pour transformer des photos de vraies personnes en photos de bikini sans leur permission.
« Nous géobloquons désormais la capacité de tous les utilisateurs à générer des images de personnes réelles en bikini, sous-vêtements et vêtements similaires via le compte Grok et dans Grok in X dans les juridictions où cela est illégal », a ajouté la société dans son annonce.
Oh, et : « L'évolution rapide de l'IA générative présente des défis dans l'ensemble du secteur. Nous travaillons activement avec les utilisateurs, nos partenaires, les instances dirigeantes et d'autres plateformes pour résoudre les problèmes plus rapidement à mesure qu'ils surviennent.
Il est plus exact de dire que les instances dirigeantes obligent X (et sa société mère xAI) à traiter ce problème. Le dernier en date à s'y intéresser est le procureur général de Californie, Rob Bonta, qui a lancé une enquête sur « la prolifération de matériel sexuellement explicite non consensuel produit à l'aide de Grok ».
« xAI semble faciliter la production à grande échelle d'images intimes non consensuelles et truquées qui sont utilisées pour harceler les femmes et les filles sur Internet, y compris via la plateforme de médias sociaux.
Quant aux « partenaires » mentionnés dans le post de X, ils sont également sous pression. Une coalition de groupes de femmes et de militants technologiques a publié hier des lettres ouvertes appelant Apple et Google à supprimer les applications X et Grok de leurs magasins.
« Nous implorons vraiment Apple et Google de prendre cela extrêmement au sérieux », a déclaré à Reuters Jenna Sherman, directrice de campagne d'Ultraviolet – l'une des organisations impliquées.
L'agence de presse a également publié la réponse en trois mots de xAI lorsqu'elle a contacté l'entreprise : « Legacy Media Lies ». Mais les changements apportés à Grok suggèrent qu’il prend enfin le problème plus au sérieux que cela ne le suggère.