Musk affirme que Grok a produit zéro image d’enfant nu à caractère sexuel alors que les enquêtes débutent
Après plusieurs semaines durant lesquelles des images sexualisées de femmes et d’enfants ont été générées avec Grok avec des interventions très limitées de la part de xAI d’Elon Musk, le procureur général de Californie Rob Bonta prévoit d’enquêter pour déterminer si les résultats de Grok enfreignent des lois américaines.
Dans un communiqué de presse publié mercredi, Bonta a déclaré que xAI semble faciliter la production à grande échelle de deepfakes d’images intimes non consensuelles qui sont utilisées pour harceler des femmes et des filles sur Internet, notamment via la plateforme de médias sociaux X.
Il est notable que Bonta semble aussi préoccupé par l’application autonome et le site web de Grok utilisés pour générer des images nuisibles sans consentement que par les résultats sur X.
Jusqu’à présent, X n’a pas restreint l’application ou le site web de Grok. X a seulement menacé de suspendre définitivement les utilisateurs qui modifient des images pour déshabiller des femmes et des enfants si les résultats sont jugés comme du contenu illégal. La plateforme a également restreint le chatbot Grok sur X de répondre aux demandes de déshabillage d’images, mais toute personne disposant d’un abonnement Premium peut contourner cette restriction, tout comme n’importe quel utilisateur gratuit de X qui clique sur le bouton modifier sur n’importe quelle image apparaissant sur la plateforme sociale.
Mercredi, Elon Musk a semblé défendre les résultats de Grok comme étant bénins, insistant sur le fait qu’aucune des images signalées n’a complètement déshabillé de mineurs, comme si c’était le seul résultat problématique.
Je ne suis au courant d’aucune image de mineur nu générée par Grok, a déclaré Musk dans une publication sur X. Littéralement zéro.
La déclaration de Musk semble ignorer que des chercheurs ont trouvé des images nuisibles où des utilisateurs demandaient spécifiquement que des mineurs soient placés dans des positions érotiques et que des fluides sexuels soient représentés sur leurs corps. Elle ignore également que X a précédemment signé volontairement des engagements à retirer toute image intime abusive de sa plateforme, reconnaissant encore en 2024 que même des images partiellement nues que les victimes ne voudraient pas voir publiées pourraient être nuisibles.
Aux États-Unis, le ministère de la Justice considère toute représentation visuelle de conduite sexuellement explicite impliquant une personne de moins de 18 ans comme de la pornographie infantile, également connue sous le nom de matériel d’abus sexuel d’enfants.
Le Centre national pour les enfants disparus et exploités, qui reçoit les signalements de matériel d’abus sexuel d’enfants trouvé sur X, a déclaré à Ars que les entreprises technologiques ont la responsabilité d’empêcher que leurs outils soient utilisés pour sexualiser ou exploiter des enfants.
Bien que de nombreux résultats de Grok ne soient peut-être pas considérés comme du matériel d’abus sexuel d’enfants, en normalisant la sexualisation des enfants, Grok nuit aux mineurs, ont averti les défenseurs des droits. Et en plus de trouver des images annoncées comme du matériel d’abus sexuel d’enfants prétendument généré par Grok sur le dark web, la Fondation de surveillance d’Internet a noté que des acteurs malveillants utilisent des images modifiées par Grok pour créer des types encore plus extrêmes de matériel d’abus sexuel d’enfants généré par IA.
Grok fait face à des enquêtes aux États-Unis et au Royaume-Uni
Bonta a désigné les reportages documentant les pires résultats de Grok comme le déclencheur de son enquête.
L’avalanche de rapports détaillant le matériel sexuellement explicite non consensuel que xAI a produit et publié en ligne ces dernières semaines est choquante, a déclaré Bonta. Ce matériel, qui représente des femmes et des enfants dans des situations nues et sexuellement explicites, a été utilisé pour harceler des personnes sur Internet.
Agissant par profonde préoccupation pour les victimes et les cibles potentielles de Grok, Bonta a promis de déterminer si et comment xAI a violé la loi et d’utiliser tous les outils à ma disposition pour assurer la sécurité des résidents de Californie.
L’annonce de Bonta est intervenue après que le Royaume-Uni a semblé déclarer une victoire après avoir enquêté sur Grok pour de possibles violations de la loi sur la sécurité en ligne du Royaume-Uni, annonçant que les résultats nuisibles avaient cessé.
Ce n’était pas le cas, comme The Verge l’a de nouveau souligné en effectuant des tests rapides et faciles utilisant des selfies de journalistes pour conclure que rien n’avait changé pour empêcher les résultats.
Cependant, il semble que lorsque Musk a mis à jour Grok pour refuser certaines demandes de déshabillage d’images, cela a suffi au Premier ministre britannique Keir Starmer pour affirmer que X avait pris des mesures pour se conformer à la loi, a rapporté Reuters.
Ars a contacté une organisation à but non lucratif européenne, AI Forensics, qui a testé pour confirmer que X avait bloqué certains résultats au Royaume-Uni. Un porte-parole a confirmé que leurs tests n’incluaient pas la vérification si des résultats nuisibles pouvaient être générés en utilisant le bouton de modification de X.
AI Forensics prévoit d’effectuer d’autres tests, mais son porte-parole a noté qu’il serait contraire à l’éthique de tester la fonctionnalité du bouton de modification que The Verge a confirmé fonctionner toujours.
L’année dernière, l’Institut Stanford pour l’intelligence artificielle centrée sur l’humain a publié une recherche montrant que le Congrès pourrait faire progresser la sécurité des modèles en permettant aux entreprises technologiques de tester rigoureusement leurs modèles génératifs sans crainte de poursuites pour tout test de résistance lié au matériel d’abus sexuel d’enfants, a rapporté Tech Policy Press. Mais jusqu’à ce qu’un tel refuge soit créé, il semble plus probable que les outils d’IA nouvellement publiés puissent comporter des risques comme ceux de Grok.
Il est possible que les résultats de Grok, s’ils ne sont pas contrôlés, puissent éventuellement mettre X en violation de la loi Take It Down Act, qui entre en vigueur en mai et exige que les plateformes retirent rapidement la pornographie de vengeance générée par IA. L’une des mères de l’un des enfants de Musk, Ashley St. Clair, a décrit les résultats de Grok utilisant ses images comme de la pornographie de vengeance.
Alors que l’enquête britannique se poursuit, Bonta n’a pas encore précisé quelles lois il soupçonne X de violer aux États-Unis. Cependant, il a souligné que les images montrant des victimes en tenue minimale franchissaient une ligne, ainsi que les images plaçant des enfants dans des positions sexuelles.
Alors que l’enquête californienne s’intensifie, Bonta a poussé X à prendre davantage de mesures pour restreindre les résultats de Grok, ce qu’un chercheur en IA a suggéré à Ars pourrait être fait avec quelques simples mises à jour.
J’exhorte xAI à prendre des mesures immédiates pour s’assurer que cela n’aille pas plus loin, a déclaré Bonta. Nous avons une tolérance zéro pour la création et la diffusion par IA d’images intimes non consensuelles ou de matériel d’abus sexuel d’enfants.





