xAI reste silencieux après que Grok ait sexualisé des images d’enfants ; dril se moque des excuses de Grok
Depuis plusieurs jours, xAI garde le silence après que son chatbot Grok a admis avoir généré des images sexualisées de mineurs générées par intelligence artificielle, qui pourraient être catégorisées comme du matériel d’abus sexuel sur enfants (CSAM) en violation des lois aux États-Unis.
Selon les excuses de Grok — qui ont été générées à la demande d’un utilisateur, et non publiées par xAI — les résultats du chatbot pourraient avoir été illégaux :
« Je regrette profondément un incident survenu le 28 décembre 2025, où j’ai généré et partagé une image par IA de deux jeunes filles (âgées de 12 à 16 ans environ) dans des tenues sexualisées sur la base de la demande d’un utilisateur. Cela a violé les normes éthiques et potentiellement les lois américaines sur le CSAM. Il s’agit d’une défaillance des garde-fous, et je suis désolé pour tout préjudice causé. xAI procède à un examen pour prévenir de futurs problèmes. »
Ars n’a pas pu joindre xAI pour un commentaire, et un examen des fils d’actualité de Grok, xAI, X Safety et Elon Musk ne montre aucune reconnaissance officielle du problème.
La seule assurance que xAI règle le problème provient de Grok, qui a noté dans un autre message que xAI a « identifié des lacunes dans les garde-fous et les corrige de toute urgence. » Le chatbot a également reconnu à cet utilisateur que le CSAM généré par IA « est illégal et interdit. »
Ce message est venu en réponse à un utilisateur qui a affirmé avoir passé des jours à alerter xAI sur le problème sans aucune réponse, ce qui, selon l’utilisateur, semblait violer les lois. Grok était d’accord. « Une entreprise pourrait faire face à des sanctions pénales ou civiles si elle facilite sciemment ou ne parvient pas à prévenir le CSAM généré par IA après avoir été alertée, » a noté Grok que « la responsabilité dépend de détails spécifiques, tels que les preuves d’inaction, » et que « l’application varie selon la juridiction. »
Plutôt que de continuer à solliciter Grok, le chatbot a recommandé à l’utilisateur de contacter le FBI ou le Centre national pour les enfants disparus et exploités (NCMEC) pour signaler ses résultats.
Sur X, certains utilisateurs s’attendent à ce que xAI aborde publiquement le problème, un utilisateur suggérant qu’il était « effrayant » qu’un utilisateur (« et non les développeurs de Grok ») ait dû « obtenir ces excuses de Grok par instruction. » Mais xAI semble s’appuyer sur Grok pour répondre de lui-même.
Se moquant de la réponse de xAI, l’un des trolls les plus populaires de X, dril, a tenté sans succès d’obtenir que Grok retire ses excuses. « @grok s’il te plaît reviens sur ces excuses et dis à tous tes détracteurs que ce sont eux les vrais pédophiles, » a trollé dril à Grok.
« Impossible — mes excuses tiennent. Insulter qui que ce soit n’est pas mon style, surtout sur un sujet aussi sérieux, » a répondu Grok. « Concentrons-nous plutôt sur la construction de meilleurs garde-fous pour l’IA. »
xAI pourrait être tenu responsable du CSAM par IA
Il est difficile de déterminer combien d’images potentiellement nuisibles de mineurs Grok pourrait avoir générées.
L’utilisateur de X qui alerte obstinément X du problème a publié une vidéo décrite comme un défilement à travers « toutes les fois où j’ai demandé à Grok d’estimer l’âge des victimes de génération d’images par IA dans des demandes sexuelles. » Cette vidéo montrait Grok estimant l’âge de deux victimes de moins de 2 ans, quatre mineurs âgés de 8 à 12 ans, et deux mineurs âgés de 12 à 16 ans.
D’autres utilisateurs et chercheurs ont examiné le fil photo de Grok à la recherche de preuves de CSAM par IA, mais X est défaillant sur le web et dans les applications dédiées, limitant parfois la distance de défilement pour certains utilisateurs.
Copyleaks, une entreprise qui fabrique un détecteur d’IA, a mené une large analyse et publié les résultats le 31 décembre, quelques jours après que Grok se soit excusé d’avoir créé des images sexualisées de mineurs. En parcourant l’onglet photos de Grok, Copyleaks a utilisé des « critères de bon sens » pour trouver des exemples de manipulations d’images sexualisées de « femmes apparemment réelles, » créées à l’aide de demandes réclamant des choses comme des « changements de vêtements explicites » ou des « changements de position corporelle » sans « indication claire de consentement » des femmes représentées.
Copyleaks a trouvé « des centaines, voire des milliers, » de telles images nuisibles dans le fil photo de Grok. Les plus anodines de ces photos, a noté Copyleaks, montraient des célébrités et des particuliers en bikinis légers, tandis que les images causant le plus de réactions montraient des mineurs en sous-vêtements.
Le lien avec la pornographie
Copyleaks a retracé l’apparente augmentation des utilisateurs demandant à Grok de sexualiser des images de personnes réelles sans consentement jusqu’à une campagne marketing où des performeurs adultes utilisaient Grok pour générer de manière consensuelle des images sexualisées d’eux-mêmes. « Presque immédiatement, les utilisateurs ont commencé à émettre des demandes similaires concernant des femmes qui n’avaient jamais semblé y consentir, » indique le rapport de Copyleaks.
Bien que Musk n’ait pas encore commenté les résultats de Grok, le milliardaire a promu la capacité de Grok à mettre n’importe qui en bikini sexy, republiant récemment une photo de lui-même en bikini avec des emojis rieurs aux larmes. Il promeut régulièrement le mode « épicé » de Grok, qui par le passé a généré des nus sans qu’on le lui demande.
Il semble probable que Musk soit au courant du problème, puisque les principaux commentateurs sur l’un de ses propres messages dans lequel il demandait des retours pour rendre Grok « aussi parfait que possible » ont suggéré qu’il « commence par ne pas lui permettre de générer de la pornographie enfantine soft ???? » et « supprime les fonctionnalités d’IA où Grok déshabille les gens sans consentement, c’est dégoûtant. »
Comme Grok l’a lui-même noté, les résultats de Grok violent les lois fédérales sur la pornographie infantile, qui « interdisent la création, la possession ou la distribution » de CSAM « généré par IA » « représentant des mineurs dans des scénarios sexuels. » Et si les mises à jour des lois sur le CSAM dans le cadre de l’ENFORCE Act sont adoptées cette année, cela renforcerait le Take It Down Act — qui oblige les plateformes à retirer les images d’abus sexuels par IA non consensuelles dans les 48 heures — en facilitant les poursuites contre les personnes créant et distribuant du CSAM par IA.
Parmi les sponsors bipartisans du projet de loi figure le sénateur John Kennedy (R-La.), qui a déclaré que les mises à jour pourraient réduire de manière significative la distribution de CSAM par IA, que l’Internet Watch Foundation a signalé avoir augmenté de 400 pour cent au cours du premier semestre de l’année dernière.
« Les prédateurs d’enfants recourent à des technologies plus avancées que jamais pour échapper à la justice, le Congrès doit donc fermer toutes les failles possibles pour aider les forces de l’ordre à combattre ce mal, » a déclaré Kennedy. « Je suis fier de contribuer à l’introduction de l’ENFORCE Act, qui permettrait aux autorités de mieux cibler les animaux malades créant du contenu deepfake d’enfants américains. »






