Des volontaires de Wikipédia ont passé des années à cataloguer les signes révélateurs de l’IA. Il existe maintenant un plugin pour les éviter.
Samedi, l’entrepreneur technologique Siqi Chen a publié un plugin open source pour l’assistant IA Claude Code d’Anthropic qui demande au modèle d’IA d’arrêter d’écrire comme un modèle d’IA. Appelé Humanizer, ce simple plugin de prompt fournit à Claude une liste de 24 modèles de langage et de formatage que les éditeurs de Wikipédia ont répertoriés comme révélateurs de chatbot. Chen a publié le plugin sur GitHub, où il a recueilli plus de 1 600 étoiles lundi.
Il est vraiment pratique que Wikipédia ait rassemblé une liste détaillée de signes d’écriture générée par IA, a écrit Chen sur X. Tellement pratique qu’il suffit de dire à votre LLM de ne pas faire ça.
Le matériel source est un guide du WikiProject AI Cleanup, un groupe d’éditeurs de Wikipédia qui traque les articles générés par IA depuis fin 2023. L’éditeur français de Wikipédia Ilyas Lebleu a fondé le projet. Les volontaires ont étiqueté plus de 500 articles pour examen et, en août 2025, ont publié une liste formelle des modèles qu’ils continuaient à observer.
L’outil de Chen est un fichier de compétence pour Claude Code, l’assistant de codage en terminal d’Anthropic, qui consiste en un fichier formaté en Markdown ajoutant une liste d’instructions écrites ajoutées au prompt alimentant le grand modèle de langage qui alimente l’assistant. Contrairement à un prompt système normal, par exemple, les informations de compétence sont formatées d’une manière standardisée que les modèles Claude sont ajustés pour interpréter avec plus de précision qu’un simple prompt système. Les compétences personnalisées nécessitent un abonnement Claude payant avec l’exécution de code activée.
Mais comme pour tous les prompts d’IA, les modèles de langage ne suivent pas toujours parfaitement les fichiers de compétences, alors l’Humanizer fonctionne-t-il vraiment? Dans nos tests limités, le fichier de compétences de Chen a rendu la sortie de l’agent IA moins précise et plus décontractée, mais cela pourrait avoir des inconvénients: cela n’améliore pas la factualité et pourrait nuire aux capacités de codage.
En particulier, certaines instructions d’Humanizer pourraient vous égarer selon la tâche. Par exemple, la compétence Humanizer inclut la ligne: Ayez des opinions. Ne vous contentez pas de rapporter des faits, réagissez à ceux-ci. Je ne sais vraiment pas quoi penser de cela est plus humain que de lister neutralement les avantages et les inconvénients. Bien que paraître imparfait semble humain, ce genre de conseil ne vous rendrait probablement pas service si vous utilisiez Claude pour rédiger de la documentation technique.
Même avec ses inconvénients, il est ironique que l’un des ensembles de règles les plus référencés sur le web pour détecter l’écriture assistée par IA puisse aider certaines personnes à la contourner.
Repérer les modèles
À quoi ressemble l’écriture par IA? Le guide de Wikipédia est spécifique avec de nombreux exemples, mais nous n’en donnerons qu’un ici par souci de brièveté.
Certains chatbots adorent valoriser leurs sujets avec des expressions comme marquant un moment charnière ou témoigne de, selon le guide. Ils écrivent comme des brochures touristiques, qualifiant les vues de à couper le souffle et décrivant les villes comme nichées au sein de régions pittoresques. Ils ajoutent des expressions en -ant à la fin des phrases pour paraître analytiques: symbolisant l’engagement de la région envers l’innovation.
Pour contourner ces règles, la compétence Humanizer indique à Claude de remplacer le langage amplifié par des faits simples et propose cet exemple de transformation:
Avant: L’Institut de statistiques de Catalogne a été officiellement créé en 1989, marquant un moment charnière dans l’évolution des statistiques régionales en Espagne.
Après: L’Institut de statistiques de Catalogne a été créé en 1989 pour collecter et publier des statistiques régionales.
Claude lira cela et fera de son mieux en tant que machine de reconnaissance de modèles pour créer une sortie correspondant au contexte de la conversation ou de la tâche en cours.
Un exemple de pourquoi la détection de l’écriture par IA échoue
Même avec un ensemble de règles aussi confiant élaboré par les éditeurs de Wikipédia, nous avons déjà écrit sur les raisons pour lesquelles les détecteurs d’écriture par IA ne fonctionnent pas de manière fiable: il n’y a rien d’intrinsèquement unique dans l’écriture humaine qui la différencie de manière fiable de l’écriture par LLM.
Une raison est que même si la plupart des modèles de langage IA tendent vers certains types de langage, ils peuvent également être incités à les éviter, comme avec la compétence Humanizer. Bien que parfois ce soit très difficile, comme OpenAI l’a découvert dans sa lutte de plusieurs années contre le tiret cadratin.
De plus, les humains peuvent écrire comme des chatbots. Par exemple, cet article contient probablement certains traits d’écriture par IA qui déclenchent les détecteurs d’IA même s’il a été écrit par un rédacteur professionnel, surtout si nous utilisons ne serait-ce qu’un seul tiret cadratin, car la plupart des LLM ont acquis des techniques d’écriture à partir d’exemples d’écriture professionnelle extraits du web.
Dans cette optique, le guide de Wikipédia contient une mise en garde qui mérite d’être notée: bien que la liste signale certains signes évidents de, disons, l’utilisation non modifiée de ChatGPT, elle est toujours composée d’observations, pas de règles inébranlables. Une prépublication de 2025 citée sur la page a révélé que les utilisateurs intensifs de grands modèles de langage repèrent correctement les articles générés par IA environ 90 pour cent du temps. Cela semble formidable jusqu’à ce que vous réalisiez que 10 pour cent sont des faux positifs, ce qui est suffisant pour potentiellement éliminer du contenu de qualité dans la quête de détecter le contenu médiocre généré par IA.
En prenant du recul, cela signifie probablement que le travail de détection de l’IA doit aller plus loin que le signalement de formulations particulières et plonger davantage dans le contenu factuel substantiel du travail lui-même.






