{"id":16,"date":"2025-12-24T13:17:09","date_gmt":"2025-12-24T13:17:09","guid":{"rendered":"https:\/\/www.blog-actu.com\/index.php\/2025\/12\/24\/how-ai-coding-agents-work-and-what-to-remember-if-you-use-them\/"},"modified":"2025-12-24T13:17:09","modified_gmt":"2025-12-24T13:17:09","slug":"how-ai-coding-agents-work-and-what-to-remember-if-you-use-them","status":"publish","type":"post","link":"https:\/\/www.blog-actu.com\/index.php\/2025\/12\/24\/how-ai-coding-agents-work-and-what-to-remember-if-you-use-them\/","title":{"rendered":"How AI coding agents work\u2014and what to remember if you use them"},"content":{"rendered":"<p>Comment fonctionnent les agents de codage IA &#8211; et ce qu&rsquo;il faut retenir si vous les utilisez<\/p>\n<p>Aller au contenu<\/p>\n<p>Texte de l&rsquo;article<\/p>\n<p>R\u00e9serv\u00e9 aux abonn\u00e9s<br \/>\nEn savoir plus<\/p>\n<p>R\u00e9duire \u00e0 la navigation<\/p>\n<p>Les agents de codage IA d&rsquo;OpenAI, Anthropic et Google peuvent d\u00e9sormais travailler sur des projets logiciels pendant des heures d&rsquo;affil\u00e9e, \u00e9crivant des applications compl\u00e8tes, ex\u00e9cutant des tests et corrigeant des bugs sous supervision humaine. Mais ces outils ne sont pas magiques et peuvent compliquer plut\u00f4t que simplifier un projet logiciel. Comprendre leur fonctionnement interne peut aider les d\u00e9veloppeurs \u00e0 savoir quand (et si) les utiliser, tout en \u00e9vitant les pi\u00e8ges courants.<\/p>\n<p>Commen\u00e7ons par les bases : Au c\u0153ur de chaque agent de codage IA se trouve une technologie appel\u00e9e mod\u00e8le de langage de grande taille (LLM), qui est un type de r\u00e9seau de neurones entra\u00een\u00e9 sur d&rsquo;\u00e9normes quantit\u00e9s de donn\u00e9es textuelles, y compris beaucoup de code de programmation. C&rsquo;est une machine de reconnaissance de motifs qui utilise une invite pour \u00ab extraire \u00bb des repr\u00e9sentations statistiques compress\u00e9es des donn\u00e9es qu&rsquo;elle a vues pendant l&rsquo;entra\u00eenement et fournir une continuation plausible de ce motif en sortie. Dans cette extraction, un LLM peut interpoler entre domaines et concepts, ce qui donne des inf\u00e9rences logiques utiles lorsque c&rsquo;est bien fait et des erreurs de confabulation lorsque c&rsquo;est mal fait.<\/p>\n<p>Ces mod\u00e8les de base sont ensuite affin\u00e9s gr\u00e2ce \u00e0 des techniques comme l&rsquo;ajustement fin sur des exemples s\u00e9lectionn\u00e9s et l&rsquo;apprentissage par renforcement \u00e0 partir de retours humains (RLHF), qui fa\u00e7onnent le mod\u00e8le pour suivre les instructions, utiliser des outils et produire des r\u00e9sultats plus utiles.<\/p>\n<p>Une capture d&rsquo;\u00e9cran de l&rsquo;interface en ligne de commande Claude Code. Cr\u00e9dit : Anthropic<\/p>\n<p>Au cours des derni\u00e8res ann\u00e9es, les chercheurs en IA ont sond\u00e9 les d\u00e9ficiences des LLM et trouv\u00e9 des moyens de les contourner. Une innovation r\u00e9cente \u00e9tait le mod\u00e8le de raisonnement simul\u00e9, qui g\u00e9n\u00e8re du contexte (\u00e9tendant l&rsquo;invite) sous forme de texte de style raisonnement qui peut aider un LLM \u00e0 cibler un r\u00e9sultat plus pr\u00e9cis. Une autre innovation \u00e9tait une application appel\u00e9e \u00ab agent \u00bb qui relie plusieurs LLM ensemble pour effectuer des t\u00e2ches simultan\u00e9ment et \u00e9valuer les r\u00e9sultats.<\/p>\n<p>Comment les agents de codage sont structur\u00e9s<\/p>\n<p>En ce sens, chaque agent de codage IA est un programme enveloppe qui fonctionne avec plusieurs LLM. Il y a g\u00e9n\u00e9ralement un LLM \u00ab superviseur \u00bb qui interpr\u00e8te les t\u00e2ches (invites) de l&rsquo;utilisateur humain et assigne ensuite ces t\u00e2ches \u00e0 des LLM parall\u00e8les qui peuvent utiliser des outils logiciels pour ex\u00e9cuter les instructions. L&rsquo;agent superviseur peut interrompre les t\u00e2ches en dessous de lui et \u00e9valuer les r\u00e9sultats des sous-t\u00e2ches pour voir comment un projet progresse. La documentation technique d&rsquo;Anthropic d\u00e9crit ce mod\u00e8le comme \u00ab recueillir le contexte, agir, v\u00e9rifier le travail, r\u00e9p\u00e9ter \u00bb.<\/p>\n<p>S&rsquo;ils sont ex\u00e9cut\u00e9s localement via une interface en ligne de commande (CLI), les utilisateurs donnent aux agents une permission conditionnelle d&rsquo;\u00e9crire des fichiers sur la machine locale (code ou tout ce qui est n\u00e9cessaire), d&rsquo;ex\u00e9cuter des commandes exploratoires (par exemple, \u00ab ls \u00bb pour lister les fichiers dans un r\u00e9pertoire), de r\u00e9cup\u00e9rer des sites Web (g\u00e9n\u00e9ralement en utilisant \u00ab curl \u00bb), de t\u00e9l\u00e9charger des logiciels ou de t\u00e9l\u00e9verser des fichiers vers des serveurs distants. Il y a beaucoup de possibilit\u00e9s (et de dangers potentiels) avec cette approche, elle doit donc \u00eatre utilis\u00e9e avec pr\u00e9caution.<\/p>\n<p>En revanche, lorsqu&rsquo;un utilisateur d\u00e9marre une t\u00e2che dans l&rsquo;agent Web comme les versions Web de Codex et Claude Code, le syst\u00e8me provisionne un conteneur cloud isol\u00e9 pr\u00e9charg\u00e9 avec le d\u00e9p\u00f4t de code de l&rsquo;utilisateur, o\u00f9 Codex peut lire et modifier des fichiers, ex\u00e9cuter des commandes (y compris des harnais de test et des analyseurs) et ex\u00e9cuter du code de mani\u00e8re isol\u00e9e. Claude Code d&rsquo;Anthropic utilise des fonctionnalit\u00e9s au niveau du syst\u00e8me d&rsquo;exploitation pour cr\u00e9er des limites de syst\u00e8me de fichiers et de r\u00e9seau dans lesquelles l&rsquo;agent peut travailler plus librement.<\/p>\n<p>Le probl\u00e8me du contexte<\/p>\n<p>Chaque LLM a une m\u00e9moire \u00e0 court terme, pour ainsi dire, qui limite la quantit\u00e9 de donn\u00e9es qu&rsquo;il peut traiter avant d&rsquo;\u00ab oublier \u00bb ce qu&rsquo;il fait. C&rsquo;est ce qu&rsquo;on appelle le \u00ab contexte \u00bb. Chaque fois que vous soumettez une r\u00e9ponse \u00e0 l&rsquo;agent superviseur, vous modifiez une gigantesque invite qui inclut tout l&rsquo;historique de la conversation jusqu&rsquo;\u00e0 pr\u00e9sent (et tout le code g\u00e9n\u00e9r\u00e9, plus les jetons de raisonnement simul\u00e9 que le mod\u00e8le utilise pour \u00ab r\u00e9fl\u00e9chir \u00bb davantage \u00e0 un probl\u00e8me). Le mod\u00e8le d&rsquo;IA \u00e9value ensuite cette invite et produit un r\u00e9sultat. C&rsquo;est un processus tr\u00e8s co\u00fbteux en calcul qui augmente de mani\u00e8re quadratique avec la taille de l&rsquo;invite car les LLM traitent chaque jeton (morceau de donn\u00e9es) par rapport \u00e0 tous les autres jetons de l&rsquo;invite.<\/p>\n<p>L&rsquo;\u00e9quipe technique d&rsquo;Anthropic d\u00e9crit le contexte comme une ressource finie avec des rendements d\u00e9croissants. Des \u00e9tudes ont r\u00e9v\u00e9l\u00e9 ce que les chercheurs appellent la \u00ab pourriture du contexte \u00bb : \u00e0 mesure que le nombre de jetons dans la fen\u00eatre de contexte augmente, la capacit\u00e9 du mod\u00e8le \u00e0 se souvenir avec pr\u00e9cision des informations diminue. Chaque nouveau jeton \u00e9puise ce que la documentation appelle un \u00ab budget d&rsquo;attention \u00bb.<\/p>\n<p>Cette limite de contexte limite naturellement la taille d&rsquo;une base de code qu&rsquo;un LLM peut traiter \u00e0 la fois, et si vous alimentez le mod\u00e8le d&rsquo;IA avec beaucoup d&rsquo;\u00e9normes fichiers de code (qui doivent \u00eatre r\u00e9\u00e9valu\u00e9s par le LLM chaque fois que vous envoyez une autre r\u00e9ponse), cela peut br\u00fbler des limites de jetons ou d&rsquo;utilisation assez rapidement.<\/p>\n<p>Astuces du m\u00e9tier<\/p>\n<p>Pour contourner ces limites, les cr\u00e9ateurs d&rsquo;agents de codage utilisent plusieurs astuces. Par exemple, les mod\u00e8les d&rsquo;IA sont ajust\u00e9s pour \u00e9crire du code afin d&rsquo;externaliser des activit\u00e9s vers d&rsquo;autres outils logiciels. Par exemple, ils peuvent \u00e9crire des scripts Python pour extraire des donn\u00e9es d&rsquo;images ou de fichiers plut\u00f4t que de faire passer tout le fichier par un LLM, ce qui \u00e9conomise des jetons et \u00e9vite des r\u00e9sultats inexacts.<\/p>\n<p>La documentation d&rsquo;Anthropic note que Claude Code utilise \u00e9galement cette approche pour effectuer des analyses de donn\u00e9es complexes sur de grandes bases de donn\u00e9es, en \u00e9crivant des requ\u00eates cibl\u00e9es et en utilisant des commandes Bash comme \u00ab head \u00bb et \u00ab tail \u00bb pour analyser de grands volumes de donn\u00e9es sans jamais charger les objets de donn\u00e9es complets dans le contexte.<\/p>\n<p>(D&rsquo;une certaine mani\u00e8re, ces agents IA sont des programmes guid\u00e9s mais semi-autonomes utilisant des outils qui sont une extension majeure d&rsquo;un concept que nous avons vu pour la premi\u00e8re fois d\u00e9but 2023.)<\/p>\n<p>Une autre perc\u00e9e majeure dans les agents est venue de la gestion dynamique du contexte. Les agents peuvent le faire de plusieurs mani\u00e8res qui ne sont pas enti\u00e8rement divulgu\u00e9es dans les mod\u00e8les de codage propri\u00e9taires, mais nous connaissons la technique la plus importante qu&rsquo;ils utilisent : la compression du contexte.<\/p>\n<p>La version en ligne de commande d&rsquo;OpenAI Codex s&rsquo;ex\u00e9cutant dans une fen\u00eatre de terminal macOS. Cr\u00e9dit : Benj Edwards<\/p>\n<p>Lorsqu&rsquo;un LLM de codage approche de sa limite de contexte, cette technique compresse l&rsquo;historique du contexte en le r\u00e9sumant, perdant des d\u00e9tails dans le processus mais raccourcissant l&rsquo;historique aux d\u00e9tails cl\u00e9s. La documentation d&rsquo;Anthropic d\u00e9crit ce \u00ab compactage \u00bb comme distillant le contenu du contexte de mani\u00e8re haute fid\u00e9lit\u00e9, pr\u00e9servant les d\u00e9tails cl\u00e9s comme les d\u00e9cisions architecturales et les bugs non r\u00e9solus tout en \u00e9cartant les sorties d&rsquo;outils redondantes.<\/p>\n<p>Cela signifie que les agents de codage IA \u00ab oublient \u00bb p\u00e9riodiquement une grande partie de ce qu&rsquo;ils font chaque fois que cette compression se produit, mais contrairement aux anciens syst\u00e8mes bas\u00e9s sur LLM, ils ne sont pas compl\u00e8tement d\u00e9sorient\u00e9s sur ce qui s&rsquo;est pass\u00e9 et peuvent rapidement se r\u00e9orienter en lisant le code existant, les notes \u00e9crites laiss\u00e9es dans les fichiers, les journaux de modifications, etc.<\/p>\n<p>La documentation d&rsquo;Anthropic recommande d&rsquo;utiliser des fichiers CLAUDE.md pour documenter les commandes bash courantes, les fichiers principaux, les fonctions utilitaires, les directives de style de code et les instructions de test. AGENTS.md, d\u00e9sormais une norme multi-entreprises, est un autre moyen utile de guider les actions des agents entre les actualisations de contexte. Ces fichiers agissent comme des notes externes qui permettent aux agents de suivre les progr\u00e8s \u00e0 travers des t\u00e2ches complexes tout en maintenant un contexte critique qui serait autrement perdu.<\/p>\n<p>Pour les t\u00e2ches n\u00e9cessitant un travail prolong\u00e9, les deux entreprises emploient des architectures multi-agents. Selon la documentation de recherche d&rsquo;Anthropic, son syst\u00e8me utilise un \u00ab mod\u00e8le orchestrateur-travailleur \u00bb dans lequel un agent principal coordonne le processus tout en d\u00e9l\u00e9guant \u00e0 des sous-agents sp\u00e9cialis\u00e9s qui op\u00e8rent en parall\u00e8le. Lorsqu&rsquo;un utilisateur soumet une requ\u00eate, l&rsquo;agent principal l&rsquo;analyse, d\u00e9veloppe une strat\u00e9gie et g\u00e9n\u00e8re des sous-agents pour explorer diff\u00e9rents aspects simultan\u00e9ment. Les sous-agents agissent comme des filtres intelligents, ne retournant que les informations pertinentes plut\u00f4t que leur contexte complet \u00e0 l&rsquo;agent principal.<\/p>\n<p>L&rsquo;approche multi-agents br\u00fble les jetons rapidement. La documentation d&rsquo;Anthropic note que les agents utilisent g\u00e9n\u00e9ralement environ quatre fois plus de jetons que les interactions de chatbot, et les syst\u00e8mes multi-agents utilisent environ 15 fois plus de jetons que les chats. Pour la viabilit\u00e9 \u00e9conomique, ces syst\u00e8mes n\u00e9cessitent des t\u00e2ches o\u00f9 la valeur est suffisamment \u00e9lev\u00e9e pour justifier le co\u00fbt accru.<\/p>\n<p>Meilleures pratiques pour les humains<\/p>\n<p>Bien que l&rsquo;utilisation de ces agents soit controvers\u00e9e dans certains cercles de programmation, si vous en utilisez un pour coder un projet, conna\u00eetre de bonnes pratiques de d\u00e9veloppement logiciel aide \u00e0 \u00e9viter des probl\u00e8mes futurs. Par exemple, il est bon de conna\u00eetre le contr\u00f4le de version, de faire des sauvegardes progressives, de mettre en \u0153uvre une fonctionnalit\u00e9 \u00e0 la fois et de la tester avant de passer \u00e0 autre chose.<\/p>\n<p>Ce que les gens appellent le \u00ab codage d&rsquo;ambiance \u00bb &#8211; cr\u00e9er du code g\u00e9n\u00e9r\u00e9 par IA sans comprendre ce qu&rsquo;il fait &#8211; est clairement dangereux pour le travail en production. Exp\u00e9dier du code que vous n&rsquo;avez pas \u00e9crit vous-m\u00eame dans un environnement de production est risqu\u00e9 car il pourrait introduire des probl\u00e8mes de s\u00e9curit\u00e9 ou d&rsquo;autres bugs ou commencer \u00e0 accumuler une dette technique qui pourrait faire boule de neige avec le temps.<\/p>\n<p>Le chercheur ind\u00e9pendant en IA Simon Willison a r\u00e9cemment soutenu que les d\u00e9veloppeurs utilisant des agents de codage portent toujours la responsabilit\u00e9 de prouver que leur code fonctionne. \u00ab Presque n&rsquo;importe qui peut demander \u00e0 un LLM de g\u00e9n\u00e9rer un correctif de mille lignes et le soumettre pour r\u00e9vision de code \u00bb, a \u00e9crit Willison. \u00ab Ce n&rsquo;est plus pr\u00e9cieux. Ce qui est pr\u00e9cieux, c&rsquo;est de contribuer du code dont le fonctionnement est prouv\u00e9. \u00bb<\/p>\n<p>En fait, la planification humaine est essentielle. La documentation des meilleures pratiques de Claude Code recommande un flux de travail sp\u00e9cifique pour les probl\u00e8mes complexes : d&rsquo;abord, demandez \u00e0 l&rsquo;agent de lire les fichiers pertinents et dites-lui explicitement de ne pas encore \u00e9crire de code, puis demandez-lui de faire un plan. Sans ces \u00e9tapes de recherche et de planification, la documentation avertit que les sorties de Claude ont tendance \u00e0 sauter directement au codage d&rsquo;une solution.<\/p>\n<p>Sans planification, les LLM atteignent parfois des solutions rapides pour satisfaire un objectif momentan\u00e9 qui pourrait se casser plus tard si un projet \u00e9tait \u00e9tendu. Donc avoir une id\u00e9e de ce qui fait une bonne architecture pour un programme modulaire qui peut \u00eatre \u00e9tendu au fil du temps peut vous aider \u00e0 guider le LLM pour cr\u00e9er quelque chose de plus durable.<\/p>\n<p>Comme mentionn\u00e9 ci-dessus, ces agents ne sont pas parfaits, et certaines personnes pr\u00e9f\u00e8rent ne pas les utiliser du tout. Un essai contr\u00f4l\u00e9 randomis\u00e9 publi\u00e9 par l&rsquo;organisation de recherche \u00e0 but non lucratif METR en juillet 2025 a constat\u00e9 que les d\u00e9veloppeurs open source exp\u00e9riment\u00e9s prenaient en fait 19 pour cent plus de temps pour accomplir des t\u00e2ches lors de l&rsquo;utilisation d&rsquo;outils d&rsquo;IA, malgr\u00e9 le fait qu&rsquo;ils croyaient travailler plus rapidement. Les auteurs de l&rsquo;\u00e9tude notent plusieurs mises en garde : les d\u00e9veloppeurs \u00e9taient tr\u00e8s exp\u00e9riment\u00e9s avec leurs bases de code (en moyenne cinq ans et 1 500 commits), les d\u00e9p\u00f4ts \u00e9taient grands et matures, et les mod\u00e8les utilis\u00e9s (principalement Claude 3.5 et 3.7 Sonnet via Cursor) ont depuis \u00e9t\u00e9 remplac\u00e9s par des versions plus performantes.<\/p>\n<p>La question de savoir si les mod\u00e8les plus r\u00e9cents produiraient des r\u00e9sultats diff\u00e9rents reste ouverte, mais l&rsquo;\u00e9tude sugg\u00e8re que les outils de codage IA ne fournissent pas toujours des acc\u00e9l\u00e9rations universelles, en particulier pour les d\u00e9veloppeurs qui connaissent d\u00e9j\u00e0 bien leurs bases de code.<\/p>\n<p>Compte tenu de ces dangers potentiels, le codage de d\u00e9monstrations de preuve de concept et d&rsquo;outils internes est probablement l&rsquo;utilisation id\u00e9ale des agents de codage en ce moment. \u00c9tant donn\u00e9 que les mod\u00e8les d&rsquo;IA n&rsquo;ont aucune agence r\u00e9elle (malgr\u00e9 le fait d&rsquo;\u00eatre appel\u00e9s agents) et ne sont pas des personnes qui peuvent \u00eatre tenues responsables des erreurs, la supervision humaine est essentielle.<\/p>\n<p>Benj Edwards<br \/>\nReporter Senior IA<\/p>\n<p>Benj Edwards est le reporter senior IA d&rsquo;Ars Technica et fondateur de la couverture d\u00e9di\u00e9e \u00e0 l&rsquo;IA du site en 2022. Il est \u00e9galement historien de la technologie avec pr\u00e8s de deux d\u00e9cennies d&rsquo;exp\u00e9rience. Pendant son temps libre, il \u00e9crit et enregistre de la musique, collectionne des ordinateurs vintage et aime la nature. Il vit \u00e0 Raleigh, NC.<\/p>\n<p>7 <\/p>\n<p>Vue du forum<\/p>\n<p>Chargement des commentaires&#8230;<\/p>\n<p>Article pr\u00e9c\u00e9dent<\/p>\n<p>Article suivant<\/p>\n<p>1. \u00ab Yo quoi ? \u00bb LimeWire r\u00e9appara\u00eet dans la ru\u00e9e en ligne pour partager un segment de \u00ab 60 Minutes \u00bb retir\u00e9<\/p>\n<p>2. Un comit\u00e9 de s\u00e9curit\u00e9 dit que la NASA aurait d\u00fb prendre l&rsquo;incident de Starliner plus au s\u00e9rieux<\/p>\n<p>3. Les nouveaux moteurs de F1 causent de la consternation concernant les taux de compression<\/p>\n<p>4. La plus grande biblioth\u00e8que pirate du monde a fait une copie de 300To des chansons les plus \u00e9cout\u00e9es de Spotify<\/p>\n<p>5. L&rsquo;interdiction d&rsquo;importation de la FCC sur les meilleurs nouveaux drones commence aujourd&rsquo;hui<\/p>\n<p>Personnaliser<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Comment fonctionnent les agents de codage IA &#8211; et ce qu&rsquo;il faut retenir si vous les utilisez Aller au contenu Texte de l&rsquo;article R\u00e9serv\u00e9 aux abonn\u00e9s En savoir plus R\u00e9duire \u00e0 la navigation Les agents de codage IA d&rsquo;OpenAI, Anthropic et Google peuvent d\u00e9sormais travailler sur des projets logiciels pendant des heures d&rsquo;affil\u00e9e, \u00e9crivant des<\/p>\n","protected":false},"author":3,"featured_media":17,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-16","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/posts\/16","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/comments?post=16"}],"version-history":[{"count":0,"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/posts\/16\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/media\/17"}],"wp:attachment":[{"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/media?parent=16"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/categories?post=16"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.blog-actu.com\/index.php\/wp-json\/wp\/v2\/tags?post=16"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}