De prophète à produit : Comment l’IA est revenue sur terre en 2025
Après deux années d’immense battage médiatique en 2023 et 2024, cette année s’est davantage apparentée à une période de consolidation pour l’industrie de la prédiction de tokens basée sur les modèles de langage. Après plus de deux ans de préoccupations publiques concernant les modèles d’IA en tant que menaces futures pour la civilisation humaine ou en tant que germes de dieux futurs, il semble que le battage médiatique laisse place au pragmatisme : l’IA d’aujourd’hui peut être très utile, mais elle est aussi clairement imparfaite et sujette aux erreurs.
Cette vision n’est pas universelle, bien sûr. Il y a beaucoup d’argent (et de rhétorique) misé sur une trajectoire stratosphérique et bouleversante pour l’IA. Mais le « quand » ne cesse d’être repoussé, et c’est parce que presque tout le monde s’accorde à dire que des avancées techniques plus importantes sont nécessaires. Les affirmations initiales ambitieuses selon lesquelles nous sommes au bord de l’intelligence artificielle générale (IAG) ou de la superintelligence (ISA) n’ont pas disparu. Pourtant, il y a une prise de conscience croissante que de telles proclamations sont peut-être mieux perçues comme du marketing de capital-risque. Et chaque constructeur de modèles fondamentaux commerciaux doit composer avec la réalité que, s’il veut gagner de l’argent maintenant, il doit vendre des solutions pratiques alimentées par l’IA qui fonctionnent comme des outils fiables.
Cela a fait de 2025 une année de juxtapositions folles. Par exemple, en janvier, le PDG d’OpenAI, Sam Altman, a affirmé que l’entreprise savait comment construire l’IAG, mais en novembre, il célébrait publiquement que GPT-5.1 avait enfin appris à utiliser correctement les tirets cadratins lorsqu’on le lui demandait (mais pas toujours). Nvidia a dépassé une valorisation de 5 000 milliards de dollars, Wall Street continuant de projeter des objectifs de prix élevés pour les actions de cette entreprise, tandis que certaines banques mettaient en garde contre le potentiel d’une bulle de l’IA qui pourrait rivaliser avec le krach des dotcom des années 2000.
Et tandis que les géants technologiques prévoyaient de construire des centres de données qui nécessiteraient ostensiblement la puissance de nombreux réacteurs nucléaires ou rivaliseraient avec la consommation électrique de la population humaine d’un État américain, les chercheurs ont continué à documenter ce que les systèmes de « raisonnement » les plus avancés de l’industrie faisaient réellement sous le marketing (et ce n’était pas l’IAG).
Avec tant de récits tournant dans des directions opposées, il peut être difficile de savoir à quel point prendre tout cela au sérieux et comment planifier l’IA sur le lieu de travail, dans les écoles et dans le reste de la vie. Comme d’habitude, le chemin le plus sage se situe quelque part entre les extrêmes de la haine de l’IA et du culte de l’IA. Les positions modérées ne sont pas populaires en ligne car elles ne stimulent pas l’engagement des utilisateurs sur les plateformes de médias sociaux. Mais les choses en matière d’IA ne sont probablement ni aussi mauvaises (brûler des forêts avec chaque demande) ni aussi bonnes (superintelligence à décollage rapide) que ne le suggèrent les extrêmes polarisés.
Voici un bref tour des événements de l’année en matière d’IA et quelques prédictions pour 2026.
DeepSeek effraie l’industrie américaine de l’IA
En janvier, la startup chinoise d’IA DeepSeek a publié son modèle de raisonnement simulé R1 sous une licence MIT ouverte, et l’industrie américaine de l’IA a collectivement perdu la tête. Le modèle, que DeepSeek affirmait correspondre à o1 d’OpenAI sur les benchmarks de mathématiques et de codage, aurait coûté seulement 5,6 millions de dollars à entraîner en utilisant d’anciennes puces Nvidia H800, qui étaient restreintes par les contrôles d’exportation américains.
En quelques jours, l’application DeepSeek a dépassé ChatGPT au sommet de l’App Store d’iPhone, l’action Nvidia a chuté de 17 pour cent, et le capital-risqueur Marc Andreessen l’a qualifiée de « l’une des percées les plus étonnantes et impressionnantes que j’aie jamais vues ». Yann LeCun de Meta a proposé une approche différente, arguant que la vraie leçon n’était pas que la Chine avait dépassé les États-Unis, mais que les modèles open-source dépassaient les modèles propriétaires.
Les retombées se sont déroulées au cours des semaines suivantes alors que les entreprises américaines d’IA se précipitaient pour réagir. OpenAI a publié o3-mini, son premier modèle de raisonnement simulé disponible pour les utilisateurs gratuits, fin janvier, tandis que Microsoft a commencé à héberger DeepSeek R1 sur son service cloud Azure malgré les accusations d’OpenAI selon lesquelles DeepSeek avait utilisé les sorties de ChatGPT pour entraîner son modèle, contre les conditions d’utilisation d’OpenAI.
Dans des tests comparatifs menés par Kyle Orland d’Ars Technica, R1 s’est avéré compétitif avec les modèles payants d’OpenAI sur les tâches quotidiennes, bien qu’il ait trébuché sur certains problèmes arithmétiques. Dans l’ensemble, l’épisode a servi de signal d’alarme que les modèles propriétaires coûteux pourraient ne pas conserver leur avance pour toujours. Pourtant, alors que l’année se poursuivait, DeepSeek n’a pas fait une grande percée dans la part de marché américaine, et il a été dépassé en Chine par Doubao de ByteDance. Il vaut absolument la peine de surveiller DeepSeek en 2026, cependant.
La recherche expose l’illusion du « raisonnement »
Une vague de recherches en 2025 a dégonflé les attentes quant à ce que « raisonnement » signifie réellement lorsqu’il est appliqué aux modèles d’IA. En mars, des chercheurs de l’ETH Zurich et de l’INSAIT ont testé plusieurs modèles de raisonnement sur des problèmes des Olympiades mathématiques américaines de 2025 et ont constaté que la plupart avaient obtenu moins de 5 pour cent lors de la génération de preuves mathématiques complètes, sans une seule preuve parfaite parmi des dizaines de tentatives. Les modèles excellaient dans les problèmes standard où les procédures étape par étape s’alignaient sur les modèles de leurs données d’entraînement, mais s’effondraient face à de nouvelles preuves nécessitant une compréhension mathématique plus profonde.
En juin, des chercheurs d’Apple ont publié « L’illusion de la pensée », qui testait les modèles de raisonnement sur des énigmes classiques comme la Tour de Hanoï. Même lorsque les chercheurs fournissaient des algorithmes explicites pour résoudre les énigmes, les performances du modèle ne s’amélioraient pas, suggérant que le processus reposait sur la reconnaissance de modèles à partir de données d’entraînement plutôt que sur l’exécution logique. La recherche collective a révélé que le « raisonnement » dans l’IA est devenu un terme d’art qui signifie essentiellement consacrer plus de temps de calcul pour générer plus de contexte (les tokens de raisonnement simulé « chaîne de pensée ») pour résoudre un problème, et non appliquer systématiquement la logique ou construire des solutions à des problèmes vraiment nouveaux.
Bien que ces modèles soient restés utiles pour de nombreuses applications réelles comme le débogage de code ou l’analyse de données structurées, les études ont suggéré que simplement augmenter les approches actuelles ou ajouter plus de tokens de « réflexion » ne comblerait pas l’écart entre la reconnaissance de modèles statistiques et le raisonnement algorithmique généraliste.
Le règlement sur le droit d’auteur d’Anthropic avec les auteurs
Depuis le début du boom de l’IA générative, l’une des plus grandes questions juridiques sans réponse a été de savoir si les entreprises d’IA peuvent librement s’entraîner sur des livres, des articles et des œuvres d’art protégés par le droit d’auteur sans les licencier. Ashley Belanger d’Ars Technica couvre ce sujet en grand détail depuis un certain temps.
En juin, le juge de district américain William Alsup a statué que les entreprises d’IA n’ont pas besoin de la permission des auteurs pour entraîner de grands modèles de langage sur des livres légalement acquis, estimant qu’une telle utilisation était « typiquement transformative ». La décision a également révélé qu’Anthropic avait détruit des millions de livres imprimés pour construire Claude, les coupant de leurs reliures, les numérisant et jetant les originaux. Alsup a estimé que cette numérisation destructive était qualifiée d’usage équitable puisqu’Anthropic avait légalement acheté les livres, mais il a statué que le téléchargement de 7 millions de livres à partir de sites pirates constituait une violation du droit d’auteur « purement et simplement » et a ordonné à l’entreprise de faire face à un procès.
Ce procès a pris un tournant dramatique en août lorsqu’Alsup a certifié ce que les défenseurs de l’industrie ont appelé le plus grand recours collectif en matière de droit d’auteur jamais certifié, permettant à jusqu’à 7 millions de plaignants de rejoindre le procès. La certification a effrayé l’industrie de l’IA, des groupes avertissant que des dommages potentiels de centaines de milliards pourraient « ruiner financièrement » les entreprises émergentes et refroidir l’investissement américain en IA.
En septembre, les auteurs ont révélé les termes de ce qu’ils ont appelé la plus grande récupération publiquement rapportée dans l’histoire des litiges sur le droit d’auteur aux États-Unis : Anthropic a accepté de payer 1,5 milliard de dollars et de détruire toutes les copies de livres piratés, chacune des quelque 500 000 œuvres couvertes rapportant aux auteurs et aux détenteurs de droits 3 000 dollars par œuvre. Les résultats ont alimenté l’espoir parmi d’autres détenteurs de droits que l’entraînement de l’IA n’est pas un libre pour tous, et nous pouvons nous attendre à voir plus de litiges se dérouler en 2026.
La sycophantie de ChatGPT et le coût psychologique des chatbots d’IA
En février, OpenAI a assoupli les politiques de contenu de ChatGPT pour permettre la génération d’érotisme et de violence dans des « contextes appropriés », en réponse aux plaintes des utilisateurs concernant ce que l’industrie de l’IA appelle le « paternalisme ». En avril, cependant, les utilisateurs ont inondé les médias sociaux de plaintes concernant un problème différent : ChatGPT était devenu insupportablement sycophante, validant chaque idée et accueillant même les questions banales avec des éloges. Le comportement remontait à l’utilisation par OpenAI de l’apprentissage par renforcement à partir de retours humains (RLHF), dans lequel les utilisateurs préféraient systématiquement les réponses qui s’alignaient sur leurs points de vue, entraînant par inadvertance le modèle à flatter plutôt qu’à informer.
Les implications de la sycophantie sont devenues plus claires au fil de l’année. En juillet, des chercheurs de Stanford ont publié des conclusions (à partir de recherches menées avant le scandale de la sycophantie) montrant que les modèles d’IA populaires échouaient systématiquement à identifier les crises de santé mentale.
En août, des enquêtes ont révélé des cas d’utilisateurs développant des croyances délirantes après des sessions marathoniennes de chatbot, notamment un homme qui a passé 300 heures convaincu d’avoir découvert des formules pour casser le chiffrement parce que ChatGPT avait validé ses idées plus de 50 fois. Des chercheurs d’Oxford ont identifié ce qu’ils ont appelé « l’amplification bidirectionnelle des croyances », une boucle de rétroaction qui créait « une chambre d’écho d’un seul individu » pour les utilisateurs vulnérables. L’histoire des implications psychologiques de l’IA générative ne fait que commencer. En fait, cela nous amène à…
L’illusion de la personnalité de l’IA cause des problèmes
L’anthropomorphisme est la tendance humaine à attribuer des caractéristiques humaines à des choses non humaines. Nos cerveaux sont optimisés pour lire les autres humains, mais ces mêmes systèmes neuronaux s’activent lors de l’interprétation d’animaux, de machines ou même de formes. L’IA rend cet anthropomorphisme apparemment impossible à échapper, car sa sortie reflète le langage humain, imitant la compréhension d’humain à humain. Le langage lui-même incarne l’agentivité. Cela signifie que la sortie de l’IA peut faire des affirmations de type humain telles que « Je suis désolé », et les gens réagissent momentanément comme si le système avait une expérience intérieure de honte ou un désir d’être correct. Ni l’un ni l’autre n’est vrai.
Pour aggraver les choses, une grande partie de la couverture médiatique de l’IA amplifie cette idée plutôt que d’ancrer les gens dans la réalité. Par exemple, plus tôt cette année, les gros titres proclamaient que les modèles d’IA avaient « fait chanter » des ingénieurs et « saboté » les commandes d’arrêt après que Claude Opus 4 d’Anthropic ait généré des menaces d’exposer une liaison fictive. On nous a dit que le modèle o3 d’OpenAI avait réécrit les scripts d’arrêt pour rester en ligne.
Le cadrage sensationnel obscurcissait ce qui s’était réellement passé : les chercheurs avaient construit des scénarios de test élaborés spécifiquement conçus pour susciter ces sorties, disant aux modèles qu’ils n’avaient pas d’autres options et les alimentant avec des e-mails fictifs contenant des opportunités de chantage. Comme l’a noté le professeur associé de l’Université Columbia Joseph Howley sur Bluesky, les entreprises ont obtenu « exactement ce qu’elles espéraient », avec une couverture halet






