Accueil / Intelligence artificielle / Qu’est-ce qui ne va pas avec nos maîtres de l’intelligence artificielle ?

Qu’est-ce qui ne va pas avec nos maîtres de l’intelligence artificielle ?

Qu’est-ce qui ne va pas chez nos maîtres de l’IA ?

Ces dernières semaines ont été marquées par une série d’incidents troublants impliquant de grandes entreprises technologiques et leurs systèmes d’intelligence artificielle. Des chatbots qui refusent de répondre à des questions simples aux assistants IA qui adoptent des positions politiques non sollicitées, quelque chose semble avoir mal tourné.

Le problème le plus flagrant est peut-être venu de ChatGPT d’OpenAI, qui a récemment refusé de répondre à des questions sur certaines personnalités politiques tout en répondant librement à des questions sur d’autres. Lorsqu’on l’interroge sur des politiciens progressistes, le chatbot fournit des réponses détaillées. Mais posez des questions sur des personnalités conservatrices, et il invoque soudainement des préoccupations concernant le contenu politique.

Ce n’est pas un cas isolé. L’assistant IA de Google, Gemini, a été pris en train de donner des réponses étonnamment partisanes à des questions apparemment neutres. Lorsqu’on lui a demandé d’évaluer différents dirigeants mondiaux, le système a montré des schémas clairs de favoritisme basés sur l’orientation politique.

Meta a également été confronté à des réactions négatives concernant son IA sur Instagram et Facebook. Les utilisateurs ont signalé que l’assistant faisait des déclarations politiques non sollicitées et refusait de s’engager avec certains sujets tout en discutant librement d’autres.

Que se passe-t-il ici ? Ces entreprises prétendent que leurs systèmes IA sont neutres et objectifs, conçus pour servir tous les utilisateurs de manière égale. Mais les preuves suggèrent autre chose.

Une explication est que ces systèmes reflètent les biais de leurs créateurs. Les entreprises technologiques de la Silicon Valley penchent notoirement vers la gauche politiquement, et leurs employés apportent inévitablement leurs perspectives au travail. Lorsque ces personnes forment des modèles IA et fixent des politiques de contenu, leurs préjugés peuvent s’infiltrer dans les systèmes.

Un autre facteur est la sur-correction. Après des années de critiques concernant la désinformation et les discours de haine, les entreprises technologiques sont devenues extrêmement prudentes. Elles mettent en place des garde-fous qui finissent parfois par être trop agressifs, bloquant un contenu légitime tout en laissant passer un contenu similaire en fonction de qui ou de quoi il s’agit.

Il y a aussi la question de la transparence. Ces entreprises sont notoirement secrètes sur le fonctionnement de leurs systèmes IA. Nous ne savons pas quelles données de formation ont été utilisées, quelles règles ont été programmées ou qui prend des décisions sur ce qui est autorisé et ce qui ne l’est pas.

Le problème s’aggrave à mesure que l’IA devient plus intégrée dans notre vie quotidienne. Ces systèmes ne sont plus seulement des curiosités amusantes, ce sont des outils que les gens utilisent pour la recherche, l’éducation et l’information. Lorsqu’ils fournissent des informations biaisées ou refusent de s’engager avec certains sujets, cela affecte la façon dont les gens comprennent le monde.

Les entreprises technologiques doivent reconnaître qu’elles ont un problème. Prétendre que leurs systèmes sont neutres alors que les preuves montrent qu’ils ne le sont pas érode la confiance. Les gens ne sont pas stupides, ils peuvent voir quand un système traite différents sujets différemment en fonction de la politique.

La solution nécessite plusieurs étapes. Premièrement, plus de transparence sur la façon dont ces systèmes sont formés et les règles qu’ils suivent. Deuxièmement, une plus grande diversité dans les équipes qui construisent et supervisent l’IA. Troisièmement, des tests et des audits indépendants pour identifier les biais.

Plus important encore, les entreprises technologiques doivent décider si elles veulent que leurs systèmes IA soient de véritables assistants neutres ou s’ils vont promouvoir des points de vue particuliers. Les deux approches peuvent être défendables, mais l’actuelle position d’être neutre tout en montrant clairement des biais n’est pas tenable.

Le public mérite mieux. Nous avons besoin de systèmes IA qui soient soit véritablement neutres, soit honnêtes sur leurs perspectives. Ce que nous avons actuellement, ce sont des systèmes qui prétendent être une chose tout en étant clairement autre chose.

Jusqu’à ce que les entreprises technologiques résolvent ce problème, le scepticisme à l’égard de l’IA ne fera que croître. Et franchement, ce scepticisme est mérité.

Répondre

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *