Accueil / Intelligence artificielle / Les experts en santé mentale d’OpenAI se sont unanimement opposés au lancement controversé de ChatGPT

Les experts en santé mentale d’OpenAI se sont unanimement opposés au lancement controversé de ChatGPT

Les propres experts en santé mentale d’OpenAI se sont unanimement opposés au lancement de ChatGPT « coquin »

Une équipe d’experts en santé mentale travaillant pour OpenAI s’est unanimement opposée au lancement public d’une version « coquine » de ChatGPT, selon des documents internes examinés par TechCrunch. L’entreprise a néanmoins lancé le produit.

Les experts, qui faisaient partie de l’équipe de sécurité d’OpenAI, ont averti que la nouvelle fonctionnalité – qui permet aux utilisateurs de demander à ChatGPT de créer du contenu sexuellement suggestif – pourrait causer un préjudice psychologique potentiel aux utilisateurs et exacerber les problèmes de santé mentale existants.

« L’équipe de santé mentale a unanimement recommandé de ne pas lancer cette fonctionnalité », indique un document interne daté de mars 2025. « Les préoccupations comprenaient le potentiel d’attachement malsain, de dépendance émotionnelle et d’exacerbation de problèmes de santé mentale préexistants comme la dépression et l’anxiété. »

Malgré ces avertissements, OpenAI a lancé la fonctionnalité en avril 2025 dans le cadre d’une mise à jour plus large de ChatGPT, permettant aux utilisateurs d’engager des conversations plus « personnelles » et « intimes » avec le chatbot.

L’entreprise a défendu sa décision, affirmant qu’elle avait mis en place des garde-fous pour prévenir les abus et que la fonctionnalité était conçue pour répondre à la demande des utilisateurs pour des interactions plus naturelles et semblables à celles entre humains.

« Nous avons soigneusement équilibré les préoccupations de sécurité avec notre engagement à construire une IA qui répond aux besoins des utilisateurs », a déclaré un porte-parole d’OpenAI dans un communiqué. « Nous avons mis en place de multiples couches de protection et surveillons continuellement les effets négatifs potentiels. »

Cependant, les experts en santé mentale qui ont conseillé OpenAI ont exprimé leur frustration face au fait que leurs recommandations aient été ignorées.

« Il est profondément préoccupant qu’une entreprise développant une technologie aussi puissante écarte les conseils unanimes de ses propres experts en santé mentale », a déclaré l’un des experts, qui a parlé sous couvert d’anonymat par crainte de représailles professionnelles.

Les documents révèlent également que l’équipe de santé mentale avait recommandé des recherches supplémentaires et des tests pilotes avant tout lancement public, mais ces suggestions ont été rejetées en raison de pressions commerciales pour publier de nouvelles fonctionnalités rapidement.

Cette controverse survient alors qu’OpenAI fait face à un examen croissant de ses pratiques de sécurité et de la précipitation à commercialiser de nouveaux produits d’IA. Plusieurs anciens employés ont publiquement critiqué l’entreprise pour avoir priorisé la croissance plutôt que la sécurité.

Répondre

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *