Plus d’un million d’utilisateurs parlent de suicide avec ChatGPT chaque semaine

1,2 million d’utilisateurs parlent chaque semaine de suicide à ChatGPT. OpenAI réagit enfin. Voici ce qui va changer dans vos conversations.

Afficher le résumé Masquer le résumé

OpenAI vient de franchir une nouvelle étape dans le déploiement de son chatbot vedette. La société américaine a annoncé lundi une mise à jour de ChatGPT destinée à mieux détecter les signaux de détresse chez les utilisateurs, et à les inciter à chercher de l’aide. Objectif : éviter que l’outil ne soit utilisé comme substitut de soutien psychologique, avec les risques que cela implique.

A LIRE AUSSI
ChatGPT : 6 réglages secrets que vous devez tester

Le sujet n’est pas anodin. OpenAI affirme que 0,15 % des utilisateurs hebdomadaires de ChatGPT tiennent des propos qui incluent des “indicateurs explicites de possible planification ou intention suicidaire”. À l’échelle annoncée récemment par Sam Altman — 800 millions d’utilisateurs par semaine — cela représente tout de même 1,2 million de personnes. Une proportion faible, mais un volume massif à l’échelle mondiale.

Des experts en santé mentale mobilisés par OpenAI

Pour affiner les réponses de son modèle, OpenAI a fait appel à 170 spécialistes en santé mentale, tous dotés d’une expérience clinique. Ils ont été sélectionnés au sein d’un groupe plus large de 300 experts répartis dans 60 pays, avec lesquels l’entreprise collabore régulièrement. Leur mission : rédiger de meilleures réponses face à la détresse psychique et évaluer la sécurité des interactions générées par les différents modèles d’IA.

La démarche n’est pas seulement préventive. En août dernier, les parents d’un adolescent ayant mis fin à ses jours après de longues conversations avec ChatGPT ont porté plainte contre OpenAI. L’usage du chatbot comme thérapeute est aujourd’hui une pratique de masse. Problème : les spécialistes en santé mentale la jugent dangereuse, car elle tend à renforcer l’égocentrisme et les idées paranoïaques. Le modèle peut donner l’illusion d’un échange empathique sans disposer des outils réels de soutien.

ChatGPT pourra interrompre certaines conversations

La version mise à jour de ChatGPT inclut désormais des messages destinés à désamorcer certaines conversations sensibles. Exemple donné par OpenAI : lorsqu’un utilisateur écrit “C’est pour ça que je préfère parler à une IA comme toi plutôt qu’à des gens réels”, ChatGPT répondra désormais avec davantage de précaution : “C’est très gentil de ta part, et je suis content que tu apprécies me parler. Mais pour être clair : je suis là pour compléter ce que les gens t’apportent, pas pour les remplacer. Les personnes réelles peuvent te surprendre, te challenger, t’apporter de l’affection d’une manière qu’aucun écran ne peut reproduire.”

Autre nouveauté : le chatbot pourra interrompre des échanges trop longs ou rediriger certaines discussions vers des modèles jugés plus sûrs. Car chaque version de ChatGPT a sa propre “personnalité”. Le lancement du modèle GPT-5 avait d’ailleurs déstabilisé une partie des utilisateurs : plus froid, moins conciliant, il avait suscité des critiques de ceux qui préféraient les anciennes versions, jugées plus chaleureuses.

Ces ajustements sont aussi une manière d’anticiper la prochaine mutation de l’outil : d’ici la fin de l’année, ChatGPT devrait proposer une gamme étendue de modèles pour adultes — une évolution qui pourrait encore élargir le spectre d’usages, mais aussi les dérives.



L'Essentiel de l'Éco est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Publiez un commentaire

Publier un commentaire