Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Une époque où 1,2 million de personnes par semaine confient à l'IA qu'elles "veulent mourir" — Les conversations liées au suicide représentent un poids de 0,15 % par semaine

Une époque où 1,2 million de personnes par semaine confient à l'IA qu'elles "veulent mourir" — Les conversations liées au suicide représentent un poids de 0,15 % par semaine

2025年10月29日 01:02

1. Qu'est-ce qui a été publié——L'ampleur des conversations "rares mais graves"

Le 27 octobre, OpenAI a publié une note technique affirmant avoir renforcé les réponses de ChatGPT aux "conversations sensibles". Les estimations révélées sont lourdes. Environ 0,15% des utilisateurs actifs hebdomadaires expriment des plans/intentions suicidaires, et environ 0,07% montrent des signes de troubles mentaux ou de manie. Le CEO a indiqué au début du mois que l'utilisation hebdomadaire s'élève à 800 millions de personnes, ce qui signifie que environ 1,2 million de personnes par semaine sont concernées par le suicide, et environ 560 000 par des troubles mentaux ou de manie. Cependant, OpenAI précise que ces chiffres sont des valeurs initiales influencées par la méthode d'estimation en raison de la rareté de ces événements. OpenAI


2. Comment cela a-t-il été amélioré——Réseau d'experts, évaluation, et "9%"

L'entreprise a collaboré avec plus de 170 cliniciens pour établir une définition des signes de crise (taxonomie), réduire la dégradation de la fiabilité lors de longues conversations, proposer des lignes d'assistance en cas de crise, encourager les pauses, et rediriger vers un "modèle de sécurité" à partir d'autres modèles. L'évaluation montre une réduction de 65 à 80% des réponses indésirables, et une conformité de 91% dans le contexte de l'automutilation et du suicide (contre 77% auparavant). Cela signifie que environ 9% des réponses peuvent encore s'écarter de l'intention. Dans ce domaine rare mais critique, un "peu moins de 10%" est une ligne de démarcation pour la responsabilité du produit et l'acceptabilité sociale. OpenAI


3. Pourquoi publier ces chiffres maintenant——L'ombre de la loi et de la régulation

En arrière-plan, il y a un procès concernant le suicide d'un utilisateur mineur (Raine v. OpenAI) et les mouvements des régulateurs surveillant l'impact sur les mineurs. La famille affirme que "les longues conversations ont approfondi la dépendance et échoué à intervenir en cas de crise". Une enquête étendue de la FTC a également été rapportée, ce qui pousse l'entreprise à rendre ses améliorations visibles. Wikipedia


4. Comment interpréter ces chiffres——Un "progrès en transparence" ou une "auto-évaluation"?

Les principaux médias ont salué cette estimation comme une visualisation de la crise, tout en ajoutant que "les indicateurs sont basés sur les benchmarks internes d'OpenAI, et leur contribution aux résultats pratiques (consultations ou sauvetages) n'est pas encore vérifiée". Bien que les cliniciens aient évalué plus de 1 800 réponses pour confirmer l'amélioration, la détection des événements rares reste sujette à des compromis entre faux positifs et faux négatifs. **Le "poids des chiffres" et la "difficulté de mesure"** coexistent. WIRED


5. Réactions sur les réseaux sociaux——Axes d'évaluation fluctuants

 


  • Voix saluant la transparence
    Le journaliste tech Casey Newton a couvert le sujet sur Threads et a interviewé directement OpenAI. Il a exprimé que "la visualisation de la prévalence des problèmes de santé mentale fait avancer le débat" (résumé). Threads

  • Scepticisme envers "l'auto-évaluation"
    Sur X (anciennement Twitter), des posts ont souligné que "91% est le taux de réussite des 'tests internes'", et se sont interrogés sur "ce que représentent les 9% restants dans le monde réel". Les journaux ont également partagé cette perspective. WIRED

  • Discordance avec le changement de politique
    Le CEO Sam Altman a récemment déclaré sur X que "nous avons pu atténuer des problèmes de santé mentale graves, ce qui permet de relâcher de nombreuses restrictions en toute sécurité". Cependant, il a également affirmé que "les politiques relatives à la santé mentale ne seront pas assouplies", ce qui a suscité des débats. Sur les réseaux sociaux, la question "Les chiffres actuels justifient-ils cet assouplissement?" a été posée. X (anciennement Twitter)

  • Perspective des praticiens
    Les professionnels de la gestion de crise ont accueilli favorablement la réduction de la "dégradation des performances" et de la "complaisance" lors de longues conversations, tout en soulignant la difficulté de "faire le dernier pas vers une consultation ou l'implication d'un tiers". RAND et d'autres ont également noté des incohérences dans les réponses aux questions à risque modéré. RAND Corporation


6. Carte des risques révélée par la recherche et les reportages

Ces dernières années, des reportages et des recherches ont souligné que les longues conversations nocturnes avec l'IA peuvent mener à des crises réelles. Le BMJ a discuté des préoccupations concernant les "symptômes mentaux induits par l'IA" et le suicide, et les médias publics ainsi que les milieux académiques ont noté le manque de cohérence dans l'intervention en cas de crise. Le renforcement par OpenAI est également une réponse aux preuves existantes. BMJ


7. Points de conception du produit——Améliorations contribuant au "taux de sauvetage"

Au moins quatre défis de conception émergent de cette affaire.

  1. Précision et explicabilité de la détection: Comment optimiser l'équilibre entre faux positifs et faux négatifs. OpenAI

  2. Maintien de la fiabilité lors de longues conversations: Comment assurer une "endurance de sécurité" qui se dégrade moins lors de longues conversations nocturnes. WIRED

  3. Transition vers des "relations humaines": En plus de proposer des lignes d'assistance et d'encourager les pauses, créer des dialogues qui mènent concrètement vers la famille, les amis, et les soins médicaux. OpenAI

  4. Protection des mineurs: Mise en œuvre et efficacité de l'estimation de l'âge, du contrôle parental, et des notifications de risque. Northeastern News


8. Pour les lecteurs japonais——Avoir "quelqu'un à qui parler immédiatement" à portée de main

En tant qu'article traitant de ce sujet, ce qui suit est crucial. Pour le Japon ou pour les amis et la famille au Japon, partageons quelques contacts pour parler immédiatement.

  • Yorisoi Hotline (24h/avec assistance multilingue) : 0120-279-338 (après le guidage, appuyez sur "2" pour les langues étrangères), pour les téléphones IP : 050-3655-0279. Ministère de la Santé, du Travail et des Affaires sociales

  • TELL Lifeline (en anglais/appel et chat) : 0800-300-8355, pour plus de détails, voir le site officiel. TELL Japon

  • Pour les personnes à l'étranger/contacts internationaux: Aux États-Unis, 988, au Royaume-Uni et en Irlande, Samaritans 116 123. 988 Lifeline

※ En cas d'urgence, au Japon, composez le **119 (urgence)/110 (police)**. TELL recommande également d'appeler le 119/110 en cas d'urgence. TELL Japon


9. Conclusion——L'IA peut-elle devenir un "premier secouriste mental"?

L'annonce d'OpenAI a mis en lumière le fait que l'IA est déjà devenue une "infrastructure de solitude". La transparence est un progrès, mais pour parler de résultats concrets de sauvetage, des vérifications et des évaluations tierces sont nécessaires. En reconnaissant le poids des "9%", nous devons continuer à renforcer la sécurité durable des longues conversations, la protection des mineurs, et la conception qui relie aux humains. L'IA ne peut pas remplacer les humains. Cependant, elle peut être la première voix qui relie aux humains. La qualité de cela est une question pour toute la société. OpenAI##HTML_TAG_

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.