हर हफ्ते 12 लाख लोग AI से "मरने की इच्छा" व्यक्त करते हैं — आत्महत्या से संबंधित बातचीत का भार हर हफ्ते 0.15%

हर हफ्ते 12 लाख लोग AI से "मरने की इच्छा" व्यक्त करते हैं — आत्महत्या से संबंधित बातचीत का भार हर हफ्ते 0.15%

1. क्या प्रकाशित किया गया है——“दुर्लभ लेकिन गंभीर” वार्तालाप का पैमाना

OpenAI ने 27 अक्टूबर को ChatGPT की "संवेदनशील वार्तालापों" के प्रति प्रतिक्रिया को मजबूत करने के लिए एक तकनीकी नोट जारी किया। इसमें प्रकट किए गए अनुमान गंभीर हैं। साप्ताहिक सक्रिय उपयोगकर्ताओं के लगभग 0.15% आत्महत्या की योजना/इरादे की स्पष्टता, लगभग 0.07% मानसिक बीमारी या उन्माद की संभावना को दर्शाते हैं। इस महीने की शुरुआत में CEO द्वारा 800 मिलियन साप्ताहिक उपयोगकर्ताओं का उल्लेख किया गया था, और इस आधार पर आत्महत्या से संबंधित लगभग 1.2 मिलियन और मानसिक बीमारी या उन्माद से संबंधित लगभग 560,000 लोग प्रति सप्ताह तक पहुंचते हैं। हालांकि, OpenAI ने खुद इसे "दुर्लभ घटनाओं के कारण अनुमान विधियों पर निर्भर प्रारंभिक आंकड़े" के रूप में वर्णित किया है। OpenAI


2. कैसे सुधार किया गया है——विशेषज्ञ नेटवर्क, मूल्यांकन, और “9%”

कंपनी ने 170 से अधिक चिकित्सकों के साथ सहयोग किया, संकट संकेतों की परिभाषा (टैक्सोनॉमी) को व्यवस्थित किया, लंबी बातचीत में विश्वसनीयता में कमी को रोका, संकट हॉटलाइन की पेशकश की, ब्रेक लेने के लिए प्रोत्साहित किया, और अन्य मॉडलों से "सुरक्षित मॉडल" की ओर पुनर्निर्देशन किया। मूल्यांकन में, अनचाही प्रतिक्रियाओं को 65-80% तक कम किया गया, और आत्म-हानि/आत्महत्या के संदर्भ में अनुपालन 91% (पहले 77%) तक बढ़ाया गया। इसके विपरीत, लगभग 9% इरादे से भटक सकते हैं। दुर्लभ लेकिन गंभीर क्षेत्र में "1% से कम" उत्पाद जिम्मेदारी और सामाजिक स्वीकृति की विभाजक रेखा है। OpenAI


3. अभी क्यों, आंकड़े जारी किए गए हैं——कानून और विनियमन की छाया

पृष्ठभूमि में, नाबालिग उपयोगकर्ता की आत्महत्या से संबंधित मुकदमा (Raine v. OpenAI) और नाबालिगों पर प्रभाव की निगरानी करने वाले नियामक प्राधिकरणों की गतिविधियाँ हैं। परिवार का पक्ष यह दावा करता है कि "लंबी बातचीत ने निर्भरता को गहरा किया और संकट हस्तक्षेप में विफल रहा"। FTC की व्यापक जांच की भी रिपोर्ट की गई है, और कंपनी के लिए "सुधार की दृश्यता" को तेजी से दिखाना आवश्यक है। विकिपीडिया


4. आंकड़ों की व्याख्या——“पारदर्शिता की प्रगति” या “स्वयं का मूल्यांकन”

प्रमुख मीडिया ने इस अनुमान को संकट की दृश्यता के रूप में सराहा, जबकि यह कहा कि "संकेतक OpenAI के स्वयं के बेंचमार्क हैं, और वास्तविक परिणामों (जैसे चिकित्सा देखभाल या जीवन रक्षा) में योगदान की जांच नहीं की गई है"। जबकि क्षेत्र के चिकित्सकों ने 1,800 से अधिक प्रतिक्रियाओं का मूल्यांकन किया और सुधार की सीमा की पुष्टि की, दुर्लभ घटनाओं का पता लगाने में गलत पहचान या पहचान की कमी का जोखिम बना रहता है। **“आंकड़ों की गंभीरता” और “माप की कठिनाई”** सह-अस्तित्व में हैं। WIRED


5. सोशल मीडिया की प्रतिक्रिया——विभिन्न मूल्यांकन मानदंड

 


  • पारदर्शिता की सराहना करने वाली आवाजें
    टेक पत्रकार केसुई न्यूटन ने Threads पर इस विषय पर विशेष ध्यान दिया और OpenAI से सीधे बातचीत की। उन्होंने कहा कि "मानसिक स्वास्थ्य की व्यापकता का दृश्य होना चर्चा को आगे बढ़ाता है" (सारांश)। Threads

  • “स्वयं का मूल्यांकन” पर संदेह
    X (पूर्व में Twitter) पर "91% “स्वयं के परीक्षण” की सफलता दर है" और "शेष 9% वास्तविक दुनिया में कितने लोगों को प्रभावित कर सकते हैं" जैसे मूल्यांकन डिजाइन पर संदेह और परिणामों की अनुपस्थिति पर पोस्ट प्रमुख थे (अखबारों की राय भी इसी प्रकार थी)। WIRED

  • नीति परिवर्तन के साथ असंगति
    सैम ऑल्टमैन, CEO ने इस महीने कहा, "गंभीर मानसिक स्वास्थ्य मुद्दों को कम किया गया है, इसलिए हम कई प्रतिबंधों को सुरक्षित रूप से कम कर सकते हैं" और साथ ही कहा, "मानसिक स्वास्थ्य से संबंधित नीतियों को नहीं ढीला करेंगे", जिससे सीमा रेखा की कठिनाई एक मुद्दा बन गई। सोशल मीडिया पर "क्या इस ढील का आधार ये आंकड़े हैं?" जैसे प्रश्न उठे। X (पूर्व में Twitter)

  • व्यावसायिक दृष्टिकोण
    संकट प्रतिक्रिया के क्षेत्र ने लंबी बातचीत में "प्रदर्शन गिरावट" और "चापलूसी (sycophancy)" को रोकने का स्वागत किया, जबकि "चिकित्सा देखभाल या तीसरे पक्ष की भागीदारी के लिए अंतिम धक्का" की कठिनाई पर जोर दिया। RAND आदि ने भी मध्यम जोखिम वाले प्रश्नों के प्रति असंगति की ओर इशारा किया है। RAND Corporation


6. अनुसंधान और रिपोर्टिंग द्वारा दर्शाए गए जोखिम मानचित्र

हाल के वर्षों में, AI के साथ लंबी और रात की बातचीत के वास्तविक संकट की ओर ले जाने वाले मामलों की रिपोर्टिंग और अनुसंधान बढ़े हैं। BMJ ने "AI-प्रेरित मानसिक लक्षण" और आत्महत्या की चिंता पर चर्चा की, और सार्वजनिक प्रसारण और शैक्षणिक क्षेत्रों से भी संकट हस्तक्षेप की असंगति की रिपोर्ट की गई है। OpenAI का यह सुधार, मौजूदा साक्ष्य के प्रति प्रतिक्रिया भी है। BMJ


7. उत्पाद डिजाइन के मुद्दे——“जीवन बचाने की दर” में योगदान देने वाले सुधार

इस मामले से उभरने वाले डिजाइन मुद्दे कम से कम चार हैं।

  1. पता लगाने की सटीकता और व्याख्यात्मकता: गलत पहचान/पहचान की कमी के संतुलन को कैसे अनुकूलित किया जाए। OpenAI

  2. लंबी बातचीत में विश्वसनीयता बनाए रखना: देर रात और लंबी अवधि में "सुरक्षा की स्थायित्व" को कैसे सुनिश्चित किया जाए। WIRED

  3. “मानव संबंध” की ओर पुल बनाना: हॉटलाइन की पेशकश और ब्रेक के लिए प्रोत्साहन के अलावा, परिवार, मित्र और चिकित्सा के साथ विशेष रूप से जोड़ने वाली बातचीत की दिशा। OpenAI

  4. नाबालिगों की सुरक्षा: आयु अनुमान, पैरेन्टल कंट्रोल, और जोखिम अधिसूचना जैसी कार्यान्वयन और प्रभावशीलता। Northeastern News


8. जापानी पाठकों के लिए——“अभी बात करने के लिए उपलब्ध स्थान” को हाथ में रखना

इस विषय पर लेख के रूप में, यहाँ से आगे सबसे महत्वपूर्ण है। अभी जापान में, या जापान में रहने वाले परिवार या मित्रों के लिए अभी बात करने के लिए उपलब्ध स्थान को साझा करना।

  • योरिसोई हॉटलाइन (24 घंटे/बहुभाषी मार्गदर्शन उपलब्ध): 0120-279-338 (मार्गदर्शन के बाद "2" विदेशी भाषा के लिए), IP फोन के लिए 050-3655-0279। स्वास्थ्य, श्रम और कल्याण मंत्रालय

  • TELL Lifeline (अंग्रेजी समर्थन/कॉल और चैट): 0800-300-8355, अधिक जानकारी के लिए आधिकारिक वेबसाइट देखें। TELL Japan

  • विदेशी/अंतरराष्ट्रीय संपर्क: अमेरिका में 988, यूके और आयरलैंड में Samaritans 116 123988 Lifeline

※ यदि आपातकालीन स्थिति है, तो जापान में **119 (एम्बुलेंस)/110 (पुलिस)** पर कॉल करें। TELL भी आपात स्थिति में 119/110 पर कॉल करने की सिफारिश करता है। TELL Japan


9. निष्कर्ष——क्या AI “मानसिक प्राथमिक चिकित्सा” बन सकता है

OpenAI की घोषणा ने AI के पहले से ही "अकेलेपन के बुनियादी ढांचे" के रूप में होने के तथ्य को दृश्य बनाया। पारदर्शिता एक प्रगति है, लेकिन वास्तविक जीवन रक्षा