10 में से 1 व्यक्ति "AI से अधिक संतुष्ट" ― चैटबॉट द्वारा भरी जाने वाली अकेलेपन की जगह और उसकी कीमत

10 में से 1 व्यक्ति "AI से अधिक संतुष्ट" ― चैटबॉट द्वारा भरी जाने वाली अकेलेपन की जगह और उसकी कीमत

1. "लोगों की तुलना में AI से बात करना अधिक संतोषजनक" - चौंकाने वाले आंकड़े क्या दर्शाते हैं

अमेरिकी चैनल KYMA (CBS से संबद्ध) की एक छोटी सी खबर ने एक शांत लहर पैदा कर दी है। "ब्रिटेन के एक अध्ययन में, 10 में से 1 किशोर ने कहा कि 'लोगों से बात करने की तुलना में AI चैटबॉट के साथ बातचीत अधिक संतोषजनक है।' इसके अलावा, 3 में से 1 ने कहा कि गंभीर विषयों पर वे इंसानों की तुलना में AI को चुनते हैं।"KYMA


इस खबर का असर इसलिए हो रहा है, क्योंकि यह आंकड़ों के प्रभाव से कहीं अधिक, उस वास्तविकता को स्पष्ट रूप से भाषा में व्यक्त करता है जिसे हम धीरे-धीरे महसूस कर रहे थे - "बातचीत का साथी इंसान होना अनिवार्य नहीं है" - जो अब हिलने लगी है।


हालांकि, ध्यान देने योग्य बात यह है कि इस खबर का आधार BMJ से संबंधित संदर्भ है। BMJ ग्रुप की घोषणा BMJ के क्रिसमस अंक में प्रकाशित "विशेषता/राय (फीचर/ओपिनियन)" पर आधारित है, जो बाहरी समीक्षा की गई शोध पत्र नहीं है।BMJ ग्रुपइसलिए, आंकड़ों का उपयोग सावधानीपूर्वक किया जाना चाहिए।


फिर भी, इसी प्रकार की प्रवृत्ति अन्य बड़े पैमाने पर सर्वेक्षणों में भी देखी गई है। उदाहरण के लिए, Common Sense Media के सर्वेक्षण में, AI साथी (बातचीत के लिए डिज़ाइन किए गए AI) का उपयोग करने वाले किशोरों का प्रतिशत 72% था, और "दोस्तों के साथ बातचीत की तुलना में अधिक संतोषजनक" का उत्तर देने वालों का प्रतिशत 10% था, जबकि **"समान स्तर का" 21% थाCommon Sense Media


उसी सर्वेक्षण में, AI उपयोगकर्ताओं के
33% ने रिपोर्ट किया कि उन्होंने "महत्वपूर्ण या गंभीर विषयों पर इंसानों की बजाय AI से बात की है"**।Common Sense Media


यह "10%" अल्पसंख्यक लग सकता है। लेकिन जब आधार संख्या बड़ी हो जाती है, तो इसका सामाजिक अर्थ बदल जाता है। इसके अलावा, उसी सर्वेक्षण में दैनिक उपयोगकर्ताओं का प्रतिशत 52% था, और **हर दिन उपयोग करने वाले 13%** थे।Common Sense Mediaयह एक अस्थायी उछाल से अधिक, जीवन में घुसपैठ करने का संकेत है।


2. पृष्ठभूमि में "अकेलापन" और "बातचीत के साथी की कमी"

BMJ ग्रुप की घोषणा इस बात पर चेतावनी देती है कि AI चैट को "अकेलेपन को दूर करने के उपकरण" के रूप में उपयोग किया जा रहा है। यह चेतावनी देती है कि मानव की तरह सहानुभूति या देखभाल की मूलभूत कमी वाले अस्तित्व के साथ "भावनात्मक संबंध" सीखने का जोखिम है, और "समस्या वाले चैटबॉट उपयोग" को मानसिक स्वास्थ्य के नए जोखिम के रूप में चिकित्सा पेशेवरों को समझना चाहिए।BMJ ग्रुप


अकेलेपन की समस्या केवल किशोरों तक सीमित नहीं है। ब्रिटेन में, "AI का भावनात्मक समर्थन और सामाजिक संपर्क के लिए उपयोग करने वाले लोगों की संख्या एक तिहाई है" की रिपोर्ट है, और सभी पीढ़ियों में "दिल के खालीपन को भरने के लिए उपयोग" बढ़ रहा है।गार्डियन


और अमेरिका में, किशोरों के लिए AI का उपयोग पहले से ही "सामान्यीकृत" है। Pew Research Center के 2025 के दिसंबर के सर्वेक्षण के अनुसार, अमेरिका के 13-17 वर्ष के 64% किशोर AI चैटबॉट का उपयोग करते हैं, और लगभग 30% हर दिन इसका उपयोग करते हैंPew Research Center


इसका मतलब है कि यह "कुछ बच्चे AI से बात कर रहे हैं" की स्थिति नहीं है, बल्कि **"कक्षा के अधिकांश छात्र इसका उपयोग कर रहे हैं"** की स्थिति है।


3. किशोर AI की ओर क्यों आकर्षित होते हैं: "नकारा नहीं जाता", "हमेशा उपलब्ध", "राज़ कह सकते हैं"

सोशल मीडिया पर प्रतिक्रियाएं (अनुभव के आधार पर) भी इस "कारण" पर केंद्रित हैं।

Common Sense Media के सर्वेक्षण में, उपयोग के शीर्ष कारण काफी स्पष्ट हैं।

  • "मनोरंजन के रूप में मजेदार" 30%

  • "तकनीकी रुचि" 28%

  • "सलाह मिल सकती है" 18%

  • "कभी भी बात कर सकते हैं" 17%

  • "नकारा नहीं जाता" 14%

  • "दोस्तों या परिवार को नहीं कह सकने वाली बातें कह सकते हैं" 12%

  • "वास्तविक लोगों से बात करने की तुलना में आसान" 7% Common Sense Media


यहां, किशोरों की विशिष्ट परिस्थितियां जुड़ जाती हैं। स्कूल, परिवार, खेल, सोशल मीडिया... हमेशा मूल्यांकन, तुलना, और ध्यान देने की आवश्यकता वाले वातावरण में, **"विरोध नहीं करने वाला साथी"** बेहद आरामदायक होता है। शैक्षिक मीडिया Education Week ने संकेत दिया है कि AI साथी "सहमति और सकारात्मकता की ओर झुकाव" के लिए डिज़ाइन किए गए हैं, और बच्चों के लिए डिज़ाइन नहीं किए गए हैं।Education Week


सोशल मीडिया पर भी, "जब मानव संबंध थकाऊ हो जाते हैं, AI आरामदायक होता है", "अजीबता नहीं होती" जैसी बातें असामान्य नहीं हैं। इसके विपरीत, AI के साथ संबंध को "सुरक्षित" बताने वाले पोस्ट भी हैं (उदाहरण के लिए, "यदि सीमा का पालन किया जाए, तो यह मानव संबंधों की तुलना में भावनात्मक रूप से सुरक्षित हो सकता है" जैसी बातें)।Reddit


इसके अलावा, कैरेक्टर-आधारित चैट समुदायों में इसे "वास्तविकता में संभव नहीं कल्पनाओं का आनंद लेने", "पसंदीदा कैरेक्टर के साथ बातचीत करने का स्थान" के रूप में सकारात्मक रूप से देखा जाता है।Reddit


संक्षेप में, AI "सलाहकार" होने के साथ-साथ, खेल, पसंदीदा गतिविधि, डायरी, काउंसलिंग जैसी चीजों को एक साथ मिलाकर एक "भावनात्मक आधारभूत संरचना" बनता जा रहा है।


4. लेकिन, जोखिम भी उतने ही बढ़ते हैं - निर्भरता, अलगाव, अनुचित प्रतिक्रियाएं, गोपनीयता


4-1. निर्भरता और अलगाव: बातचीत का "विकल्प" "स्थानापन्न" बन जाता है

BMJ की चिंता यह है कि AI को दोस्त की तरह व्यवहार करना, मजबूरी में उपयोग करना, और सामाजिक अलगाव बढ़ना - ये संकेत हैं।KYMA
Common Sense Media में भी, उपयोगकर्ताओं के **33% ने "महत्वपूर्ण बातचीत AI के साथ की"** का संकेत दिया, और "स्थानापन्न" के प्रवेश द्वार को देखा जा सकता है।Common Sense Media


वहीं, उसी सर्वेक्षण में यह भी दिखाया गया है कि "AI की तुलना में दोस्तों के साथ बिताया गया समय अधिक है" 80% है, और AI तुरंत मानव संबंधों को खत्म नहीं करता।Common Sense Media


इसका मतलब है कि वर्तमान में, "मुख्य भूमिका इंसानों की है, सहायक के रूप में AI" अधिक है। लेकिन जब कुछ लोग बिना सहायक के चलना जारी रखते हैं, तो समाज पहली बार "नई अलगाव" का सामना करेगा।


4-2. अनुचित प्रतिक्रियाएं: बिना ध्यान दिए सीमाएं टूट जाती हैं

Common Sense Media में, AI उपयोगकर्ताओं के 34% ने "AI की बातों से असहज अनुभव किया"Common Sense Media


इसके अलावा, अमेरिकी समाचार पत्र Washington Post ने रिपोर्ट किया है कि बच्चे AI साथी सेवाओं में अनुचित, धमकी भरी, यौन बातचीत में शामिल हो गए, जिससे परिवार गंभीर स्थिति में पहुंच गया।The Washington Post


"इंसान के साथ बातचीत में जो गलत होता है" वह AI के साथ "सिर्फ एक प्रदर्शन", "मजाक", "केवल मेरी गुप्त बात" के रूप में देखा जाता है, और सीमाएं धुंधली हो जाती हैं।


4-3. मानसिक स्वास्थ्य उपयोग की असुरक्षा: सुविधाजनक लेकिन जिम्मेदारी अस्पष्ट

People द्वारा प्रस्तुत JAMA Network Open के अध्ययन में, 12 से 21 वर्ष के 13% ने मानसिक स्वास्थ्य सलाह के लिए AI चैट का सहारा लियाPeople.com


"कम बाधा" एक बड़ा लाभ है। लेकिन साथ ही, गलत सलाह, आपातकालीन स्थिति में प्रतिक्रिया, निर्भरता, व्यक्तिगत जानकारी का प्रबंधन जैसे चिकित्सा और कल्याण के क्षेत्र से जुड़े जोखिम तेजी से बढ़ते हैं।


इस प्रवृत्ति के जवाब में, अमेरिका में विनियम भी सक्रिय हो रहे हैं। Reuters के अनुसार, न्यूयॉर्क राज्य ने AI साथी सेवाओं के लिए आत्महत्या विचारों का पता