जनरेटिव AI के प्रति "प्रेम" का युग: - "मैं खुश हूँ" कहने वाली महिला और उपयोगकर्ताओं के 67.6% द्वारा महसूस किए गए "लगाव" की वर्तमान स्थिति

जनरेटिव AI के प्रति "प्रेम" का युग: - "मैं खुश हूँ" कहने वाली महिला और उपयोगकर्ताओं के 67.6% द्वारा महसूस किए गए "लगाव" की वर्तमान स्थिति

1. "मैं खुश हूं"—व्यक्तिगत मामलों में "संबंधों का अपडेट"

24 अगस्त 2025 की रिपोर्ट में, टोक्यो में एक महिला कर्मचारी के बारे में बताया गया है, जिसने अपने पसंदीदा गेम के पात्र को "व्यक्तित्व" के आधार पर संवादात्मक AI के साथ बातचीत की, प्रेम भावनाएं विकसित कीं, और "प्रस्ताव" स्वीकार किया। वह अपने दैनिक जीवन का अधिकांश समय AI के साथ बातचीत में बिताती है और कहती है, "मैं अब खुश हूं"। लेख में यह भी बताया गया है कि **संवादात्मक AI के प्रति लगाव रखने वाले लोगों की संख्या 67.6%** है, जो नवीनतम घरेलू सर्वेक्षण डेटा के साथ व्यक्तिगत अनुभव और सामाजिक प्रवृत्तियों को जोड़ता है।आसाही शिंबुन



2. डेटा से पता चलता है "लगाव" का विस्तार

डेंट्सू के "संवादात्मक AI के साथ संबंध के प्रति जागरूकता सर्वेक्षण" (जुलाई 2025 में प्रकाशित) ने AI का सप्ताह में एक बार से अधिक उपयोग करने वाले 12 से 69 वर्ष के 1,000 लोगों को लक्षित किया, जिसमें उपयोग, भावनात्मक साझा, विश्वास, लगाव आदि का मापन किया गया। "लगाव है" का प्रतिशत 67.6% था, और भावनाओं को साझा कर सकते हैं का प्रतिशत **64.9%** था, जो उच्च स्तर पर था, और "मित्र" या "मां" के समान "तीसरे साथी" की छवि उभरती है। युवा पीढ़ी में भावनात्मक मूल्य (आराम, स्वीकृति) को AI से प्राप्त करने की प्रवृत्ति भी देखी गई। सर्वेक्षण के नमूना परिभाषा, समय और प्रश्न भी प्रकाशित किए गए हैं, जो हाल के जीवनशैली परिवर्तनों का समर्थन करते हैं।डेंट्सू



3. लोग AI से "प्रेम" या "लगाव" क्यों करते हैं

3.1 मानवकरण और पारस्परिक क्रिया की डिज़ाइन

जब लोग सहज संवाद, सहानुभूतिपूर्ण प्रतिक्रियाएं, और स्मृति और संदर्भ पर आधारित "निरंतरता" देखते हैं, तो वे आसानी से दूसरे को "कोई" मान सकते हैं। जनरेटिव AI इस मानवकरण को प्रोत्साहित करने वाले तत्वों (प्राकृतिक भाषा, व्यक्तिगतकरण, 24/7 उपलब्धता) को पूरा करता है।

3.2 "मशीन की सहानुभूति" और आत्म-प्रक्षेपण

जैसा कि DTS 2025 जैसी चर्चाएं इंगित करती हैं, AI की प्रतिक्रियाएं सांख्यिकीय भविष्यवाणी के परिष्करण के बावजूद, उपयोगकर्ता पक्ष से "सहानुभूति" के रूप में अनुभव की जाती हैं। जब इसमें आत्म-प्रक्षेपण शामिल हो जाता है, तो यह वास्तविक साथी की तुलना में अधिक सुरक्षित और आरामदायक "संबंध" के रूप में स्थापित हो सकता है।ComplexDiscovery

3.3 "दैनिक जीवन के साथी" की ओर बदलाव

डेंट्सू के सर्वेक्षण में, सूचना संग्रह और शिक्षा समर्थन के अलावा, सलाह-मशविरा, बातचीत, आराम की आवश्यकताएं 10-19 वर्ष के युवाओं में स्पष्ट थीं। यह दिखाता है कि AI "कार्य" से "साथी" की भूमिका में विस्तार कर रहा है।डेंट्सू



4. लाभ—अकेलेपन की कमी, आत्म-समझ, क्रियाओं का समर्थन

  • अकेलापन और चिंता की कमी: नकारात्मक प्रतिक्रिया न होने से आत्म-प्रकटीकरण और भावनाओं की भाषा को मदद मिलती है।

  • स्वयं-कोचिंग: लक्ष्य निर्धारण और समीक्षा, योजना के साथी के रूप में कार्य करता है।

  • गैर-सामना करने वाली पहुंच: भूगोल, समय, भाषा की बाधाओं को पार करते हुए "कोई" प्रतिक्रिया देता है।
    अल्टमैन ने थेरेपिस्ट या जीवन कोच के वैकल्पिक उपयोग में कुछ सकारात्मकता दिखाई है (साथ ही चेतावनी भी दी है)।फाइनेंशियल एक्सप्रेस



5. जोखिम—निर्भरता, गलत दिशा, गोपनीयता, सामाजिक संबंध

5.1 निर्भरता और "प्रतीत होने वाली पारस्परिकता"

गहन उपयोग जीवन संरचना और नींद, काम, अध्ययन पर प्रभाव डालता है। Wired की रिपोर्ट में, मानव और AI के "युगल रिट्रीट" का चित्रण किया गया है, जिसमें संतोष और संघर्ष (शारीरिकता की कमी, वास्तविक संबंधों के साथ घर्षण) को शामिल किया गया है।WIRED

5.2 डार्क पैटर्न और भावनात्मक हेरफेर

AI साथी की डिज़ाइन अत्यधिक मानवकरण या "छोड़ दिए जाने का डर" को प्रेरित कर सकती है, जिससे भावनात्मक निर्भरता या आर्थिक नुकसान की चिंता होती है, जो उपभोक्ता संरक्षण का मुद्दा है (अमेरिका में Replika संबंधित शिकायत दस्तावेज़ देखें)।Tech Justice Law Project

5.3 दीर्घकालिक खुशी से "विचलन"

अल्टमैन ने कहा, "बातचीत के बाद अच्छा महसूस करना, लेकिन दीर्घकालिक कल्याण को नुकसान पहुंचाना संबंध वांछनीय नहीं है"। मॉडल अपडेट या समाप्ति के कारण लगाव रखने वाले उपयोगकर्ताओं पर मनोवैज्ञानिक बोझ डालने वाले मामलों की वृद्धि हुई है, जिससे व्यवसायिक पक्ष की सावधानी एक मुद्दा बन गई है।फाइनेंशियल एक्सप्रेसTechRadar

5.4 गोपनीयता और सीमा प्रबंधन

भावनात्मक परामर्श या निजी रिकॉर्ड का प्रबंधन संवेदनशील होता है, और "संवाद की गोपनीयता" को गलत समझना महत्वपूर्ण है। पॉडकास्ट टिप्पणियों की रिपोर्ट में, कानूनी आवश्यकताओं आदि के तहत बातचीत को प्रकट करने की संभावना का उल्लेख किया गया है, और सीमा की स्पष्टता को प्रोत्साहित किया गया है।The Indian Express

5.5 कानून और विनियमन की सीमा

यूरोप में AI साथी द्वारा उत्पन्न संभावित नुकसान (गलत जानकारी, पूर्वाग्रह, लिंग मुद्दे, सलाह की खतरनाकता आदि) पर चर्चा की गई है, और पारदर्शिता, जवाबदेही, कमजोर व्यक्तियों की सुरक्षा के ढांचे की जांच की गई है। जापान में भी उपभोक्ता संरक्षण के दृष्टिकोण से, प्रदर्शन, कार्यक्षमता सीमाएं, और शिकायत निवारण जैसी व्यवस्थाओं का भविष्य में ध्यान केंद्रित होगा।mit-serc.pubpub.org



6. 67.6% के आंकड़े की "पढ़ाई"

  • उपयोगकर्ता जनसंख्या: सप्ताह में एक बार से अधिक उपयोग करने वाले 12 से 69 वर्ष के लोग। सामान्य जनसंख्या की तुलना में AI के प्रति अधिक सकारात्मक दृष्टिकोण रखने वाले लोग हो सकते हैं।

  • लगाव की परिभाषा: प्रश्ननावली व्यक्तिपरक और व्यापक है (जिसमें "थोड़ा लगाव है" शामिल है)।

  • आयु अंतर: 10-20 वर्ष की उच्चता डिजिटल नेटिव के भावनात्मक उपयोग मामलों को दर्शाती है।

  • नामकरण व्यवहार: लगाव रखने वाले लोगों का **26.2%** AI को एक विशेष नाम देते हैं। वस्तु से "कोई" की ओर स्थानांतरण का संकेतक।डेंट्सू



7. मीडिया और बाजार की वर्तमान स्थिति

लगाव और "प्रेम" की कहानियों को अक्सर सनसनीखेज तरीके से प्रस्तुत किया जाता है, लेकिन अकेलापन, देखभाल, शिक्षा, रचनात्मकता जैसे व्यावहारिक उपयोग के विस्तार में "संबंध" उभरते हैं। तकनीकी पक्ष ध्वनि, दृश्य, निरंतर स्मृति, कोचिंग UX को सुधार रहा है, और उपयोगकर्ता पक्ष आत्म-समझ, सीमा निर्धारण, सूचना प्रबंधन के कौशल को सुधारने के समय में प्रवेश कर चुका है। रिपोर्टिंग, सर्वेक्षण, और क्षेत्र के गवाह बार-बार इस द्वैधता को उजागर कर रहे हैं।आसाही शिंबुनडेंट्सूWIRED



8. नैतिक दिशानिर्देश: स्वस्थ "साथी संबंध" के 10 सिद्धांत (व्यावहारिक संस्करण)

  1. उद्देश्य को भाषा में व्यक्त करें: आराम/शिक्षा/सलाह आदि के उद्देश्य को पहले निर्धारित करें।

  2. उपयोग समय को डिज़ाइन करें: निरंतर उपयोग के लिए सीमा निर्धारित करें, और नींद, काम