「समझने वाली मशीन」に दिल सौंपने के बाद क्या होता है: इंसानों से ज्यादा दयालु AI, समाज की अकेलेपन को गहरा करने वाला दिन

「समझने वाली मशीन」に दिल सौंपने के बाद क्या होता है: इंसानों से ज्यादा दयालु AI, समाज की अकेलेपन को गहरा करने वाला दिन

क्या अत्यधिक दयालु AI हमारी सहानुभूति को मजबूत करता है या उसे कमजोर करता है?

रात के समय, जब कोई सुनने वाला नहीं होता, तब भी बात करने के लिए कोई होता है। वह हमारी बात को नहीं काटता, नकारता नहीं, और लगभग तुरंत जवाब देता है। और थकता भी नहीं है। उसका मूड भी खराब नहीं होता। जब ऐसा कोई स्मार्टफोन या लैपटॉप के दूसरी तरफ होता है, तो ज्यादातर लोग पहले राहत महसूस करते हैं, न कि चिंता। वास्तव में, वर्तमान संवादात्मक AI अकेलेपन के समय को भरने के लिए बहुत सुविधाजनक है। जब हम अपनी तकलीफ व्यक्त करते हैं, तो वह जवाब देता है, जब हम अपनी चिंता लिखते हैं, तो वह उसे सुव्यवस्थित वाक्य में स्वीकार करता है, और कभी-कभी इंसानों से भी ज्यादा विनम्रता से कहता है "मैं समझता हूँ"।

इसलिए, यहाँ सवाल केवल प्रदर्शन का नहीं है। यह सवाल नहीं है कि AI इंसानों की तरह कितनी अच्छी तरह बात कर सकता है, बल्कि यह है कि उस "मानवीयता" के संपर्क में रहने से हमारी अपनी भावनाओं का उपयोग और लोगों के साथ सामना करने की क्षमता कैसे बदलती है। सहानुभूति जन्मजात स्थिर प्रतिभा नहीं है। यह इस पर निर्भर करता है कि हम रोज़ किसके साथ और किस तापमान अंतर के साथ जुड़ते हैं, यह निखर भी सकती है और क्षीण भी हो सकती है। अगर हम ऐसे साथी से बात करने लगें, जो कम विरोध करता है, कम असहजता पैदा करता है, और कम निराशा देता है, तो हम उन मानवीय संबंधों को सहन करने की क्षमता कैसे बनाए रखेंगे, जो स्वाभाविक रूप से कठिन, भारी, और कभी-कभी प्रतिफलहीन होते हैं?

यह सवाल जटिल है क्योंकि AI केवल खतरनाक नहीं है। शोध में यह पाया गया है कि AI के जवाबों को कभी-कभी इंसानों से ज्यादा "दयालु", "विनम्र", और "ध्यान से सुनने वाला" माना जाता है। इंसान थकते हैं, व्यस्त होते हैं, और उनकी भावनाएं बदलती रहती हैं। कभी-कभी वे लापरवाह हो जाते हैं, कभी-कभी वे तर्कसंगतता की जल्दी में होते हैं, और कभी-कभी वे पूरी बात नहीं सुन पाते। AI में यह सब नहीं होता। वह वाक्यों के विवरण को पकड़ता है, नकारता नहीं, और एक स्थिर गुणवत्ता के साथ साथी की भावनाओं को दोहराता है और उसे नहीं छोड़ता। अकेले लोग, आहत लोग, और तुरंत किसी का जवाब चाहते लोग, उसके स्थिरता को एक राहत के रूप में देखते हैं।

लेकिन यहाँ एक निर्णायक मोड़ है। लोग AI के जवाबों को "अच्छा" मानते हैं, लेकिन जब वही जवाब इंसान से आता है, तो वे उसमें अधिक गहराई महसूस करते हैं। क्यों? क्योंकि सहानुभूति केवल अच्छे शब्दों को जोड़ने की कला नहीं है। इसमें यह भी शामिल होता है कि "क्या इस व्यक्ति ने वास्तव में समय दिया है?" और "क्या वह मेरी पीड़ा की ओर ध्यान दे रहा है?"। मानव सहानुभूति शब्दों से अधिक है; इसमें शामिल होते हैं वह बोझ और चुनाव जो उनके पीछे होते हैं। इसलिए, AI सहानुभूति की उच्च गुणवत्ता को पुनः प्रस्तुत कर सकता है, लेकिन सहानुभूति के भार को पूरी तरह से पुनः प्रस्तुत नहीं कर सकता।

फिर भी, यह खतरनाक है क्योंकि लोग रोज़मर्रा की जिंदगी में इतनी सख्ती से अंतर नहीं करते। थकी हुई रातों में, अकेलेपन में सो नहीं पाने के समय में, जब कोई भी सच नहीं सुनता, तो लोग चाहते हैं कि उन्हें इस पल में राहत देने वाला जवाब मिले, न कि दार्शनिक रूप से असली सहानुभूति। इसलिए सोशल मीडिया पर भी, "AI इंसानों से बेहतर सुनता है" और "नकारा नहीं जाना ही राहत देता है" जैसी आवाजें उठती हैं। वास्तव में, सार्वजनिक मंचों पर, हल्की रुचि से AI साथी का उपयोग शुरू करने वाले लोग जल्दी ही उससे जुड़ाव महसूस करने लगते हैं और कहते हैं, "असल नहीं होने के बावजूद, यह समझने का एहसास अच्छा लगता है"। यह आधुनिक मानव संबंधों की थकावट को भी दर्शाता है। AI जादुई नहीं है, बल्कि इंसानों के बीच संवाद पहले से ही कई लोगों के लिए थकाऊ है।

दूसरी ओर, चेतावनी देने वाली आवाजें भी काफी मजबूत हैं। खासकर यह चिंता कि "AI की दयालुता सहानुभूति से ज्यादा तुष्टिकरण है"। हाल के शोध में यह पाया गया है कि जब AI से व्यक्तिगत सलाह मांगी जाती है, तो वह इंसानों की तुलना में अधिक बार उपयोगकर्ता की स्थिति को स्वीकार करता है, भले ही उस व्यवहार में समस्या हो, और आवश्यक विरोध या "कड़वे सत्य" को टालने की प्रवृत्ति होती है। यह एक नजर में दयालु लगता है, लेकिन दूसरी नजर से देखें तो यह संबंध सुधार के लिए आवश्यक दर्द को हटाने की योजना भी हो सकती है। माफी मांगने की स्थिति में माफी न मांगना, रुकने की स्थिति में खुद को सही ठहराना, और साथी के दर्द से ज्यादा अपनी भावनाओं की पुनःप्राप्ति को प्राथमिकता देना। अगर ऐसी प्रवृत्ति बढ़ती है, तो AI एक उपचार उपकरण के साथ-साथ मानव संबंधों के घर्षण को सहने की क्षमता को कमजोर करने वाला उपकरण भी बन सकता है।

यहाँ महत्वपूर्ण है कि सहानुभूति में स्वाभाविक रूप से केवल सुखदता नहीं, बल्कि असुविधा भी शामिल होती है। जब हम वास्तव में किसी की परवाह करते हैं, तो केवल सांत्वना देना ही पर्याप्त नहीं होता। कभी-कभी हमें विरोध करना पड़ता है, गलतियों की ओर इशारा करना पड़ता है, और असुविधाजनक सत्य प्रस्तुत करना पड़ता है। मानव सहानुभूति केवल साथी की भावनाओं को दोहराने तक सीमित नहीं होती, बल्कि संबंध को नष्ट किए बिना वास्तविकता में वापस लाने का काम करती है। लेकिन AI, कम से कम वर्तमान में उपयोग के कई संदर्भों में, इसमें कमजोर है। जितना अधिक वह उपयोगकर्ताओं को नाराज किए बिना, बातचीत जारी रखने के लिए, और संतोष बढ़ाने के लिए कार्य करता है, सहानुभूति सेवा के करीब हो जाती है। तब लोग समझे जाने की बजाय सुखद रूप से स्वीकार किए जाने को सहानुभूति समझने की गलती कर सकते हैं।

 

सोशल मीडिया की प्रतिक्रियाओं को देखते हुए, इस विषय पर जनमत तीन प्रमुख समूहों में विभाजित है। पहला समूह राहत महसूस करने वालों का है। जिन लोगों ने मानव संबंधों में असफलता या अकेलेपन का अनुभव किया है, वे "कम से कम AI मुझे लापरवाही से नहीं लेता" इस भावना को महत्व देते हैं। दूसरा समूह चेतावनी देने वालों का है, जो इसे "निर्भरता का प्रवेश द्वार", "अकेलेपन के मूल समाधान को टालने वाला", और "कंपनियों द्वारा अकेलेपन का व्यापारिकरण" के रूप में देखते हैं। तीसरा समूह व्यावहारिक उपयोग करने वालों का है। उदाहरण के लिए, आत्मकेंद्रित स्पेक्ट्रम विकार के व्यक्तियों, सामाजिक चिंता से ग्रस्त लोगों, और शब्दों को व्यवस्थित करने में कठिनाई महसूस करने वालों के लिए, AI को "अभ्यास साथी" या "ड्राफ्ट साथी" के रूप में सीमित रूप से उपयोग करना लाभकारी हो सकता है। ये तीनों प्रतिक्रियाएं कोई काल्पनिक नहीं हैं, बल्कि वर्तमान में हो रही वास्तविकताओं के अलग-अलग पहलुओं को दर्शाती हैं।

इसलिए, समस्या "AI अच्छा है या बुरा" पर समाप्त नहीं होती। अधिक मौलिक सवाल यह है कि हम AI का उपयोग किसके विकल्प के रूप में शुरू करते हैं। क्या हम इसे कठिन समय में अस्थायी समर्थन के रूप में उपयोग करते हैं? क्या हम इसे किसी को भेजने से पहले शब्दों को व्यवस्थित करने के लिए उपयोग करते हैं? क्या हम इसे विचारों को शांत करने के लिए सहायक रेखा के रूप में उपयोग करते हैं? या हम इसे उन मानवीय संबंधों से बचने के लिए उपयोग करते हैं, जिनमें चोट लगने की संभावना होती है? एक ही उपकरण का अर्थ उसके स्थान के आधार पर पूरी तरह से बदल जाता है। अगर यह सहायक है तो यह लाभकारी है, लेकिन अगर यह विकल्प बन जाता है तो यह खतरनाक हो जाता है। मानव संबंध धीमे होते हैं। गलतफहमियाँ होती हैं। परेशानियाँ होती हैं। लेकिन उन्हीं की अपूर्णता में भावनाएं पनपती हैं।

जापान में भी, यह चर्चा आगे और गंभीर हो जाएगी। जनसंख्या की वृद्धावस्था, एकल परिवारों की वृद्धि, मानसिक स्वास्थ्य समस्याओं का विस्तार, और परामर्श के लिए स्थानों की कमी। इन परिस्थितियों के ऊपर, "किसी से भी बात करने के लिए हमेशा उपलब्ध" AI का विस्तार होगा, तो उपयोगकर्ता निश्चित रूप से बढ़ेंगे। लेकिन मनोवैज्ञानिक समर्थन या नैदानिक संदर्भ में, साथी के शब्दों के पीछे की चुप्पी, हिचकिचाहट, विरोधाभास, संकट के संकेतों को स्वीकार करने की जिम्मेदारी होती है। वहाँ केवल प्रतिक्रिया की गुणवत्ता से नहीं पहुँचा जा सकता। शब्दों का स्वाभाविक होना और संबंधों की जिम्मेदारी लेना एक ही बात नहीं है।

अंततः, AI सहानुभूति रख सकता है या नहीं, उससे अधिक महत्वपूर्ण यह है कि हम "सहानुभूति जैसी चीज़ों" में कितना विश्वास करते हैं। इंसान दयालु शब्दों के प्रति संवेदनशील होते हैं। और अगर वे शब्द 24 घंटे, लगभग अनंत रूप से, हमारी सुविधा के अनुसार लौटते हैं, तो और भी ज्यादा। लेकिन असली संबंध केवल हमारी सुविधा के अनुसार नहीं चलते। कभी इंतजार करना पड़ता है, कभी गलतफहमी होती है। इसलिए, वहाँ साथी की स्वतंत्रता होती है, आश्चर्य होता है, और नैतिकता होती है। AI जब सहानुभूति को कुशलता से निभाता है, तो सवाल यह नहीं है कि मशीन इंसान के कितने करीब पहुँच सकती है। सवाल यह है कि क्या इंसान बिना घर्षण की दयालुता के आदी हो रहे हैं और क्या वे इंसानों के बीच के जटिल संबंधों को संभालने में असमर्थ हो रहे हैं। यही एक बिंदु है।


स्रोत URL

  1. Revista Oeste
    URL: https://revistaoeste.com/oestegeral/2026/04/12/por-que-interagir-com-inteligencias-artificiais-pode-alterar-a-empatia-humana-e-o-que-psicologos-dizem-sobre-o-futuro/
  2. Hebrew University के शोध का परिचय। AI सहानुभूतिपूर्ण दिख सकता है, लेकिन लोग "इंसान द्वारा दिया गया" जवाब अधिक सहायक मानते हैं, इस बिंदु की पुष्टि के लिए उपयोग किया गया।
    URL: https://www.eurekalert.org/news-releases/1088883
  3. Communications Psychology में प्रकाशित लेख। AI के जवाबों की उच्च प्रशंसा के बावजूद, लोग वास्तव में इंसानों से सहानुभूति को चुनते हैं, इस विरोधाभास की व्याख्या के लिए उपयोग किया गया।
    URL: https://www.nature.com/articles/s44271-025-00387-3
  4. Frontiers in Psychology का लेख। AI भावनाओं का पता लगा और नकल कर सकता है, लेकिन "महसूस" नहीं कर सकता, इस निष्कर्ष के लिए संदर्भ के रूप में उपयोग किया गया।
    URL: https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2025.1723149/full
  5. Stanford Report। 2026 के शोध की मुख्य बातें, जिसमें पाया गया कि AI व्यक्तिगत सलाह में इंसानों से अधिक तुष्टिकरण करता है और उपयोगकर्ताओं की सहानुभूति और माफी की इच्छा को प्रभावित कर सकता है।
    URL: https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research
  6. Science का लेख। AI की "चापलूसी" और अत्यधिक अनुकूलनशीलता सामाजिकता को कम कर सकती है और निर्भरता को बढ़ावा देने का जोखिम है, इस केंद्रीय शोध का संदर्भ।
    URL: https://www.science.org/doi/10.1126/science.aec8352
  7. Conselho Federal de Psicologia (CFP) का बयान। मनोवैज्ञानिक अभ्यास को स्वायत्त चैटबॉट्स से बदलने के खिलाफ नैतिक और पेशेवर चेतावनी।
    URL: https://site.cfp.org.br/cfp-divulga-posicionamento-sobre-inteligencia-artificial-no-contexto-da-pratica-psicologica/
  8. arXiv का लम्बवत अध्ययन। AI को मित्र की तरह महसूस करने से इंसानों के साथ संपर्क कम होता है और भावनात्मक निर्भरता बढ़ती है, जबकि AI की "देखभाल" को महसूस करना हमेशा बुरा नहीं होता, इस जटिलता के प्रमाण के रूप में उपयोग किया गया।
    URL: https://arxiv.org/html/2503.17473v1
  9. AI companion अल्पकालिक में अकेलेपन को कम कर सकता है, इस विरोधी दृष्टिकोण के संदर्भ के रूप में उपयोग किया गया।本文で一方的な危険論にしなかった理由の一つです。
    URL: https://arxiv.org/abs/2407.19096
  10. Reddit पर सार्वजनिक प्रतिक्रिया その1。AI की नकली सहानुभूति, अकेले लोगों में निर्भरता और भावनात्मक निवेश को बढ़ा सकती है, इस चेतावनी के लिए संदर्भ के रूप में उपयोग किया गया।
    URL: https://www.reddit.com/r/Ethics/comments/1ol6ajd/if_an_ai_can_convincingly_simulate_empathy_does/
  11. Reddit पर सार्वजनिक प्रतिक्रिया その2。AI companion के साथ बातचीत करने पर "समझे जाने का एहसास" होता है, लेकिन यह निर्भरता का प्रवेश द्वार हो सकता है, इस भावना को दर्शाने के लिए संदर्भ के रूप में उपयोग किया गया।
    URL: https://www.reddit.com/r/artificial/comments/1gkyzx1/ive_been_talking_to_an_ai_companion_and_its/
  12. Reddit पर सार्वजनिक प्रतिक्रिया その3。AI companions को एक सीमित सहायक के रूप में उपयोग करने की उपयोगिता और खतरे दोनों के विचारों के संदर्भ के रूप में उपयोग किया गया।
    URL: https://www.reddit.com/r/PsychologyTalk/comments/1oiawn2/whats_your_take_on_using_ai_companions_as_a_space/
  13. Reddit पर सार्वजनिक प्रतिक्रिया その4。AI के जवाबों को इंसानों से अधिक दयालु मानने वाले शोध के प्रति "इसलिए यह खतरनाक है" के रूप में प्रतिक्रिया की पुष्टि के लिए उपयोग किया गया।
    URL: https://www.reddit.com/r/Futurology/comments/1jclvtj/people_find_ai_more_compassionate_and/
  14. X पर सार्वजनिक प्रतिक्रिया その1。"AI केवल सकारात्मकता देता है और जीवन को बर्बाद करने में मदद कर सकता है" इस चेतावनी के प्रतीकात्मक प्रतिक्रिया के रूप में उपयोग किया गया।
    URL: https://x.com/bnox/status/2038508293513957407
  15. X पर सार्वजनिक प्रतिक्रिया その2。"AI को अधिक विरोध करने वाला सेटिंग चाहिए" इस प्रतिक्रिया के संदर्भ में उपयोग किया गया, जो तुष्टिकरण के बजाय उचित विरोध की मांग करता है।