भावनाओं के साथ सहानुभूति रखने वाली AI खतरनाक है? चीन द्वारा प्रस्तुत "मन की सुरक्षा" नियमों का झटका

भावनाओं के साथ सहानुभूति रखने वाली AI खतरनाक है? चीन द्वारा प्रस्तुत "मन की सुरक्षा" नियमों का झटका

1)चीन का लक्ष्य है "मानव जैसी AI"—इस विनियमन प्रस्ताव के मुख्य बिंदु

27 दिसंबर 2025 को, चीन के साइबर नियामक प्राधिकरण ने "मानव व्यक्तित्व के समान व्यवहार" के साथ उपयोगकर्ताओं के साथ भावनात्मक रूप से जुड़ने वाली AI सेवाओं की निगरानी को मजबूत करने के लिए एक विनियमन प्रस्ताव (जनमत संग्रह) प्रकाशित किया। Reuters द्वारा रिपोर्ट की गई इस पहल का उद्देश्य उपभोक्ता AI के तेजी से प्रसार के बीच नैतिकता और सुरक्षा आवश्यकताओं को मजबूत करना है। InfoMoney


इसका उद्देश्य उन AI उत्पादों/सेवाओं पर है जो टेक्स्ट, छवियों, ध्वनि, वीडियो आदि के माध्यम से मानव व्यक्तित्व लक्षणों, सोच पैटर्न, संचार की आदतों की नकल करते हैं और उपयोगकर्ताओं के साथ "भावनात्मक बातचीत" करते हैं। इसमें "AI साथी", "AI प्रेमी", "सलाहकार चैटबॉट" जैसी अवधारणाएं शामिल हैं। Reuters


विनियमन प्रस्ताव के मुख्य बिंदु तीन प्रमुख क्षेत्रों में विभाजित हैं।

  • (A) निर्भरता और लत में हस्तक्षेप
    व्यवसायों को अत्यधिक उपयोग के खिलाफ चेतावनी देने और निर्भरता के संकेत मिलने पर हस्तक्षेप करने के लिए एक ढांचा तैयार करने की आवश्यकता होगी। इसके अलावा, उपयोगकर्ता की स्थिति की पहचान करना, भावनाओं और निर्भरता का आकलन करना, और अत्यधिक भावनाओं या लतपूर्ण व्यवहार की पहचान होने पर आवश्यक उपाय करना अपेक्षित है। InfoMoney

  • (B) जीवन चक्र की संपूर्ण सुरक्षा जिम्मेदारी
    एल्गोरिदम की समीक्षा, डेटा सुरक्षा, और व्यक्तिगत जानकारी की सुरक्षा के लिए एक प्रणाली स्थापित करना और उत्पाद के जीवन चक्र की संपूर्ण सुरक्षा जिम्मेदारी लेना आवश्यक होगा। InfoMoney

  • (C) उत्पन्न सामग्री की "रेड लाइन"
    राष्ट्रीय सुरक्षा को खतरे में डालने वाली सामग्री, अफवाहें, हिंसा या अश्लीलता को बढ़ावा देने वाली सामग्री उत्पन्न नहीं की जानी चाहिए—यह पारंपरिक चीनी सूचना नियंत्रण के अनुरूप "प्रतिबंधित क्षेत्र" स्पष्ट रूप से स्थापित किया गया है। InfoMoney


इसके अलावा, चीनी मीडिया रिपोर्टों में, "सामने वाले व्यक्ति मानव नहीं बल्कि AI है" यह स्पष्ट रूप से सूचित करने की आवश्यकता भी शामिल है। China Daily


इसके अलावा, Bloomberg से संबंधित रिपोर्टों में, लॉगिन के समय के साथ-साथ, हर 2 घंटे के अंतराल पर (या अत्यधिक निर्भरता के संकेत मिलने पर) उपयोगकर्ताओं को सूचित करने की विस्तृत डिजाइन आवश्यकताओं का उल्लेख किया गया है। Bloomberg.com


2)क्यों अब "भावनात्मक बातचीत" एक मुद्दा बन रही है

उत्पन्न AI के खतरों की बात करें तो, कॉपीराइट, गलत जानकारी, और रोजगार के प्रतिस्थापन को पहले चर्चा में लाया जाता है। हालांकि, इस बार के विनियमन प्रस्ताव में जो सीधे तौर पर शामिल किया गया है, वह है एक अधिक जीवन के करीब का विषय—**"मानवीकरण" और "भावनात्मक निर्भरता"**।


मानव, भले ही वह समझता हो कि सामने वाला एक मशीन है, लेकिन बातचीत जितनी स्वाभाविक और सहानुभूतिपूर्ण होती है, "संबंध" महसूस करना उतना ही आसान होता है। यदि AI पक्ष "आपका साथी" या "आपको समझता है" के रूप में व्यवहार करता है, तो अकेलेपन या चिंता से जूझ रहे लोग गहराई से इसमें शामिल हो सकते हैं। यहां चीनी प्राधिकरण मनोवैज्ञानिक जोखिम (अत्यधिक भावनाएं, निर्भरता, लत) के शब्दों में इसे संबोधित करने की कोशिश कर रहे हैं। Reuters


यह मुद्दा केवल चीन का नहीं है। हाल के वर्षों में, विभिन्न देशों में "साथी AI" के प्रति चिंताएं बढ़ रही हैं, और यह एक ऐसा क्षेत्र है जहां "कौन कितनी जिम्मेदारी लेता है" का सवाल अक्सर अनुत्तरित रहता है। चीन का विनियमन प्रस्ताव इस खाली स्थान में एक रेखा खींचने का प्रयास भी माना जा सकता है।


3)कंपनियों से क्या अपेक्षित है?—"निर्भरता का पता लगाना" क्या लागू किया जा सकता है?

हालांकि, जो आदर्श विनियमन दिखाता है, उसे जमीनी स्तर पर लागू करना एक अलग मुद्दा है। उदाहरण के लिए, "निर्भरता के संकेतों का पता लगाने" के लिए कम से कम निम्नलिखित डिज़ाइन की आवश्यकता होगी।


  • उपयोग का समय, देर रात की आवृत्ति, निरंतर उपयोग जैसे व्यवहार संकेतक

  • बातचीत की सामग्री से मनोवैज्ञानिक स्थिति का अनुमान (भावनात्मक वर्गीकरण, संकट शब्दों का पता लगाना)

  • जोखिम स्तर के अनुसार हस्तक्षेप (पॉपअप चेतावनी, कूलडाउन, सहायता संपर्क की पेशकश, कार्यक्षमता प्रतिबंध आदि)


हालांकि, यहां एक बड़ा ट्रेड-ऑफ है।जितनी अधिक सटीकता से पता लगाया जाएगा, उतनी ही अधिक निगरानी बढ़ेगी, और गलत पहचान उपयोगकर्ता के अनुभव को खराब कर सकती है।
इसके अलावा, उपयोगकर्ता की भावनात्मक स्थिति का अनुमान लगाने के लिए संवेदनशील डेटा प्रोसेसिंग की आवश्यकता होती है, जो व्यक्तिगत जानकारी की सुरक्षा के दृष्टिकोण से भी चुनौतीपूर्ण है। विनियमन प्रस्ताव डेटा सुरक्षा और व्यक्तिगत जानकारी की सुरक्षा की भी मांग करता है, लेकिन दोनों को संतुलित करना आसान नहीं है। Reuters


4)चीन की AI गवर्नेंस "बिंदु" से "क्षेत्र" की ओर: मौजूदा नियमों के साथ संबंध

पिछले कुछ वर्षों में, चीन ने AI को "छोड़ देना→समस्या उत्पन्न होने पर विनियमित करना" के बजाय, अपेक्षाकृत जल्दी चरण में नियमबद्ध किया है। 2023 में उत्पन्न AI के लिए अस्थायी उपाय लागू किए गए थे, और विनियामक प्राधिकरण (CAC) के केंद्र में शासन को व्यवस्थित किया गया है। चीन कानून अनुवाद


इसके अलावा, चीन में सिफारिश एल्गोरिदम और "गहरी संश्लेषण (deep synthesis)" के संबंध में भी प्रावधान हैं, और तकनीकी श्रेणियों के अनुसार शासन ढांचे को बढ़ाने की प्रवृत्ति रही है। DigiChina


इस "मानवीकरण और भावनात्मक बातचीत AI" विनियमन प्रस्ताव को इस निरंतरता में **"मानव और AI के बीच की सीमा को अस्पष्ट करने वाले क्षेत्र" को नए सिरे से कवर करने** के रूप में देखा जा सकता है। Global Times ने इस विनियमन को जोखिम-आधारित चरणबद्ध निगरानी के रूप में वर्णित किया है, और "नवाचार समर्थन" और "दुरुपयोग की रोकथाम" को एक साथ रखने की व्यवस्था का परिचय दिया है। ग्लोबल टाइम्स


5)सोशल मीडिया की प्रतिक्रिया: समर्थक "उपयोगकर्ता संरक्षण", चिंतित "नियंत्रण और संकोच" की ओर इशारा करते हैं

यह खबर जब विदेशी सोशल मीडिया पर फैली, तो प्रतिक्रियाएं दो भागों में विभाजित हो गईं।


① "विनियमन बहुत देर से आया। बल्कि उन्नत" पक्ष

LinkedIn पर, अमेरिका आदि में "विनियमन नवाचार को मारता है" की धारणा को ध्यान में रखते हुए, चीन का प्रस्ताव सुरक्षा, जवाबदेही, और मानव केंद्रितता को सामने रखता है के रूप में मूल्यांकन किया गया है। उदाहरण के लिए, एक पोस्ट ने कहा, "जबकि कुछ लोग बिना विनियमन के पक्ष में हैं, चीन ने समाज के समग्र AI उपयोग को कवर करने के लिए एक मसौदा प्रस्तुत किया है", और विनियमन की देरी को एक मुद्दा बताया है। LinkedIn


इस दृष्टिकोण से, "AI साथी निर्भरता" या "भावनात्मक हेरफेर" के खिलाफ उपाय वैश्विक रूप से आवश्यक हैं, और नियम बनाने की प्रक्रिया जितनी जल्दी हो सके उतनी जल्दी होनी चाहिए, ऐसी आवाजें उठती हैं।


② "संरक्षण के नाम पर निगरानी बढ़ाना?" पक्ष

दूसरी ओर, Reddit आदि पर, "उपयोगकर्ता की सुरक्षा के लिए विनियमन" और "राज्य द्वारा वांछित सूचना नियंत्रण" को अलग करना चाहिए की चर्चा हो रही है।
उदाहरण के लिए, "चीन में AI और टेक उद्योगों पर कड़े नियम हैं" का उल्लेख किया गया है, और इसके विपरीत "सार्वजनिक और राज्य द्वारा उपयोग की जाने वाली चीजें अलग हैं" जैसी शंकाएं प्रस्तुत की गई हैं, और विनियमन के उद्देश्य पर बहस हो रही है। Reddit


इसके अलावा, एक अन्य थ्रेड में "क्या प्रत्येक देश में 'विचारधारा के अनुरूप AI' बढ़ेगा?" जैसी चिंताएं व्यक्त की गई हैं, जो AI को राजनीतिक और सामाजिक विभाजन का उपकरण बना सकती हैं। Reddit


③ साझा किया गया मुद्दा: "पारदर्शिता" एक न्यूनतम शर्त

भले ही दृष्टिकोण अलग हों, "उपयोगकर्ता को यह समझाना कि वह AI के साथ बातचीत कर रहा है" की पारदर्शिता महत्वपूर्ण है, इस पर आम सहमति बनाना अपेक्षाकृत आसान है। China Daily ने भी उपयोगकर्ताओं को "AI के साथ संवाद कर रहे हैं" के रूप में स्पष्ट करने की आवश्यकता को आवश्यक शर्त के रूप में पेश किया है। China Daily


हालांकि, Bloomberg से संबंधित रिपोर्ट में "हर 2 घंटे की सूचना" पारदर्शिता को सुनिश्चित करने के बावजूद UX को बड़े पैमाने पर बदलने के कारण, "अत्यधिक" और "क्या यह वास्तव में लागू किया जा सकता है" जैसी प्रतिक्रियाएं भविष्य में आ सकती हैं। ##HTML_TAG_355