मुख्य सामग्री पर जाएं
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア लोगो
  • सभी लेख
  • 🗒️ रजिस्टर
  • 🔑 लॉगिन
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
cookie_banner_title

cookie_banner_message गोपनीयता नीति cookie_banner_and कुकी नीति cookie_banner_more_info

कुकी सेटिंग्स

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

भावनाओं के साथ सहानुभूति रखने वाली AI खतरनाक है? चीन द्वारा प्रस्तुत "मन की सुरक्षा" नियमों का झटका

भावनाओं के साथ सहानुभूति रखने वाली AI खतरनाक है? चीन द्वारा प्रस्तुत "मन की सुरक्षा" नियमों का झटका

2025年12月29日 11:04

1)चीन का लक्ष्य है "मानव जैसी AI"—इस विनियमन प्रस्ताव के मुख्य बिंदु

27 दिसंबर 2025 को, चीन के साइबर नियामक प्राधिकरण ने "मानव व्यक्तित्व के समान व्यवहार" के साथ उपयोगकर्ताओं के साथ भावनात्मक रूप से जुड़ने वाली AI सेवाओं की निगरानी को मजबूत करने के लिए एक विनियमन प्रस्ताव (जनमत संग्रह) प्रकाशित किया। Reuters द्वारा रिपोर्ट की गई इस पहल का उद्देश्य उपभोक्ता AI के तेजी से प्रसार के बीच नैतिकता और सुरक्षा आवश्यकताओं को मजबूत करना है। InfoMoney


इसका उद्देश्य उन AI उत्पादों/सेवाओं पर है जो टेक्स्ट, छवियों, ध्वनि, वीडियो आदि के माध्यम से मानव व्यक्तित्व लक्षणों, सोच पैटर्न, संचार की आदतों की नकल करते हैं और उपयोगकर्ताओं के साथ "भावनात्मक बातचीत" करते हैं। इसमें "AI साथी", "AI प्रेमी", "सलाहकार चैटबॉट" जैसी अवधारणाएं शामिल हैं। Reuters


विनियमन प्रस्ताव के मुख्य बिंदु तीन प्रमुख क्षेत्रों में विभाजित हैं।

  • (A) निर्भरता और लत में हस्तक्षेप
    व्यवसायों को अत्यधिक उपयोग के खिलाफ चेतावनी देने और निर्भरता के संकेत मिलने पर हस्तक्षेप करने के लिए एक ढांचा तैयार करने की आवश्यकता होगी। इसके अलावा, उपयोगकर्ता की स्थिति की पहचान करना, भावनाओं और निर्भरता का आकलन करना, और अत्यधिक भावनाओं या लतपूर्ण व्यवहार की पहचान होने पर आवश्यक उपाय करना अपेक्षित है। InfoMoney

  • (B) जीवन चक्र की संपूर्ण सुरक्षा जिम्मेदारी
    एल्गोरिदम की समीक्षा, डेटा सुरक्षा, और व्यक्तिगत जानकारी की सुरक्षा के लिए एक प्रणाली स्थापित करना और उत्पाद के जीवन चक्र की संपूर्ण सुरक्षा जिम्मेदारी लेना आवश्यक होगा। InfoMoney

  • (C) उत्पन्न सामग्री की "रेड लाइन"
    राष्ट्रीय सुरक्षा को खतरे में डालने वाली सामग्री, अफवाहें, हिंसा या अश्लीलता को बढ़ावा देने वाली सामग्री उत्पन्न नहीं की जानी चाहिए—यह पारंपरिक चीनी सूचना नियंत्रण के अनुरूप "प्रतिबंधित क्षेत्र" स्पष्ट रूप से स्थापित किया गया है। InfoMoney


इसके अलावा, चीनी मीडिया रिपोर्टों में, "सामने वाले व्यक्ति मानव नहीं बल्कि AI है" यह स्पष्ट रूप से सूचित करने की आवश्यकता भी शामिल है। China Daily


इसके अलावा, Bloomberg से संबंधित रिपोर्टों में, लॉगिन के समय के साथ-साथ, हर 2 घंटे के अंतराल पर (या अत्यधिक निर्भरता के संकेत मिलने पर) उपयोगकर्ताओं को सूचित करने की विस्तृत डिजाइन आवश्यकताओं का उल्लेख किया गया है। Bloomberg.com


2)क्यों अब "भावनात्मक बातचीत" एक मुद्दा बन रही है

उत्पन्न AI के खतरों की बात करें तो, कॉपीराइट, गलत जानकारी, और रोजगार के प्रतिस्थापन को पहले चर्चा में लाया जाता है। हालांकि, इस बार के विनियमन प्रस्ताव में जो सीधे तौर पर शामिल किया गया है, वह है एक अधिक जीवन के करीब का विषय—**"मानवीकरण" और "भावनात्मक निर्भरता"**।


मानव, भले ही वह समझता हो कि सामने वाला एक मशीन है, लेकिन बातचीत जितनी स्वाभाविक और सहानुभूतिपूर्ण होती है, "संबंध" महसूस करना उतना ही आसान होता है। यदि AI पक्ष "आपका साथी" या "आपको समझता है" के रूप में व्यवहार करता है, तो अकेलेपन या चिंता से जूझ रहे लोग गहराई से इसमें शामिल हो सकते हैं। यहां चीनी प्राधिकरण मनोवैज्ञानिक जोखिम (अत्यधिक भावनाएं, निर्भरता, लत) के शब्दों में इसे संबोधित करने की कोशिश कर रहे हैं। Reuters


यह मुद्दा केवल चीन का नहीं है। हाल के वर्षों में, विभिन्न देशों में "साथी AI" के प्रति चिंताएं बढ़ रही हैं, और यह एक ऐसा क्षेत्र है जहां "कौन कितनी जिम्मेदारी लेता है" का सवाल अक्सर अनुत्तरित रहता है। चीन का विनियमन प्रस्ताव इस खाली स्थान में एक रेखा खींचने का प्रयास भी माना जा सकता है।


3)कंपनियों से क्या अपेक्षित है?—"निर्भरता का पता लगाना" क्या लागू किया जा सकता है?

हालांकि, जो आदर्श विनियमन दिखाता है, उसे जमीनी स्तर पर लागू करना एक अलग मुद्दा है। उदाहरण के लिए, "निर्भरता के संकेतों का पता लगाने" के लिए कम से कम निम्नलिखित डिज़ाइन की आवश्यकता होगी।


  • उपयोग का समय, देर रात की आवृत्ति, निरंतर उपयोग जैसे व्यवहार संकेतक

  • बातचीत की सामग्री से मनोवैज्ञानिक स्थिति का अनुमान (भावनात्मक वर्गीकरण, संकट शब्दों का पता लगाना)

  • जोखिम स्तर के अनुसार हस्तक्षेप (पॉपअप चेतावनी, कूलडाउन, सहायता संपर्क की पेशकश, कार्यक्षमता प्रतिबंध आदि)


हालांकि, यहां एक बड़ा ट्रेड-ऑफ है।जितनी अधिक सटीकता से पता लगाया जाएगा, उतनी ही अधिक निगरानी बढ़ेगी, और गलत पहचान उपयोगकर्ता के अनुभव को खराब कर सकती है।
इसके अलावा, उपयोगकर्ता की भावनात्मक स्थिति का अनुमान लगाने के लिए संवेदनशील डेटा प्रोसेसिंग की आवश्यकता होती है, जो व्यक्तिगत जानकारी की सुरक्षा के दृष्टिकोण से भी चुनौतीपूर्ण है। विनियमन प्रस्ताव डेटा सुरक्षा और व्यक्तिगत जानकारी की सुरक्षा की भी मांग करता है, लेकिन दोनों को संतुलित करना आसान नहीं है। Reuters


4)चीन की AI गवर्नेंस "बिंदु" से "क्षेत्र" की ओर: मौजूदा नियमों के साथ संबंध

पिछले कुछ वर्षों में, चीन ने AI को "छोड़ देना→समस्या उत्पन्न होने पर विनियमित करना" के बजाय, अपेक्षाकृत जल्दी चरण में नियमबद्ध किया है। 2023 में उत्पन्न AI के लिए अस्थायी उपाय लागू किए गए थे, और विनियामक प्राधिकरण (CAC) के केंद्र में शासन को व्यवस्थित किया गया है। चीन कानून अनुवाद


इसके अलावा, चीन में सिफारिश एल्गोरिदम और "गहरी संश्लेषण (deep synthesis)" के संबंध में भी प्रावधान हैं, और तकनीकी श्रेणियों के अनुसार शासन ढांचे को बढ़ाने की प्रवृत्ति रही है। DigiChina


इस "मानवीकरण और भावनात्मक बातचीत AI" विनियमन प्रस्ताव को इस निरंतरता में **"मानव और AI के बीच की सीमा को अस्पष्ट करने वाले क्षेत्र" को नए सिरे से कवर करने** के रूप में देखा जा सकता है। Global Times ने इस विनियमन को जोखिम-आधारित चरणबद्ध निगरानी के रूप में वर्णित किया है, और "नवाचार समर्थन" और "दुरुपयोग की रोकथाम" को एक साथ रखने की व्यवस्था का परिचय दिया है। ग्लोबल टाइम्स


5)सोशल मीडिया की प्रतिक्रिया: समर्थक "उपयोगकर्ता संरक्षण", चिंतित "नियंत्रण और संकोच" की ओर इशारा करते हैं

यह खबर जब विदेशी सोशल मीडिया पर फैली, तो प्रतिक्रियाएं दो भागों में विभाजित हो गईं।


① "विनियमन बहुत देर से आया। बल्कि उन्नत" पक्ष

LinkedIn पर, अमेरिका आदि में "विनियमन नवाचार को मारता है" की धारणा को ध्यान में रखते हुए, चीन का प्रस्ताव सुरक्षा, जवाबदेही, और मानव केंद्रितता को सामने रखता है के रूप में मूल्यांकन किया गया है। उदाहरण के लिए, एक पोस्ट ने कहा, "जबकि कुछ लोग बिना विनियमन के पक्ष में हैं, चीन ने समाज के समग्र AI उपयोग को कवर करने के लिए एक मसौदा प्रस्तुत किया है", और विनियमन की देरी को एक मुद्दा बताया है। LinkedIn


इस दृष्टिकोण से, "AI साथी निर्भरता" या "भावनात्मक हेरफेर" के खिलाफ उपाय वैश्विक रूप से आवश्यक हैं, और नियम बनाने की प्रक्रिया जितनी जल्दी हो सके उतनी जल्दी होनी चाहिए, ऐसी आवाजें उठती हैं।


② "संरक्षण के नाम पर निगरानी बढ़ाना?" पक्ष

दूसरी ओर, Reddit आदि पर, "उपयोगकर्ता की सुरक्षा के लिए विनियमन" और "राज्य द्वारा वांछित सूचना नियंत्रण" को अलग करना चाहिए की चर्चा हो रही है।
उदाहरण के लिए, "चीन में AI और टेक उद्योगों पर कड़े नियम हैं" का उल्लेख किया गया है, और इसके विपरीत "सार्वजनिक और राज्य द्वारा उपयोग की जाने वाली चीजें अलग हैं" जैसी शंकाएं प्रस्तुत की गई हैं, और विनियमन के उद्देश्य पर बहस हो रही है। Reddit


इसके अलावा, एक अन्य थ्रेड में "क्या प्रत्येक देश में 'विचारधारा के अनुरूप AI' बढ़ेगा?" जैसी चिंताएं व्यक्त की गई हैं, जो AI को राजनीतिक और सामाजिक विभाजन का उपकरण बना सकती हैं। Reddit


③ साझा किया गया मुद्दा: "पारदर्शिता" एक न्यूनतम शर्त

भले ही दृष्टिकोण अलग हों, "उपयोगकर्ता को यह समझाना कि वह AI के साथ बातचीत कर रहा है" की पारदर्शिता महत्वपूर्ण है, इस पर आम सहमति बनाना अपेक्षाकृत आसान है। China Daily ने भी उपयोगकर्ताओं को "AI के साथ संवाद कर रहे हैं" के रूप में स्पष्ट करने की आवश्यकता को आवश्यक शर्त के रूप में पेश किया है। China Daily


हालांकि, Bloomberg से संबंधित रिपोर्ट में "हर 2 घंटे की सूचना" पारदर्शिता को सुनिश्चित करने के बावजूद UX को बड़े पैमाने पर बदलने के कारण, "अत्यधिक" और "क्या यह वास्तव में लागू किया जा सकता है" जैसी प्रतिक्रियाएं भविष्य में आ सकती हैं। ##HTML_TAG_355

← लेख सूची पर वापस जाएं

contact |  सेवा की शर्तें |  गोपनीयता नीति |  कुकी नीति |  कुकी सेटिंग्स

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア सभी अधिकार सुरक्षित।