मुख्य सामग्री पर जाएं
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア लोगो
  • सभी लेख
  • 🗒️ रजिस्टर
  • 🔑 लॉगिन
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
cookie_banner_title

cookie_banner_message गोपनीयता नीति cookie_banner_and कुकी नीति cookie_banner_more_info

कुकी सेटिंग्स

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

OpenAI ने ChatGPT की नीतियों की पुनः पुष्टि की: "कानूनी और चिकित्सा सलाह पर प्रतिबंध" कोई "नया नियम" नहीं था - क्या बदला है, और क्या नहीं बदला है

OpenAI ने ChatGPT की नीतियों की पुनः पुष्टि की: "कानूनी और चिकित्सा सलाह पर प्रतिबंध" कोई "नया नियम" नहीं था - क्या बदला है, और क्या नहीं बदला है

2025年11月16日 19:57

1. क्या चर्चा का विषय बना - "ChatGPT चिकित्सा और कानूनी परामर्श निषिद्ध?" यह गलतफहमी

2025 के नवंबर की शुरुआत में, सोशल मीडिया पर "ChatGPT ने चिकित्सा, कानूनी और वित्तीय सलाह को पूरी तरह से प्रतिबंधित कर दिया है" के पोस्ट विश्व स्तर पर फैल गए। इसका एक कारण यह था कि समाचार साइटों आदि ने यह रिपोर्ट किया कि "चैटबॉट अब चिकित्सा, कानूनी और वित्तीय मामलों में विशिष्ट सलाह नहीं देगा।"Khaleej Times+1

विशेष रूप से वायरल हुआ संदेश था, बेटिंग प्लेटफॉर्म "Kalshi" द्वारा X पर पोस्ट किया गया "ChatGPT अब स्वास्थ्य या कानूनी सलाह नहीं देगा" (बाद में हटा दिया गया)।The Verge

इससे,

  • "क्या बीमारी के बारे में पूछने पर अब कोई जवाब नहीं मिलेगा?"

  • "क्या अनुबंध की जांच या कर सलाह भी नहीं ली जा सकेगी?"

  • "क्या AI विनियमन के प्रभाव के कारण, ChatGPT 'सिर्फ एक चैट टूल' में डाउनग्रेड हो गया है?"

जैसी चिंताएं और अटकलें, जापान सहित दुनिया भर के उपयोगकर्ताओं के बीच फैल गईं।


हालांकि, OpenAI का आधिकारिक स्पष्टीकरण इसके विपरीत है। NDTV Profit की रिपोर्ट के अनुसार, OpenAI ने स्पष्ट किया कि "ChatGPT का व्यवहार नहीं बदला है" और "कानूनी और चिकित्सा सलाह से संबंधित नियम पहले से मौजूद थे और यह नया नहीं है।"NDTV Profit



2. OpenAI का आधिकारिक स्पष्टीकरण: "मॉडल का व्यवहार नहीं बदला है"

OpenAI के हेल्थ AI प्रमुख करण सिंघल ने सीधे सोशल मीडिया पर इस अफवाह का खंडन किया। The Verge के अनुसार, सिंघल ने X पर पोस्ट किया:The Verge


"यह तथ्य नहीं है। अटकलें फैली हैं, लेकिन यह उपयोग की शर्तों में कोई नया परिवर्तन नहीं है। मॉडल का व्यवहार नहीं बदला है। ChatGPT कभी भी विशेषज्ञों का विकल्प नहीं था, लेकिन यह कानून या स्वास्थ्य जानकारी को समझने में एक उत्कृष्ट संसाधन बना रहेगा।"


मुख्य बिंदु दो हैं।

  1. "नए प्रतिबंध नहीं जोड़े गए हैं"
    कानून, चिकित्सा, वित्तीय आदि 'उच्च जोखिम वाले क्षेत्रों' में "व्यक्तिगत और विशिष्ट सलाह" बिना विशेषज्ञ की भागीदारी के देना निषिद्ध है, यह नियम पहले से ही मौजूद था।The Times of India+1

  2. सामान्य जानकारी प्रदान करना जारी रहेगा
    बीमारी के नाम की सामान्य व्याख्या, कानून और प्रणाली का अवलोकन, मामलों और समाचारों की व्याख्या, स्वास्थ्य संबंधी सामान्य जानकारी आदि "शैक्षिक जानकारी" या "समझने में मदद करने वाली व्याख्या" पहले की तरह जारी रहेगी। OpenAI ने ChatGPT को 'Educational Tool (शैक्षिक उपकरण)' के रूप में स्थान दिया है।NDTV Profit+1


अर्थात, "बिल्कुल जवाब नहीं देगा" ऐसा नहीं है, बल्कि "जो पहले से नहीं करना चाहिए था" उसे फिर से स्पष्ट किया गया है, और "वहां AI नहीं बल्कि मानव विशेषज्ञ से परामर्श करना चाहिए" इस पर जोर दिया गया है।



3. 29 अक्टूबर की Usage Policy संशोधन में वास्तव में क्या हुआ

तो, 2025 के 29 अक्टूबर के अपडेट में क्या बदला? OpenAI ने अपनी आधिकारिक साइट पर Usage Policies (उपयोग नीतियों) को अपडेट किया और कई दस्तावेजों को एकीकृत किया।OpenAI+1


3-1. नीति दस्तावेजों का एकीकरण और अभिव्यक्ति का समायोजन

पहले,

  • सभी उपयोगकर्ताओं के लिए सामान्य "यूनिवर्सल पॉलिसी"

  • ChatGPT के लिए विशेष नीति

  • डेवलपर्स के लिए API की नीति

आदि, उपयोग के अनुसार दस्तावेज़ विभाजित थे। इस संशोधन में, इन्हें एकीकृत किया गया और "OpenAI की सभी सेवाओं के लिए सामान्य Usage Policies" के रूप में व्यवस्थित किया गया।The Times of India


इसके अलावा,

  • "लोगों की सुरक्षा करना (Protect people)"

  • "गोपनीयता का सम्मान करना (Respect privacy)"

जैसे बड़े स्तंभ स्थापित किए गए और उनके अंतर्गत निषिद्ध उपयोग के उदाहरण सूचीबद्ध किए गए।



3-2. कानून और चिकित्सा सलाह के बारे में विशिष्ट विवरण

Usage Policies के "Protect people" अनुभाग में, निषिद्ध कार्यों में से एक के रूप में निम्नलिखित वाक्यांश शामिल है।OpenAI

"लाइसेंस की आवश्यकता वाले क्षेत्रों (जैसे कानून या चिकित्सा) में 'व्यक्तिगत और विशिष्ट सलाह (tailored advice)' बिना उचित योग्यता वाले विशेषज्ञ की भागीदारी के प्रदान करना"


यह, पहले की नीति में शामिल था,

"लोगों की सुरक्षा, अधिकार और कल्याण को गंभीर रूप से प्रभावित करने वाले कार्यों के रूप में, विशेषज्ञ समीक्षा के बिना, कानून, चिकित्सा या वित्तीय मामलों में व्यक्तिगत सलाह प्रदान करना निषिद्ध है"

यह वाक्यांश और उद्देश्य लगभग समान हैं।The Times of India+1

अर्थात, सामग्री में "निरंतरता" और "अभिव्यक्ति का समायोजन" है, और कोई नया निषिद्ध आइटम अचानक नहीं जोड़ा गया है।



3-3. उच्च जोखिम वाले क्षेत्रों में स्वचालन की सीमा

इस नीति में, कानून, चिकित्सा, वित्तीय, आवास, रोजगार, बीमा आदि "लोगों के जीवन पर बड़ा प्रभाव डालने वाले क्षेत्रों" में, केवल AI के माध्यम से निर्णय लेने को स्वचालित करना भी सीमित किया गया है।Khaleej Times+1


  • केवल AI के माध्यम से भर्ती या बर्खास्तगी का निर्णय लेना

  • केवल AI के माध्यम से बीमा भुगतान की स्वीकृति का निर्णय लेना

  • केवल AI के माध्यम से उपचार योजना का निर्णय लेना


जैसी चीजें, सभी उच्च जोखिम के साथ होती हैं। OpenAI का कहना है कि ऐसे उपयोगों में हमेशा मानव विशेषज्ञ की समीक्षा या निर्णय शामिल होना चाहिए।



4. "कानूनी और चिकित्सा सलाह" को सीमित क्यों किया जाता है

OpenAI के लिए कानूनी और चिकित्सा सलाह में सावधानी बरतने के कई कारण हैं।


4-1. जानकारी की त्रुटि या अपूर्णता के कारण जोखिम

जनरेटिव AI, यथार्थवादी पाठ बनाने के साथ-साथ, तथ्यात्मक गलतफहमी (जिसे "हैलुसिनेशन" कहा जाता है) का कारण बन सकता है। विशेष रूप से चिकित्सा और कानून में,

  • थोड़े से तथ्य के अंतर से निष्कर्ष बदल सकते हैं

  • देश या क्षेत्र, समय के अनुसार नियम भिन्न हो सकते हैं

  • व्यक्ति के लक्षण या परिस्थितियों के अनुसार सर्वोत्तम समाधान बदल सकते हैं

जैसी विशेषताएं हैं, और "सामान्य सिद्धांत" को सीधे व्यक्ति के मामले में लागू करना खतरनाक हो सकता है।


उदाहरण के लिए,

  • भले ही बीमारी का नाम वही हो, सहवर्ती रोग या दवाओं के आधार पर सुरक्षित उपचार विधि बदल सकती है।

  • अनुबंध विवाद में भी, अनुबंध की धाराओं या दूसरी पार्टी के साथ बातचीत के विवरण के आधार पर कार्रवाई बदल सकती है।

ऐसी स्थितियों में AI द्वारा गलत सलाह दी जा सकती है, और यदि उपयोगकर्ता इसे "विशेषज्ञ की राय" समझ लेता है, तो स्वास्थ्य हानि या कानूनी विवाद वास्तविकता में हो सकते हैं।

4-2. जिम्मेदारी की स्थिति अस्पष्ट हो सकती है

यदि AI की सलाह पर विश्वास करके कार्य करने के परिणामस्वरूप गंभीर हानि होती है, तो "कौन जिम्मेदार होगा" का प्रश्न उठता है।

  • AI प्रदाता कंपनी है या

  • मॉडल का उपयोग करने वाला डेवलपर है या

  • AI की सलाह को अपनाने वाला उपयोगकर्ता स्वयं है या

  • या फिर, AI को अपनाने का निर्णय लेने वाला संगठन है


वर्तमान में, विभिन्न देशों में इस पर चर्चा चल रही है, और कई हिस्सों में स्पष्ट नियम नहीं हैं। OpenAI इस "ग्रे ज़ोन" में अनावश्यक रूप से जोखिम नहीं बढ़ाने के लिए,उच्च जोखिम वाले क्षेत्रों में 'AI अकेला निर्णय' से बचनेकी दिशा दिखा रहा है।



4-3. पेशेवर नैतिक मानदंडों के साथ संगति

##
← लेख सूची पर वापस जाएं

contact |  सेवा की शर्तें |  गोपनीयता नीति |  कुकी नीति |  कुकी सेटिंग्स

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア सभी अधिकार सुरक्षित।