OpenAI ने ChatGPT की नीतियों की पुनः पुष्टि की: "कानूनी और चिकित्सा सलाह पर प्रतिबंध" कोई "नया नियम" नहीं था - क्या बदला है, और क्या नहीं बदला है

OpenAI ने ChatGPT की नीतियों की पुनः पुष्टि की: "कानूनी और चिकित्सा सलाह पर प्रतिबंध" कोई "नया नियम" नहीं था - क्या बदला है, और क्या नहीं बदला है

1. क्या चर्चा का विषय बना - "ChatGPT चिकित्सा और कानूनी परामर्श निषिद्ध?" यह गलतफहमी

2025 के नवंबर की शुरुआत में, सोशल मीडिया पर "ChatGPT ने चिकित्सा, कानूनी और वित्तीय सलाह को पूरी तरह से प्रतिबंधित कर दिया है" के पोस्ट विश्व स्तर पर फैल गए। इसका एक कारण यह था कि समाचार साइटों आदि ने यह रिपोर्ट किया कि "चैटबॉट अब चिकित्सा, कानूनी और वित्तीय मामलों में विशिष्ट सलाह नहीं देगा।"Khaleej Times+1

विशेष रूप से वायरल हुआ संदेश था, बेटिंग प्लेटफॉर्म "Kalshi" द्वारा X पर पोस्ट किया गया "ChatGPT अब स्वास्थ्य या कानूनी सलाह नहीं देगा" (बाद में हटा दिया गया)।The Verge

इससे,

  • "क्या बीमारी के बारे में पूछने पर अब कोई जवाब नहीं मिलेगा?"

  • "क्या अनुबंध की जांच या कर सलाह भी नहीं ली जा सकेगी?"

  • "क्या AI विनियमन के प्रभाव के कारण, ChatGPT 'सिर्फ एक चैट टूल' में डाउनग्रेड हो गया है?"

जैसी चिंताएं और अटकलें, जापान सहित दुनिया भर के उपयोगकर्ताओं के बीच फैल गईं।


हालांकि, OpenAI का आधिकारिक स्पष्टीकरण इसके विपरीत है। NDTV Profit की रिपोर्ट के अनुसार, OpenAI ने स्पष्ट किया कि "ChatGPT का व्यवहार नहीं बदला है" और "कानूनी और चिकित्सा सलाह से संबंधित नियम पहले से मौजूद थे और यह नया नहीं है।"NDTV Profit

2. OpenAI का आधिकारिक स्पष्टीकरण: "मॉडल का व्यवहार नहीं बदला है"

OpenAI के हेल्थ AI प्रमुख करण सिंघल ने सीधे सोशल मीडिया पर इस अफवाह का खंडन किया। The Verge के अनुसार, सिंघल ने X पर पोस्ट किया:The Verge


"यह तथ्य नहीं है। अटकलें फैली हैं, लेकिन यह उपयोग की शर्तों में कोई नया परिवर्तन नहीं है। मॉडल का व्यवहार नहीं बदला है। ChatGPT कभी भी विशेषज्ञों का विकल्प नहीं था, लेकिन यह कानून या स्वास्थ्य जानकारी को समझने में एक उत्कृष्ट संसाधन बना रहेगा।"


मुख्य बिंदु दो हैं।

  1. "नए प्रतिबंध नहीं जोड़े गए हैं"
    कानून, चिकित्सा, वित्तीय आदि 'उच्च जोखिम वाले क्षेत्रों' में "व्यक्तिगत और विशिष्ट सलाह" बिना विशेषज्ञ की भागीदारी के देना निषिद्ध है, यह नियम पहले से ही मौजूद था।The Times of India+1

  2. सामान्य जानकारी प्रदान करना जारी रहेगा
    बीमारी के नाम की सामान्य व्याख्या, कानून और प्रणाली का अवलोकन, मामलों और समाचारों की व्याख्या, स्वास्थ्य संबंधी सामान्य जानकारी आदि "शैक्षिक जानकारी" या "समझने में मदद करने वाली व्याख्या" पहले की तरह जारी रहेगी। OpenAI ने ChatGPT को 'Educational Tool (शैक्षिक उपकरण)' के रूप में स्थान दिया है।NDTV Profit+1


अर्थात, "बिल्कुल जवाब नहीं देगा" ऐसा नहीं है, बल्कि "जो पहले से नहीं करना चाहिए था" उसे फिर से स्पष्ट किया गया है, और "वहां AI नहीं बल्कि मानव विशेषज्ञ से परामर्श करना चाहिए" इस पर जोर दिया गया है।

3. 29 अक्टूबर की Usage Policy संशोधन में वास्तव में क्या हुआ

तो, 2025 के 29 अक्टूबर के अपडेट में क्या बदला? OpenAI ने अपनी आधिकारिक साइट पर Usage Policies (उपयोग नीतियों) को अपडेट किया और कई दस्तावेजों को एकीकृत किया।OpenAI+1


3-1. नीति दस्तावेजों का एकीकरण और अभिव्यक्ति का समायोजन

पहले,

  • सभी उपयोगकर्ताओं के लिए सामान्य "यूनिवर्सल पॉलिसी"

  • ChatGPT के लिए विशेष नीति

  • डेवलपर्स के लिए API की नीति

आदि, उपयोग के अनुसार दस्तावेज़ विभाजित थे। इस संशोधन में, इन्हें एकीकृत किया गया और "OpenAI की सभी सेवाओं के लिए सामान्य Usage Policies" के रूप में व्यवस्थित किया गया।The Times of India


इसके अलावा,

  • "लोगों की सुरक्षा करना (Protect people)"

  • "गोपनीयता का सम्मान करना (Respect privacy)"

जैसे बड़े स्तंभ स्थापित किए गए और उनके अंतर्गत निषिद्ध उपयोग के उदाहरण सूचीबद्ध किए गए।



3-2. कानून और चिकित्सा सलाह के बारे में विशिष्ट विवरण

Usage Policies के "Protect people" अनुभाग में, निषिद्ध कार्यों में से एक के रूप में निम्नलिखित वाक्यांश शामिल है।OpenAI

"लाइसेंस की आवश्यकता वाले क्षेत्रों (जैसे कानून या चिकित्सा) में 'व्यक्तिगत और विशिष्ट सलाह (tailored advice)' बिना उचित योग्यता वाले विशेषज्ञ की भागीदारी के प्रदान करना"


यह, पहले की नीति में शामिल था,

"लोगों की सुरक्षा, अधिकार और कल्याण को गंभीर रूप से प्रभावित करने वाले कार्यों के रूप में, विशेषज्ञ समीक्षा के बिना, कानून, चिकित्सा या वित्तीय मामलों में व्यक्तिगत सलाह प्रदान करना निषिद्ध है"

यह वाक्यांश और उद्देश्य लगभग समान हैं।The Times of India+1

अर्थात, सामग्री में "निरंतरता" और "अभिव्यक्ति का समायोजन" है, और कोई नया निषिद्ध आइटम अचानक नहीं जोड़ा गया है।



3-3. उच्च जोखिम वाले क्षेत्रों में स्वचालन की सीमा

इस नीति में, कानून, चिकित्सा, वित्तीय, आवास, रोजगार, बीमा आदि "लोगों के जीवन पर बड़ा प्रभाव डालने वाले क्षेत्रों" में, केवल AI के माध्यम से निर्णय लेने को स्वचालित करना भी सीमित किया गया है।Khaleej Times+1


  • केवल AI के माध्यम से भर्ती या बर्खास्तगी का निर्णय लेना

  • केवल AI के माध्यम से बीमा भुगतान की स्वीकृति का निर्णय लेना

  • केवल AI के माध्यम से उपचार योजना का निर्णय लेना


जैसी चीजें, सभी उच्च जोखिम के साथ होती हैं। OpenAI का कहना है कि ऐसे उपयोगों में हमेशा मानव विशेषज्ञ की समीक्षा या निर्णय शामिल होना चाहिए।

4. "कानूनी और चिकित्सा सलाह" को सीमित क्यों किया जाता है

OpenAI के लिए कानूनी और चिकित्सा सलाह में सावधानी बरतने के कई कारण हैं।


4-1. जानकारी की त्रुटि या अपूर्णता के कारण जोखिम

जनरेटिव AI, यथार्थवादी पाठ बनाने के साथ-साथ, तथ्यात्मक गलतफहमी (जिसे "हैलुसिनेशन" कहा जाता है) का कारण बन सकता है। विशेष रूप से चिकित्सा और कानून में,

  • थोड़े से तथ्य के अंतर से निष्कर्ष बदल सकते हैं

  • देश या क्षेत्र, समय के अनुसार नियम भिन्न हो सकते हैं

  • व्यक्ति के लक्षण या परिस्थितियों के अनुसार सर्वोत्तम समाधान बदल सकते हैं

जैसी विशेषताएं हैं, और "सामान्य सिद्धांत" को सीधे व्यक्ति के मामले में लागू करना खतरनाक हो सकता है।


उदाहरण के लिए,

  • भले ही बीमारी का नाम वही हो, सहवर्ती रोग या दवाओं के आधार पर सुरक्षित उपचार विधि बदल सकती है।

  • अनुबंध विवाद में भी, अनुबंध की धाराओं या दूसरी पार्टी के साथ बातचीत के विवरण के आधार पर कार्रवाई बदल सकती है।

ऐसी स्थितियों में AI द्वारा गलत सलाह दी जा सकती है, और यदि उपयोगकर्ता इसे "विशेषज्ञ की राय" समझ लेता है, तो स्वास्थ्य हानि या कानूनी विवाद वास्तविकता में हो सकते हैं।

4-2. जिम्मेदारी की स्थिति अस्पष्ट हो सकती है

यदि AI की सलाह पर विश्वास करके कार्य करने के परिणामस्वरूप गंभीर हानि होती है, तो "कौन जिम्मेदार होगा" का प्रश्न उठता है।

  • AI प्रदाता कंपनी है या

  • मॉडल का उपयोग करने वाला डेवलपर है या

  • AI की सलाह को अपनाने वाला उपयोगकर्ता स्वयं है या

  • या फिर, AI को अपनाने का निर्णय लेने वाला संगठन है


वर्तमान में, विभिन्न देशों में इस पर चर्चा चल रही है, और कई हिस्सों में स्पष्ट नियम नहीं हैं। OpenAI इस "ग्रे ज़ोन" में अनावश्यक रूप से जोखिम नहीं बढ़ाने के लिए,उच्च जोखिम वाले क्षेत्रों में 'AI अकेला निर्णय' से बचनेकी दिशा दिखा रहा है।



4-3. पेशेवर नैतिक मानदंडों के साथ संगति

##