क्या AI ने आपातकालीन चिकित्सकों को पीछे छोड़ दिया है? हार्वर्ड के अध्ययन ने "निदान के भविष्य" को उजागर किया

क्या AI ने आपातकालीन चिकित्सकों को पीछे छोड़ दिया है? हार्वर्ड के अध्ययन ने "निदान के भविष्य" को उजागर किया

क्या AI ने आपातकालीन डॉक्टरों को पछाड़ दिया है? हार्वर्ड अध्ययन ने "भविष्य की निदान" को उजागर किया

आपातकालीन विभाग में लाए गए मरीज के सामने, सीमित जानकारी से प्रारंभिक निर्णय लेना।
उस निर्णय में, कभी-कभी कुछ मिनटों, कुछ सेकंड की देरी से जीवन पर असर पड़ सकता है।

इस अत्यधिक तनावपूर्ण चिकित्सा वातावरण में, AI ने मानव डॉक्टरों की तुलना में अधिक सटीक निदान दिया - ऐसी खबरें न केवल चिकित्सा पेशेवरों के बीच, बल्कि टेक उद्योग और सोशल मीडिया में भी बड़ी हलचल मचा रही हैं।

TechCrunch ने हार्वर्ड मेडिकल स्कूल और Beth Israel Deaconess Medical Center की शोध टीम द्वारा किए गए नए अध्ययन की रिपोर्ट दी। इस अध्ययन में, OpenAI के अनुमान मॉडल "o1" और "GPT-4o" आदि को कई चिकित्सा कार्यों में मानव डॉक्टरों के साथ तुलना की गई। इनमें से विशेष रूप से ध्यान आकर्षित करने वाला था, वास्तविक आपातकालीन विभाग के मामलों का उपयोग करके निदान क्षमता की तुलना।

शोध में शामिल थे, Beth Israel के आपातकालीन विभाग में इलाज के लिए आए 76 मरीज। शोध टीम ने इलेक्ट्रॉनिक मेडिकल रिकॉर्ड्स की जानकारी के आधार पर, दो आंतरिक चिकित्सा विशेषज्ञों और AI मॉडल को निदान प्रस्तुत करने के लिए कहा। इसके बाद, दो अन्य डॉक्टरों ने, यह जाने बिना कि कौन सा निदान मानव द्वारा और कौन सा AI द्वारा किया गया था, उनका मूल्यांकन किया।

परिणाम चौंकाने वाले थे। प्रारंभिक ट्रायेज के चरण में, OpenAI का o1 "सटीक या बहुत करीब निदान" 67% मामलों में प्रस्तुत किया। दूसरी ओर, मानव डॉक्टरों ने क्रमशः 55% और 50% मामलों में ऐसा किया। इसका मतलब है कि कम से कम इस शोध की शर्तों के तहत, AI ने सीमित प्रारंभिक जानकारी से बीमारी का नाम तय करने के कार्य में मानव डॉक्टरों को पछाड़ दिया।

इसके अलावा, जब अधिक जानकारी उपलब्ध थी, o1 की निदान सटीकता रिपोर्ट के अनुसार लगभग 82% तक बढ़ गई। मानव डॉक्टरों ने भी 70-79% तक सटीकता बढ़ाई, लेकिन AI ने इसके बराबर या थोड़ा अधिक स्तर दिखाया।

इन आंकड़ों को देखकर, "आखिरकार AI ने डॉक्टरों को पछाड़ दिया" कहना चाहेंगे। वास्तव में, सोशल मीडिया पर भी ऐसी ही प्रतिक्रिया देखने को मिल रही है। लेकिन इस शोध ने वास्तव में जो दिखाया है, वह कहीं अधिक जटिल और कहीं अधिक यथार्थवादी चिकित्सा AI की तस्वीर है।


AI की विशेषज्ञता "कागज पर नैदानिक तर्क" में थी

इस अध्ययन में AI ने जो जानकारी प्रोसेस की, वह इलेक्ट्रॉनिक मेडिकल रिकॉर्ड्स में दर्ज टेक्स्ट जानकारी थी। मरीज की जीवन शक्ति, उम्र, पूर्व इतिहास, नर्स द्वारा लिखित संक्षिप्त रिकॉर्ड, परीक्षण जानकारी आदि, जो डॉक्टर निदान के लिए उपयोग करते हैं।

महत्वपूर्ण बात यह है कि AI ने मरीज के चेहरे का रंग नहीं देखा, सांस की कठिनाई का अवलोकन नहीं किया, या पेट की जांच नहीं की। मरीज की आवाज की कंपन, चलने का तरीका, पसीने की मात्रा, साथ आए परिवार की प्रतिक्रिया, और चिकित्सा स्टाफ के बीच की वायुमंडल जैसी जानकारी, जो डॉक्टर अनजाने में उठाते हैं, शामिल नहीं थी।

इसका मतलब है कि इस बार AI ने "आपातकालीन कक्ष में मरीज को देखा" नहीं, बल्कि "आपातकालीन कक्ष में दर्ज टेक्स्ट जानकारी से निदान सोचा"।

यह बिंदु, सोशल मीडिया पर चिकित्सा पेशेवरों और तकनीकी विशेषज्ञों द्वारा भी जोरदार रूप से उठाया गया है। Hacker News पर, "डॉक्टर वास्तव में केवल नोट्स देखकर आपातकालीन मरीज का निदान नहीं करते" की भावना वाली टिप्पणियों को समर्थन मिला। AI द्वारा मूल्यांकित कार्य, वास्तविक आपातकालीन चिकित्सा के एक हिस्से को काटकर लिया गया था, और केवल परिणामों के आधार पर "AI आपातकालीन डॉक्टरों को बदल देगा" का निष्कर्ष निकालना जल्दबाजी होगी, यह दृष्टिकोण है।

Reddit पर भी इसी तरह, "तुलना का विषय आपातकालीन डॉक्टर नहीं बल्कि आंतरिक चिकित्सा विशेषज्ञ थे" और "आपातकालीन विभाग का मुख्य उद्देश्य अंतिम निदान को सही ठहराना नहीं, बल्कि जीवन के लिए खतरनाक स्थितियों को नजरअंदाज नहीं करना है" जैसी प्रतिक्रियाएं प्रमुख थीं। यह एक बहुत ही महत्वपूर्ण मुद्दा है।

आपातकालीन चिकित्सा में, "इस मरीज का अंतिम निदान क्या है" के अलावा, "क्या अभी जान का खतरा है", "क्या तुरंत उपचार की आवश्यकता है", "क्या घर भेजा जा सकता है", "क्या विशेषज्ञ विभाग को सौंपना चाहिए" भी पूछा जाता है। निदान नाम को सटीकता से पहचानने की क्षमता और खतरनाक स्थितियों को नजरअंदाज किए बिना सुरक्षित रूप से विभाजित करने की क्षमता, कुछ हद तक ओवरलैप करती है लेकिन समान नहीं है।


फिर भी "67%" का महत्व नजरअंदाज नहीं किया जा सकता

फिर भी, इस परिणाम को केवल एक अतिशयोक्ति के रूप में खारिज करना भी खतरनाक है।

आपातकालीन विभाग के प्रारंभिक चरण में, जानकारी कम होती है। परीक्षण परिणाम अक्सर अभी तक नहीं आए होते हैं, और मरीज स्वयं अपने लक्षणों को ठीक से नहीं समझा पाते हैं। बुजुर्ग, चेतना विकार वाले मरीज, भाषा की बाधा वाले मरीजों के मामले में, कठिनाई और बढ़ जाती है।

ऐसे परिदृश्य में, यदि AI इलेक्ट्रॉनिक मेडिकल रिकॉर्ड्स की जानकारी को व्यापक रूप से पढ़कर, विभेदक निदान के विकल्पों को व्यापक रूप से प्रस्तुत कर सकता है, तो यह डॉक्टर के लिए एक उपयोगी "दूसरी नजर" बन सकता है।

The Guardian द्वारा प्रस्तुत एक मामले में, फेफड़े के एम्बोलिज्म वाले मरीज की स्थिति उपचार के बाद बिगड़ गई, डॉक्टर ने संदेह किया कि एंटीकोएगुलेंट दवाएं काम नहीं कर रही थीं। दूसरी ओर, AI ने मरीज के ल्यूपस के इतिहास पर ध्यान केंद्रित किया और फेफड़ों की सूजन की संभावना का सुझाव दिया। अंततः, AI का सुझाव सही था।

ऐसे उदाहरण, चिकित्सा AI की ताकत को अच्छी तरह से दर्शाते हैं। मानव डॉक्टर सीमित समय, थकान, मरीजों की संख्या, पिछले अनुभव, विशेषज्ञता के पूर्वाग्रह से प्रभावित होते हैं। AI बिना थके, इलेक्ट्रॉनिक मेडिकल रिकॉर्ड्स में मौजूद विशाल जानकारी को एक बार में पढ़ सकता है और अक्सर नजरअंदाज किए गए इतिहास और परीक्षण मूल्यों के संयोजन को उठा सकता है।

बेशक, AI में भी पूर्वाग्रह और गलतियाँ होती हैं। लेकिन अगर यह मनुष्यों से अलग तरीके से नजरअंदाज करता है, तो डॉक्टर और AI का संयोजन, अकेले डॉक्टर की तुलना में सुरक्षा बढ़ा सकता है।


"AI बनाम डॉक्टर" नहीं बल्कि "डॉक्टर + AI" की ओर

इस शोध का सार यह नहीं है कि "AI डॉक्टरों को बदल देगा"। बल्कि, यह "डॉक्टर AI का उपयोग कैसे करें" के प्रश्न के करीब है।

शोधकर्ता स्वयं यह दावा नहीं कर रहे हैं कि AI आपातकालीन विभाग में जीवन-मृत्यु के निर्णय अकेले कर सकता है। बल्कि, वे वास्तविक मरीज देखभाल में सुरक्षा और प्रभावशीलता को सत्यापित करने के लिए सकारात्मक नैदानिक परीक्षण की आवश्यकता पर जोर दे रहे हैं।

चिकित्सा AI पर चर्चा में अक्सर होने वाली गलतफहमी यह है कि AI की क्षमता को "मानव का पूर्ण प्रतिस्थापन" के रूप में मूल्यांकित किया जाता है। लेकिन वास्तविक चिकित्सा क्षेत्र में, इमेजिंग निदान AI, दवा पारस्परिकता जांच, चिकित्सा रिकॉर्ड निर्माण सहायता, जोखिम पूर्वानुमान मॉडल आदि, पहले से ही कई AI प्रणाली सहायक रूप से उपयोग की जा रही हैं।

इस अध्ययन से यह पता चलता है कि जनरेटिव AI और बड़े भाषा मॉडल, केवल टेक्स्ट जनरेशन टूल से "नैदानिक तर्क समर्थन उपकरण" की ओर विकसित हो रहे हैं।

मरीज के लक्षण, पूर्व इतिहास, परीक्षण मूल्य, पिछले चिकित्सा रिकॉर्ड को एकीकृत कर, "क्या इस बीमारी पर विचार नहीं करना चाहिए", "क्या इस परीक्षण को जोड़ना चाहिए", "क्या इस दवा चयन में जोखिम है" का सुझाव देते हैं। ऐसे उपयोग के साथ, AI डॉक्टर का प्रतिस्थापन नहीं, बल्कि निदान के जाल को विस्तारित करने वाला सहायक बन सकता है।

The Guardian द्वारा प्रस्तुत Adam Rodman डॉक्टर की दृष्टि भी इसी दिशा के करीब है। भविष्य की चिकित्सा "डॉक्टर, मरीज, AI" के त्रिकोणीय मॉडल की ओर बढ़ सकती है।


SNS पर फैली उम्मीदें और सावधानियाँ

 

SNS की प्रतिक्रियाएँ तीन मुख्य श्रेणियों में विभाजित होती हैं।

पहली है, AI चिकित्सा के प्रति उम्मीद। Hacker News पर, "दीर्घकालिक रूप से, चिकित्सा जैसे ज्ञान, अनुभव, पैटर्न पहचान के क्षेत्र में, AI के मानव को पार करने की संभावना अधिक है" की राय देखी गई। जैसे सॉफ्टवेयर विकास में AI तेजी से अपनी शक्ति दिखा रहा है, चिकित्सा में भी विशेषज्ञ मॉडल के विकास से, कई डॉक्टरों को पार करने वाले क्षेत्र बढ़ सकते हैं।

इस दृष्टिकोण के लोग, चिकित्सा क्षेत्र की वास्तविकता पर भी ध्यान केंद्रित कर रहे हैं। डॉक्टर व्यस्त होते हैं, एक मरीज पर खर्च करने का समय सीमित होता है। चिकित्सा रिकॉर्ड विशाल होते हैं, विशेषज्ञता का ज्ञान प्रतिदिन अपडेट होता है। यदि AI को सही तरीके से लागू किया जाए, तो यह नजरअंदाजियों को कम कर सकता है और ग्रामीण या डॉक्टर की कमी वाले क्षेत्रों में चिकित्सा स्तर को ऊंचा कर सकता है।

दूसरी है, शोध डिजाइन के प्रति सावधानी। Reddit पर, "शीर्षक भ्रामक है" की प्रतिक्रिया प्रमुख थी। तुलना का विषय "आपातकालीन डॉक्टर" नहीं बल्कि "आंतरिक चिकित्सा विशेषज्ञ" था, आपातकालीन चिकित्सा का उद्देश्य हमेशा अंतिम निदान की सटीकता नहीं होता, AI ने वास्तविक मरीज का परीक्षण नहीं किया, इस पर आलोचना की जा रही है।

Hacker News पर भी, "ऐसे बेंचमार्क आसानी से विकृत हो सकते हैं", "एकल अध्ययन से मजबूत निष्कर्ष नहीं निकालना चाहिए" की आवाजें थीं। AI मूल्यांकन में, डेटा सेट में अनजाने संकेत शामिल हो सकते हैं, या कार्य सेटिंग्स वास्तविक कार्य से भिन्न हो सकती हैं। चिकित्सा जैसे उच्च-जोखिम वाले क्षेत्र में, बेंचमार्क पर जीत और नैदानिक क्षेत्र में सुरक्षा को अलग से देखना आवश्यक है।

तीसरी है, जिम्मेदारी और नैतिकता के प्रति चिंता। Reddit पर, "यदि AI के निदान की गलती से मरीज की मृत्यु हो जाती है, तो जिम्मेदारी कौन लेगा" की भावना वाली प्रतिक्रियाएं देखी गईं। डॉक्टर के मामले में, चिकित्सा त्रुटि, जवाबदेही, पेशेवर के रूप में कर्तव्य होते हैं। लेकिन AI मॉडल के मामले में, जिम्मेदारी विकास कंपनी, लागू अस्पताल, उपयोगकर्ता डॉक्टर, नियामक प्राधिकरण के बीच कहां रखी जाएगी, यह अस्पष्ट है।

यह समस्या, चिकित्सा AI के प्रसार में सबसे बड़ी बाधाओं में से एक है। AI सही निदान देता है या नहीं, इसके अलावा, जब यह गलती करता है तो कौन जांच करेगा, कौन समझाएगा, कौन मरीज के सामने आएगा। जब तक यह व्यवस्थित नहीं होता, चिकित्सा क्षेत्र में AI पर पूरी तरह से भरोसा करना मुश्किल होगा।


"सुविधाजनक दूसरी राय" और "खतरनाक स्वचालन" की सीमा

इस अध्ययन के आधार पर, चिकित्सा AI का सबसे यथार्थवादी उपयोग, वर्तमान में "दूसरी राय" हो सकता है।

उदाहरण के लिए, जब डॉक्टर निदान पर विचार करते हैं, AI विभेदक विकल्प प्रस्तुत करता है। नजरअंदाज किए जाने वाले रोग, गंभीर लेकिन कम आवृत्ति वाले रोग, दवा इतिहास या पूर्व इतिहास से उभरने वाले जोखिम को दिखाता है। डॉक्टर इसे संदर्भ के रूप में लेते हुए, अपनी जांच, परीक्षण, मरीज के साथ संवाद के आधार पर अंतिम निर्णय लेते हैं।

इस रूप में, AI की ताकत का उपयोग करते हुए, मानव की जिम्मेदारी और निर्णय को बनाए रखा जा सकता है। विशेष रूप से आपातकालीन विभाग जैसे समय सीमित और निर्णय के दबाव वाले वातावरण में, AI "विचार की कमी" को कम करने का प्रभाव डाल सकता है।

दूसरी ओर, खतरनाक है AI के सुझाव को सीधे स्वीकार करने का स्वचालन। जब AI आत्मविश्वास से गलत निदान प्रस्तुत करता है, तो मानव उसके प्रभाव में आ सकता है। The Guardian द्वारा प्रस्तुत विशेषज्ञ टिप्पणी में भी, डॉक्टरों के AI के उत्तर का अनजाने में पालन करने के जोखिम की ओर इशारा किया गया है।

यह "स्वचालन पूर्वाग्रह" की समस्या के करीब है। मानव, कंप्यूटर द्वारा दिए गए उत्तर को वस्तुनिष्ठ और सटीक मानने की प्रवृत्ति रखते हैं। विशेष रूप से व्यस्त क्षेत्र में, "AI भी ऐसा कह रहा है" का आश्वासन, स्वतंत्र सोच को कमजोर करने का खतरा होता है।

इसलिए, चिकित्सा AI को लागू करते समय, केवल उच्च सटीकता वाले मॉडल को स्थापित करना पर्याप्त नहीं है। डॉक्टर AI के सुझावों को कैसे सत्यापित करेंगे, AI की गलतियों को कैसे पहचानेंगे, मरीज को कैसे समझाएंगे, रिकॉर्ड में कैसे दर्ज करेंगे, यह सब डिजाइन करना आवश्यक है।


मरीज के लिए लाभ और जोखिम

मरीज की दृष्टि से, AI निदान समर्थन में बड़ी उम्मीदें हैं।

डॉक्टर द्वारा नजरअंदाज किए जाने की संभावना कम हो सकती है। दुर्लभ रोगों की पहचान जल्दी हो सकती है। ग्रामीण छोटे अस्पतालों में भी, बड़े अस्पतालों के समान ज्ञान समर्थन मिल सकता है। रात या छुट्टी के समय, जब विशेषज्ञ डॉक्टर तुरंत उपलब्ध नहीं होते, AI महत्वपूर्ण विकल्प प्रस्तुत कर सकता है।

दूसरी ओर, मरीज सीधे AI में लक्षण डालकर, बिना डॉक्टर की जांच के आत्मनिर्णय का जोखिम भी बढ़ता है। इस अध्ययन ने केवल चिकित्सा क्षेत्र के डेटा का उपयोग किया है और डॉक्टर के मूल्यांकन के बीच AI की तुलना की है। आम लोग स्वतंत्र रूप से उपयोग कर सकने वाले चैटबॉट में लक्षण डालकर समान सटीकता प्राप्त होगी, यह बात नहीं है।

बल्कि, मरीज स्वयं अपने लक्षणों को कैसे व्यक्त करता है, इसके आधार पर AI का उत्तर बहुत बदल सकता है। यदि महत्वपूर्ण लक्षणों को लिखने में चूक होती है, या मरीज खुद को महत्वपूर्ण न समझने वाली जानकारी को छोड़ देता है, तो AI गलत दिशा में जा सकता है। डॉक्टर की पूछताछ और शारीरिक जांच में, मरीज द्वारा शब्दों में न कहे जा सकने वाली जानकारी को उठाने की भूमिका होती है।

इसलिए, इस अध्ययन का संदेश "AI से जांच करवा लें तो अस्पताल की जरूरत नहीं" नहीं है। अधिक सटीक रूप से, "यदि डॉक्टर AI का सही तरीके से उपयोग करते हैं, तो निदान की गुणवत्ता को बढ़ाया जा सकता है" का संदेश है।


##HTML_TAG