डॉक्टरों द्वारा नजरअंदाज की गई और AI द्वारा पकड़ी गई असामान्यता - कई वर्षों तक गलत निदान की गई महिला को AI के माध्यम से मिला "वास्तविक बीमारी का नाम"

डॉक्टरों द्वारा नजरअंदाज की गई और AI द्वारा पकड़ी गई असामान्यता - कई वर्षों तक गलत निदान की गई महिला को AI के माध्यम से मिला "वास्तविक बीमारी का नाम"

"AI ने महिला की दुर्लभ बीमारी का पता लगाया"। इस तरह की सुर्खियों को देखकर ऐसा लगता है जैसे डॉक्टरों से ज्यादा चैटबॉट्स बेहतर हैं। लेकिन इस घटना का असली मुद्दा AI की सर्वज्ञता से पहले यह है कि मरीज की शिकायतों को वर्षों तक गंभीरता से नहीं लिया गया। वेल्स, यूके के कार्डिफ में रहने वाली 23 वर्षीय फीबी टेसोरीयर लंबे समय से चिंता, अवसाद, मिर्गी जैसी कई व्याख्याओं के साथ चलने में कठिनाई, संवेदनशीलता में असामान्यता, असंयम, और प्रतिक्रिया में असामान्यता जैसी समस्याओं से जूझ रही थीं। मिर्गी के दौरे के बाद कई दिनों तक कोमा में रहने के बावजूद, उन्हें पर्याप्त उत्तर नहीं मिल पाया।

रिपोर्टों के अनुसार, उन्होंने कई बार आपातकालीन विभाग का दौरा किया और अंततः उन्हें मानसिक स्वास्थ्य रोगी के रूप में देखा जा सकता था। यहां पर लोगों को झटका इसलिए नहीं लगा कि AI ने सही उत्तर दिया, बल्कि इसलिए कि इतने जटिल और गंभीर लक्षणों वाले मरीज को "मन का भ्रम" या "मानसिक समस्या" के रूप में देखा जा रहा था। चिकित्सा के क्षेत्र में दुर्लभ बीमारियों को पहचानना मुश्किल होता है। लेकिन पहचानने में असमर्थता और शिकायतों को हल्के में लेना एक ही बात नहीं है। यही अंतर इस कहानी को केवल एक तकनीकी सफलता की कहानी नहीं बनाता।

टर्निंग पॉइंट तब आया जब उन्होंने अपने लक्षणों को AI चैटबॉट में डाला। चैटबॉट ने संभावित विकल्पों में से एक के रूप में हेरिडिटरी स्पास्टिक पैराप्लेजिया (HSP) का सुझाव दिया। उन्होंने इस संभावना को अपने सामान्य चिकित्सक के पास ले गए और बाद में जीन परीक्षण से इसका निदान पुष्टि हुआ। इसका मतलब यह है कि अंततः बीमारी का नाम AI ने नहीं बल्कि चिकित्सा संस्थान ने तय किया। हालांकि, यह सच है कि AI ने मरीज को "क्या यह वह बीमारी हो सकती है?" पूछने के लिए एक आधार प्रदान किया।

HSP एक दुर्लभ और प्रगतिशील अनुवांशिक बीमारी है जो पैरों की मांसपेशियों की कमजोरी और कठोरता, और चलने में कठिनाई को विशेषता बनाती है। इसके कई प्रकार होते हैं, सरल और जटिल प्रकार, और जटिल प्रकार में ऊपरी अंगों, संवेदनशीलता, मूत्राशय की कार्यप्रणाली और अन्य तंत्रिका लक्षण शामिल हो सकते हैं। NHS और अमेरिकी NINDS भी HSP को "दुर्लभ और प्रगतिशील अनुवांशिक तंत्रिका रोग" के रूप में वर्णित करते हैं, और यह निदान में कठिनाई और अन्य बीमारियों से भिन्नता में कठिनाई का कारण बन सकता है। इसलिए इस मामले को "डॉक्टर अक्षम थे और AI सक्षम था" के सरल विरोध के रूप में नहीं देखा जाना चाहिए, बल्कि सीमित चिकित्सा समय और दुर्लभ बीमारियों की कठिनाई के बीच, मरीज कैसे खुद को सुरक्षित रख सकते हैं, इस मुद्दे के रूप में देखा जाना चाहिए।

यहां महत्वपूर्ण बात यह है कि AI ने "निदान नहीं किया", बल्कि "परिकल्पनाओं को व्यवस्थित किया"। इंसान हमेशा अपने शरीर में हो रहे परिवर्तनों को चिकित्सा की भाषा में नहीं समझा सकता। और जब कई लक्षण एक साथ होते हैं, तो उन्हें अलग-अलग समस्याओं के रूप में देखा जाता है और समग्र तस्वीर अस्पष्ट हो जाती है। AI चैटबॉट उन टुकड़ों को एकत्र कर सकता है और संभावित बीमारियों की सूची के रूप में वापस कर सकता है। इस मामले में भी मूल्यवान था कि उस सूची में दुर्लभ बीमारियां शामिल थीं, इससे भी अधिक कि मरीज "इस दिशा में परीक्षण करना चाहते हैं" को शब्दों में व्यक्त कर सके। इसने चिकित्सा को प्रतिस्थापित नहीं किया, बल्कि चिकित्सा तक पहुंचने के लिए एक सहायक रेखा के रूप में कार्य किया।

इस कहानी का सोशल मीडिया पर व्यापक रूप से फैलना भी इस वजह से था कि इसकी संरचना कई लोगों की वास्तविकता से जुड़ी हुई थी। LinkedIn पर, "AI में गलतियाँ भी होती हैं, लेकिन कभी-कभी यह सहायक होता है" जैसे सतर्क समर्थन के साथ-साथ "ME/CFS जैसी बीमारियों में, AI ने डॉक्टरों की तुलना में अधिक सटीक उत्तर दिए हैं" जैसी आवाजें भी सुनाई दीं। वहीं, "AI can offer a lot.. when used with care (AI बहुत कुछ प्रदान कर सकता है.. जब सावधानी से उपयोग किया जाए)" जैसे विचार भी प्रमुख थे, जो इसके उपयोग को सीमित करने की सलाह देते हैं। चर्चा का केंद्र AI की प्रशंसा नहीं था, बल्कि "चिकित्सा में सुनी नहीं गई आवाज़ों" के अनुभव वाले लोगों की सहानुभूति थी।

 

X पर, और भी अधिक भावनात्मक प्रतिक्रियाएँ देखी गईं। एक पोस्ट में, इस मामले को लेकर "मानसिक स्वास्थ्य लेबल का दुरुपयोग किया जा रहा है" और चिकित्सा प्रतिक्रिया पर गुस्सा व्यक्त किया गया। एक अन्य प्रतिक्रिया में, यह बताया गया कि "Dr. Google" के रूप में जाना जाने वाला अब "Dr. AI" में बदल रहा है। इसका मतलब है कि सोशल मीडिया इस घटना को केवल एक तकनीकी समाचार के रूप में नहीं, बल्कि चिकित्सा अविश्वास, महिलाओं के लक्षणों को हल्के में लेने की प्रवृत्ति, और मरीजों की आत्मरक्षा की आवश्यकता जैसे बड़े सामाजिक मुद्दों के संदर्भ में देख रहा है।

हालांकि, यहां पर उत्साह में बह जाना खतरनाक हो सकता है। ऑक्सफोर्ड विश्वविद्यालय द्वारा 2026 फरवरी में प्रकाशित एक अध्ययन में पाया गया कि स्वास्थ्य परामर्श के लिए AI का उपयोग करने वाले प्रतिभागियों ने पारंपरिक खोज या NHS साइट का उपयोग करने वाले लोगों की तुलना में वास्तविक निर्णय लेने में स्पष्ट लाभ नहीं दिखाया। इसका एक कारण यह था कि उपयोगकर्ता आवश्यक जानकारी को पर्याप्त रूप से दर्ज नहीं कर सके। दूसरा कारण यह था कि AI के उत्तरों में अच्छी और बुरी जानकारी का मिश्रण होता है, जिससे उपयोगकर्ताओं के लिए इसे अलग करना मुश्किल हो जाता है। सवाल के वाक्यांश में थोड़ी सी भी बदलाव से उत्तर में बड़ा बदलाव हो सकता है, इसे भी एक समस्या के रूप में पहचाना गया। इसका मतलब है कि AI कभी-कभी संकेत दे सकता है, लेकिन यह अकेले सुरक्षित निर्णय उपकरण नहीं बन सकता।

OpenAI स्वयं भी स्वास्थ्य क्षेत्र में AI के बारे में "यह चिकित्सा का समर्थन करने वाला है, निदान या उपचार का विकल्प नहीं है" कहता है। यह कंपनी के रूप में एक सतर्क स्थिति बयान है और साथ ही इस मामले को समझने के लिए एक महत्वपूर्ण दृष्टिकोण भी है। फीबी के मामले को AI ने चिकित्सा के ऊपर खड़ा नहीं किया था, बल्कि यह एक उदाहरण है कि मरीज ने अंततः चिकित्सा तक पहुँचने के लिए एक "विकल्प मार्ग" पाया। इसलिए इस घटना का सवाल यह नहीं है कि "AI को और अधिक निदान में उपयोग करना चाहिए", बल्कि "मरीज को क्यों नहीं सुना गया" भी है।

AI के चिकित्सा में प्रवेश से, मरीजों के पास एक नया हथियार आया है। यह लक्षणों को व्यवस्थित करने, विशेषज्ञ शब्दावली जानने, और डॉक्टर से अगला सवाल पूछने में मदद कर सकता है। लेकिन साथ ही, यह हथियार गलत जानकारी या पूर्वाग्रह को मजबूत करने वाली तलवार भी बन सकता है। इस मामले को "ChatGPT ने बीमारी को पहचाना" के चमत्कार के रूप में देखना, वास्तव में सीखने योग्य चीज़ों को खो सकता है। आवश्यकता है AI को अंधविश्वास करने की नहीं, न ही इसे पूरी तरह से नकारने की। मरीज की आवाज़ को जल्दी और अधिक ध्यान से सुनने वाली चिकित्सा और उस संवाद को समर्थन देने वाले सहायक उपकरण के रूप में AI। उस संबंध को कैसे बनाना है, यह अगला मुद्दा होगा।

इस कहानी का मुख्य पात्र अंत तक AI नहीं है। उत्तर न मिलने के बावजूद संघर्ष करने वाला और अपने शरीर में हो रहे परिवर्तनों को नहीं छोड़ने वाला एक मरीज है। AI ने केवल उस दृढ़ता को शब्द दिए। लेकिन कभी-कभी, सही सवाल को प्राप्त करने से ही व्यक्ति सही चिकित्सा के करीब पहुँच सकता है। इस अर्थ में, यह घटना AI की जीत नहीं है, बल्कि "सुनी नहीं गई आवाज़" के अंततः दृश्य बनने का क्षण हो सकता है।


स्रोत URL

  1. https://g1.globo.com/tecnologia/noticia/2026/04/14/como-chatbot-de-ia-descobriu-condicao-rara-de-mulher-apos-anos-de-diagnosticos-errados.ghtml
  2. BBC से संबंधित सामग्री का पुनर्प्रकाशन और सारांशित लेख। फीबी टेसोरीयर के मामले का विवरण, AI में लक्षणों को दर्ज करने की प्रक्रिया, और जीन परीक्षण से पुष्टि की गई बिंदु की पुष्टि के लिए उपयोग किया गया
    https://www.pslhub.org/blogs/entry/9724-chatgpt-uncovered-womans-rare-condition-after-years-of-misdiagnosis/
  3. लक्षणों के विशिष्ट उदाहरण और 2025 अगस्त में जटिल प्रकार के चार अंगों वाले HSP के रूप में निदान की पुष्टि के लिए उपयोग किया गया
    https://www.ladbible.com/news/health/anxiety-chatgpt-health-diagnosis-phoebe-tesoriere-hsp-410723-20260407
  4. HSP (हेरिडिटरी स्पास्टिक पैराप्लेजिया) की मूल जानकारी। NHS द्वारा सामान्य जनता के लिए व्याख्या
    https://www.nhs.uk/conditions/hereditary-spastic-paraplegia/
  5. HSP की परिभाषा और प्रगतिशील तंत्रिका रोग के रूप में पुष्टि। अमेरिकी NINDS की व्याख्या
    https://www.ninds.nih.gov/health-information/disorders/hereditary-spastic-paraplegia
  6. HSP के अनुवांशिक और प्रगतिशील तंत्रिका रोग समूह के रूप में पुष्टि की पुष्टि। अमेरिकी GARD की व्याख्या
    https://rarediseases.info.nih.gov/diseases/6637/hereditary-spastic-paraplegia
  7. AI के चिकित्सा परामर्श जोखिमों पर ऑक्सफोर्ड विश्वविद्यालय की घोषणा। "अच्छी और बुरी जानकारी का मिश्रण होता है, और उपयोगकर्ताओं के लिए इसे अलग करना मुश्किल होता है" बिंदु की पुष्टि के लिए उपयोग किया गया
    https://www.ox.ac.uk/news/2026-02-10-new-study-warns-risks-ai-chatbots-giving-medical-advice
  8. उसी ऑक्सफोर्ड अध्ययन का पूरक। सवाल के मामूली अंतर से उत्तर में बड़ा बदलाव होता है, इस बिंदु की पुष्टि के लिए उपयोग किया गया
    https://www.oii.ox.ac.uk/news-events/new-study-warns-of-risks-in-ai-chatbots-giving-medical-advice/
  9. ऑक्सफोर्ड अध्ययन को रिपोर्ट करने वाला Reuters लेख। वास्तविक निर्णय लेने में AI उपयोगकर्ताओं ने बड़ा लाभ नहीं दिखाया, इस बिंदु की पुष्टि के लिए उपयोग किया गया
    https://www.reuters.com/business/healthcare-pharmaceuticals/ai-no-better-than-other-methods-patients-seeking-medical-advice-study-shows-2026-02-09/
  10. OpenAI की आधिकारिक व्याख्या। स्वास्थ्य क्षेत्र में AI चिकित्सा का समर्थन करने वाला है, निदान या उपचार का विकल्प नहीं है, इस नीति की पुष्टि के लिए उपयोग किया गया
    https://openai.com/index/introducing-chatgpt-health/
  11. LinkedIn पोस्ट का संदर्भ। सतर्क समर्थन और टिप्पणी अनुभाग में सहानुभूति प्रतिक्रियाओं की पुष्टि के लिए उपयोग किया गया
    https://www.linkedin.com/posts/anilvanderzee_chatgpt-diagnoses-cardiff-womans-rare-condition-activity-7448414384688861184-JEaN
  12. X पोस्ट खोज परिणाम का संदर्भ। चिकित्सा प्रतिक्रिया पर गुस्सा और संदेहपूर्ण दृष्टिकोण की पुष्टि के लिए उपयोग किया गया
    https://x.com/Miroandrej/status/2042668305190948993
  13. X पोस्ट खोज परिणाम का संदर्भ। मानसिक स्वास्थ्य लेबल के उपयोग पर आलोचनात्मक प्रतिक्रियाओं की पुष्टि के लिए उपयोग किया गया
    https://x.com/senmum05