पत्रकार AI का उपयोग कहाँ तक कर सकते हैं - पारदर्शिता का उल्टा असर? AI युग की खबरों में "सूचना की दुविधा"

पत्रकार AI का उपयोग कहाँ तक कर सकते हैं - पारदर्शिता का उल्टा असर? AI युग की खबरों में "सूचना की दुविधा"

AI अब न्यूज़रूम का "अदृश्य सह-संपादक" बन गया है। रिपोर्टिंग नोट्स का ट्रांसक्रिप्शन, विशाल दस्तावेज़ों का आयोजन, सारांश, सुर्खियों के सुझाव, छवियों की सहायता...। पहले जिन प्रक्रियाओं में मानव श्रम और समय लगता था, वे अब कुछ ही मिनटों में पूरी हो जाती हैं। वित्तीय संकट से जूझ रहे समाचार उद्योग के लिए, AI "लागत को कम करने और गति को बढ़ाने" का एक आकर्षक साधन है। लेकिन, इसकी सुविधा "जिम्मेदारी की स्थिति" को अस्पष्ट करती है और विश्वास को हिला देती है।


यह तनाव आखिरकार "श्रमिक और प्रबंधन के विवाद का मुद्दा" बन गया है। स्वतंत्र अनुसंधान पत्रकारिता के लिए प्रसिद्ध ProPublica के पत्रकारों ने AI के उपयोग पर बातचीत में एक मजबूत रुख अपनाया है, और AI संचालन समाचार उद्योग के श्रम विवाद का मुख्य बिंदु बन गया है।



1) वर्तमान में क्या हो रहा है: AI "उपयोगी" है—लेकिन दुर्घटनाएं भी बढ़ रही हैं

मौजूदा स्थिति में AI को छोड़ना मुश्किल है। डेटा-उन्मुख रिपोर्टिंग में, AI जटिल कार्यों को सरल बनाता है और समय की बचत करता है। ऑडियो ट्रांसक्रिप्शन पहले से ही स्वचालित हो चुका है, और खोज सेवाएं भी AI सारांश को शामिल करने लगी हैं।


दूसरी ओर, तेजी से लागू करने के परिणामस्वरूप "दुर्घटनाएं" भी सामने आई हैं। AI सारांश की गलतियों को सुधारने के मामले, गैर-मौजूद लेखकों के नाम से पोस्टिंग के मामले, और उत्पादों द्वारा तथ्य गढ़ने के मामले। एक प्रतीकात्मक घटना थी जब Ars Technica ने AI टूल द्वारा उत्पन्न "गढ़े गए उद्धरण" वाले लेख को प्रकाशित किया और बाद में उसे वापस ले लिया और माफी मांगी। AI की विशिष्ट कमजोरी (विश्वसनीय झूठ मिलाना) को टेक रिपोर्टिंग के एक पुराने संस्थान ने खुद अनुभव किया।


इसलिए, AI "प्रभावशीलता का देवदूत" भी हो सकता है और "विश्वास को नुकसान पहुंचाने वाला शैतान" भी। समस्या यह है कि समाचार संगठन इस द्वैधता को ध्यान में रखते हुए "गार्डरेल कहां लगाएं" यह तय नहीं कर पाए हैं।



2) विवाद क्यों हो रहा है: AI गवर्नेंस का मुद्दा "लेखन" से अधिक "अधिकार" है

इस मुद्दे को "AI से लेख लिखना है या नहीं" तक सीमित करना गलत होगा। वास्तविक विवाद इससे कहीं अधिक व्यापक है।

  • प्रकटीकरण (Disclosure): AI का उपयोग करके तथ्य को पाठकों को कैसे बताया जाए

  • मानव सहभागिता (Human-in-the-loop): किस प्रक्रिया में मानव निर्णय आवश्यक है

  • रोजगार और कौशल (Jobs): जब AI नौकरियों को बदलता है, तो किसे संरक्षित किया जाता है और किसे पुनः नियुक्त किया जाता है

  • संपादकीय जिम्मेदारी (Accountability): जब गलती होती है, तो जिम्मेदारी रिपोर्टर की है, संपादक की है, या टूल के उपयोगकर्ता की


ProPublica पक्ष (प्रबंधन) का कहना है कि "कई वर्षों तक बाध्यकारी अनुबंध में, तेजी से बदलती तकनीक के संचालन को स्थिर करना खतरनाक है", जबकि यूनियन पक्ष का कहना है कि "स्थिर न करने से कोई रोकथाम नहीं होगी"। यह वास्तव में गवर्नेंस की रस्साकशी है।


यहां महत्वपूर्ण बात यह है कि AI का उपयोग "बिंदु" नहीं बल्कि "रेखा" के रूप में फैल रहा है। रिपोर्टिंग की शुरुआत से लेकर प्रकाशन तक, AI अनगिनत प्रक्रियाओं में शामिल हो सकता है। इसलिए "AI का उपयोग किया गया तो हमेशा दिखाएं" जैसा सरल नियम, जमीनी हकीकत को सही से नहीं पकड़ सकता।



3) "प्रकटीकरण से विश्वास बढ़ेगा" एक भ्रम है?—"घोषणा की दुविधा"

पाठक आमतौर पर कहते हैं कि "AI का उपयोग जानना चाहते हैं"। लेकिन वास्तव में AI के उपयोग को स्पष्ट करने पर, विश्वास कम होने की प्रवृत्ति होती है—यह विरोधाभास रिपोर्टिंग के क्षेत्र को परेशान करता है।


क्यों? इसके कई कारण हो सकते हैं।
एक यह है कि पाठक AI को "लागत कटौती के उपकरण" और "कामचोरी के प्रतीक" के रूप में जोड़ते हैं। दूसरा यह है कि जनरेटिव AI के "भ्रम" को व्यापक रूप से जाना जाता है, जिससे "AI = गलतियों का स्रोत" की पूर्वधारणा मजबूत हो रही है। Ars Technica की वापसी की घटना ने इस अविश्वास को और मजबूत किया।


इसके अलावा, कुछ लोग "मूल रूप से AI का उपयोग रिपोर्टिंग में नहीं चाहते"। प्रकटीकरण उनके लिए "चेतावनी लेबल" बन जाता है।


अंततः, प्रकटीकरण "ईमानदारी का प्रमाण" बन सकता है, लेकिन "गुणवत्ता में गिरावट" और "रिपोर्टर की अनुपस्थिति" को याद दिलाने का जोखिम भी होता है। यही "Catch-22 (समस्या)" है।



4) नियमों की गति नहीं पकड़ पा रही: परिवर्तन की गति "नियमों" को अप्रचलित कर देती है

AI की प्रगति बहुत तेज़ है, यह दावा उद्योग में अक्सर सुना जाता है। हाल ही में एक निबंध ने कहा कि "यदि आपने पिछले कुछ महीनों में AI को नहीं देखा है, तो अब का AI देखने में बहुत अलग है" और यह तेजी से फैला। यह "अब नियमों को लिखित रूप में तैयार करने से वे जल्दी ही अप्रचलित हो जाएंगे" के तर्क का समर्थन करता है।


हालांकि, परिवर्तन की गति तेज़ होने के कारण "मूल सिद्धांत" की आवश्यकता है, यह दृष्टिकोण भी है। उदाहरण के लिए,

  • तथ्य की जाँच की जिम्मेदारी मानव की होगी

  • उद्धरण, विशेष नाम, और संख्याएं सत्यापन योग्य स्रोतों से जुड़ी होनी चाहिए

  • AI के शामिल हिस्सों के लिए ऑडिट योग्य लॉग छोड़े जाएं
    जैसे, टूल के प्रकार बदलने पर भी लागू होने वाले "ऑपरेशन के ढांचे" को बनाया जा सकता है।


वास्तव में, Trusting News AI के उपयोग की पारदर्शिता और व्याख्या के तरीकों पर दिशानिर्देश बनाने को प्रोत्साहित कर रहा है।



5) "कानून" को हस्तक्षेप करना चाहिए या नहीं: न्यूयॉर्क राज्य के NY FAIR News Act ने उठाए सवाल

विवाद अंततः राजनीति तक पहुंच गया। न्यूयॉर्क राज्य में, जनरेटिव AI से संबंधित समाचार सामग्री के लिए स्पष्ट प्रतिरक्षा और प्रकटीकरण की मांग करने वाला और मानव संपादन अधिकारों के तहत समीक्षा को अनिवार्य करने वाला एक विधेयक (NY FAIR News Act) प्रस्तावित किया गया है, जो समर्थन और विरोध दोनों को आकर्षित कर रहा है।


समर्थक "पारदर्शिता की सुरक्षा", "श्रमिकों की सुरक्षा", और "पाठकों के अधिकार" को कारण बताते हैं। विरोधी और चिंतित पक्ष "सरकार संपादन निर्णयों में हस्तक्षेप कर सकती है", "रिपोर्टिंग की स्वतंत्रता और अभिव्यक्ति की स्वतंत्रता को प्रभावित कर सकती है" के बारे में सतर्क हैं।


यहां जो दिखता है वह यह है कि AI गवर्नेंस "कॉर्पोरेट संचालन" से परे जाकर, सामाजिक प्रणाली के डिजाइन का मुद्दा बनता जा रहा है।



6) सोशल मीडिया की प्रतिक्रिया: जमीनी आवाज़ें "पारदर्शिता" से अधिक "गवर्नेंस" की मांग कर रही हैं

इस बार का मुद्दा, सोशल मीडिया पर भी "AI अच्छा है या बुरा" के सरल विरोधाभास से परे जाकर, "कैसे गवर्नेंस किया जाए" पर ध्यान केंद्रित कर रहा है।


(A) यूनियन और रिपोर्टर पक्ष: रोजगार के साथ-साथ "विश्वास की गार्डरेल" की मांग

NewsGuild के पोस्ट में, ProPublica की बातचीत को "AI के दुरुपयोग को रोकने के लिए एक बैरियर" के रूप में देखा जा रहा है, और हड़ताल की संभावना को भी नकारा नहीं गया है। Bluesky पर भी, ProPublica की गतिविधियों के साथ एकजुटता का स्वर देखा जा सकता है।


इसका अर्थ यह है: "AI तो आएगा ही। तो फिर, पारदर्शिता, मानव सहभागिता, और रोजगार प्रभाव को अनुबंध और प्रक्रिया के माध्यम से नियंत्रित करें"।


(B) टेक/पाठक समुदाय: Ars Technica की वापसी पर "ऑडिट करें", "किसने किया?" की जांच

Ars Technica की "गढ़े गए उद्धरण" की वापसी के बारे में, फोरम और समुदाय में "क्यों सत्यापन नहीं किया गया", "किसने टूल का उपयोग किया, और कहां इसे रोका नहीं जा सका" जैसी प्रक्रिया ऑडिट की मांग करने वाली प्रतिक्रियाएं अधिक हैं।


यह भावनात्मक AI आलोचना की बजाय, "प्रक्रिया प्रबंधन की विफलता" के रूप में देखा जा रहा है। यदि AI के आउटपुट को "सामग्री" के रूप में माना जाता है, तो सामग्री निरीक्षण के लिए जिम्मेदार व्यक्ति और मानक की आवश्यकता होती है, यह एक सामान्य मांग है।


(C) नियामक विधेयक पर प्रतिक्रिया: "प्रदर्शन" पर्याप्त नहीं है / इसके विपरीत "अधिक हस्तक्षेप"

NY FAIR News Act पर प्रतिक्रिया विभाजित है। LinkedIn जैसे प्लेटफॉर्म पर "AI टूल के उपयोग और प्रदर्शन शब्दों की समस्या नहीं है, बल्कि डेटा एक्सेस, अनुमोदन अधिकार, और रिकॉर्डिंग तक शामिल 'लाइफसाइकिल गवर्नेंस' है" जैसी व्यापक गवर्नेंस चर्चा हो रही है।


वहीं, रिपोर्टिंग की स्वतंत्रता को नुकसान पहुंचाने की चिंता भी बनी हुई है। क्या कानून "संपादन की सामग्री" को प्रभावित किए बिना केवल पारदर्शिता की गारंटी दे सकता है, यह वास्तव में कठिन है, यह संदेह है।



7) तो, न्यूज़रूम को कैसे "गवर्न" करना चाहिए: 3 व्यावहारिक समाधान

इस लेख द्वारा उठाए गए प्रश्न के लिए, व्यावहारिक समाधान "AI का उपयोग करें / न करें" नहीं है, बल्कि निम्नलिखित तीन बिंदुओं में संक्षेपित है।

① "महत्वपूर्ण AI उपयोग" को परिभाषित करें और केवल वहां कड़ी निगरानी करें

सभी प्रक्रियाओं में एक समान प्रकटीकरण का संचालन विफल हो सकता है। इसलिए,

  • पाठ्य सामग्री का निर्माण

  • महत्वपूर्ण सारांश (जो समाचार के मुख्य बिंदुओं को प्रतिस्थापित करता है)

  • छवियों और वीडियो का निर्माण या परिवर्तन

  • उद्धरण का निर्माण (यह लगभग निषेधात्मक रूप में माना जाता है)
    जैसे "पाठकों के निर्णय को प्रभावित करने वाले और गलतियों के नुकसान वाले क्षेत्रों" को "महत्वपूर्ण" के रूप में परिभाषित करना और कड़ी निगरानी और प्रकटीकरण करना सही है।

② Human-in-the-loop को "संपादन" नहीं बल्कि "जिम्मेदारी" के रूप में डिज़ाइन करें

"इसे इंसान ने देखा" यह कमजोर है। किसने, क्या, किस मानक पर सत्यापित किया। लॉग और अधिकार का डिज़ाइन गवर्नेंस का केंद्र बनता है। Ars Technica की घटना ने दिखाया कि नियमों की भाषा से अधिक संचालन डिज़ाइन की कमजोरी थी।

③ पाठकों के लिए स्पष्टीकरण "मुक्ति पत्र" नहीं बल्कि "समझने में सहायक" बनाएं

प्रकटीकरण विश्वास बढ़ाने की कोई जादुई दवा नहीं है। तो, केवल "AI का उपयोग किया गया" का लेबल लगाने के बजाय,

  • किस उद्देश्य के लिए उपयोग किया गया (उदाहरण: ट्रांसक्रिप्शन, सामग्री का आयोजन)

  • जहां उपयोग नहीं किया गया (