Anthropic और AI उद्योग की दुविधा: "सुरक्षा पहले" होना चाहिए था — Anthropic को किन लोगों ने दबाव में डाला?

Anthropic और AI उद्योग की दुविधा: "सुरक्षा पहले" होना चाहिए था — Anthropic को किन लोगों ने दबाव में डाला?

1) "अस्वीकृत कंपनी" को "राष्ट्रीय सुरक्षा जोखिम" के रूप में देखा गया - घटना की रूपरेखा

शुक्रवार की दोपहर, एंथ्रोपिक के लिए सबसे बुरी खबर आई। अमेरिकी प्रशासन ने कंपनी के साथ संबंध तोड़ने और रक्षा से संबंधित सौदों से बाहर करने की योजना बनाई - ऐसी खबरें आईं। इसका कारण बताया गया कि सीईओ डारियो अमोदेई ने "अमेरिकी नागरिकों की व्यापक निगरानी" और "मानव हस्तक्षेप के बिना लक्ष्यों का चयन और हत्या करने वाले पूर्ण स्वायत्त हथियारों" के उपयोग की मांग को अस्वीकार कर दिया। परिणामस्वरूप, $200 मिलियन तक के अनुबंध खतरे में पड़ गए और अन्य रक्षा संबंधित कंपनियों के साथ काम करने की संभावना भी समाप्त हो गई।


इस स्थिति की जटिलता यह है कि यह केवल "सरकार और निजी कंपनी के अनुबंध विवाद" तक सीमित नहीं है। जब अचानक किसी दिन "वह AI खतरनाक है" या "आपूर्ति श्रृंखला के लिए खतरा है" का लेबल लगाया जाता है, तो न केवल संबंधित कंपनी बल्कि आसपास की आपूर्ति श्रृंखला और साझेदार कंपनियां भी श्रृंखला में सिकुड़ जाती हैं।

DefenseScoop ने भी इस तरह की कठोर स्थिति के फ्रंटियर AI कंपनियों पर ठंडा पानी डालने की संभावना की ओर इशारा किया है।


2) TechCrunch द्वारा उजागर "गड्ढा": दुश्मन केवल सरकार नहीं है

TechCrunch का लेख दिलचस्प है क्योंकि यह केवल "सरकार अत्याचारी है/कंपनी सही है" के रूप में विभाजित नहीं करता है। लेख MIT के भौतिक विज्ञानी और Future of Life Institute के संस्थापक मैक्स टेगमार्क के दृष्टिकोण का उपयोग करके एक अधिक तीखा प्रश्न उठाता है।

ऐसी स्थिति को रोकने के लिए "कानून" शुरू से क्यों नहीं था?

टेगमार्क का उत्तर कठोर है। एंथ्रोपिक ने "सुरक्षा पहले" का बैनर उठाया है, लेकिन उद्योग के रूप में "बाध्यकारी नियमों" का समर्थन नहीं किया है, "हम पर विश्वास करें। हम इसे स्वेच्छा से करेंगे" कहते हुए, लॉबी गतिविधियों सहित, नियमों को दूर रखा है। परिणामस्वरूप, खाद्य सुरक्षा के लिए नियम हैं लेकिन AI के लिए नहीं - एक चरम उदाहरण में कहा जाए तो "सैंडविच की तुलना में AI के लिए नियम कम हैं" की स्थिति पैदा हुई है।


यहां लेख के शीर्षक "एंथ्रोपिक द्वारा खुद के लिए बनाई गई जाल" का प्रभाव आता है। बड़े पैमाने पर निगरानी और स्वायत्त हथियारों को अस्वीकार करने वाली "नैतिक लाल रेखा" को उठाने के बावजूद, यदि इसे समर्थन देने वाला कानूनी आधार नहीं है, तो जब सरकार या ग्राहक मजबूत होते हैं, तो यह टूट सकता है।


"यदि कानून द्वारा निषिद्ध नहीं है, तो इसे मांगा जा सकता है" - यह वास्तविकता अब सबसे जीवंत रूप में सामने आई है।


3) एक और विडंबना: सुरक्षा का बैनर और "सहयोग का इतिहास"

लेख में टेगमार्क एंथ्रोपिक के पहले से ही रक्षा और खुफिया एजेंसियों के साथ सहयोग करने के बिंदु को छूते हैं (कम से कम 2024 तक की ओर इशारा करते हुए) और ब्रांड और वास्तविकता के बीच के अंतर को इंगित करते हैं।

 
यह बिंदु सोशल मीडिया पर सबसे अधिक विवादास्पद है। क्योंकि जनमत "पूरी तरह से साफ-सुथरे आदर्शवादी" या "आखिरकार वही" के रूप में समझने की कोशिश करता है।


वास्तव में, सोशल मीडिया पर प्रतिक्रियाएं भी दो भागों में बंट गईं।

  • प्रशंसा पक्ष: "निगरानी और स्वायत्त हत्या को ना कहना महत्वपूर्ण है", "रेखा खींचने वाली कंपनी को दंडित करना गलत है"

  • आलोचना पक्ष: "सुरक्षा पहले का बैनर उठाते हुए रक्षा के साथ काम कर रहे थे, अब पीड़ित बन रहे हैं?", "नियमों को नापसंद करने का परिणाम अब सामने आ रहा है"


यह "द्वैतवाद" ही AI शासन की चर्चा को कठिन बना रहा है। वास्तविकता अक्सर ग्रे होती है, कंपनियां आदर्श और व्यवसाय के बीच झूलती हैं, सरकारें सुरक्षा और नागरिक स्वतंत्रता के बीच झूलती हैं। लेकिन, विवाद ग्रे को स्वीकार नहीं करता।


4) "चीन को हराने के लिए" तर्क पर प्रतिक्रिया - और "राष्ट्रीय सुरक्षा" की पुन: परिभाषा

एक और बिंदु जो लेख के केंद्र में है वह है "चीन को हारने" का तर्क। यह अक्सर नियमों का विरोध करने पर लाया जाता है।


इसके विपरीत, टेगमार्क का तर्क है कि "चीन मानव-आधारित और मानवकृत AI (जैसे AI प्रेमी) को प्रतिबंधित करने की दिशा में है" और "वे सब कुछ असीमित रूप से विकसित नहीं कर रहे हैं"। इसके अलावा, अनियंत्रित सुपर इंटेलिजेंस दुश्मन देश से पहले अपने देश की सरकार के शासन को खतरे में डाल सकता है, इसलिए सुपर इंटेलिजेंस संपत्ति नहीं बल्कि राष्ट्रीय सुरक्षा के लिए खतरा है, इस फ्रेमिंग में लाता है।


यह दृष्टिकोण सोशल मीडिया पर आसानी से प्रभाव डालता है। "प्रोत्साहन या नियम" के सरल ध्रुव के बजाय, "यदि अनियंत्रित है तो मित्र भी खतरा है" का तर्क है। वास्तव में, "सुरक्षा" शब्द का उपयोग करते हुए, सरकार इसे "बाहर निकालने" के आधार के रूप में उपयोग करती है, और टेगमार्क इसे "विकास की गति के खतरे" के आधार के रूप में उपयोग करते हैं।


एक ही शब्द से, विपरीत निष्कर्ष पर पहुंचते हैं। यहां AI युग की राजनीतिक भाषा का डर है।


5) सोशल मीडिया ने "संवेदनशीलता" और "सवारी" को तेज किया

इस घटना को "सोशल मीडिया युग की घटना" के रूप में महसूस कराने वाला बिंदु यह है कि प्रतिक्रियाएं निर्णय लेने में वापस प्रवाहित हो रही हैं।


(1) कर्मचारियों द्वारा सार्वजनिक पत्र
TechCrunch के अनुसार, Google और OpenAI के कर्मचारियों ने एंथ्रोपिक की लाल रेखा (बड़े पैमाने पर निगरानी और पूर्ण स्वायत्त हथियारों का अस्वीकार) का समर्थन किया और अपने स्वयं के लिए भी उसी रेखा की मांग करने वाले सार्वजनिक पत्र पर हस्ताक्षर किए। पत्र में "डर के माध्यम से विभाजित करने की कोशिश की जा रही है" जैसी भावना के वाक्यांश भी उद्धृत किए गए हैं।


(2) प्रभावशाली व्यक्तियों की पोस्ट
उसी लेख में, Google के जेफ डीन ने "बड़े पैमाने पर निगरानी संविधान के चौथे संशोधन का उल्लंघन करती है और अभिव्यक्ति की स्वतंत्रता पर ठंडा प्रभाव डालती है" के रूप में X पर पोस्ट किया।

 
ऐसी "व्यक्तिगत पोस्ट" कंपनी के आधिकारिक बयानों की तुलना में अधिक फैलती हैं, और परिणामस्वरूप "उद्योग का माहौल" बना देती हैं।


(3) विडंबनापूर्ण "उत्पाद प्रभाव"
इसके अलावा, TechCrunch ने बताया कि विवाद की ओर ध्यान आकर्षित करने के कारण Claude ऐप की रैंकिंग अमेरिकी ऐप स्टोर में दूसरे स्थान पर पहुंच गई (रैंकिंग ट्रेंड डेटा का भी उल्लेख किया गया है)। विवाद ने सेवा की दृश्यता को बढ़ाया - चाहे अच्छा हो या बुरा, यह सोशल मीडिया की आर्थिक प्रणाली का एक विशिष्ट परिणाम है।

6) OpenAI की "उसी रेखा" की घोषणा वास्तविक है या नहीं

स्थिति को और जटिल बना दिया जब OpenAI ने रक्षा विभाग के साथ एक समझौते की घोषणा की और "बड़े पैमाने पर निगरानी और स्वायत्त हत्या को प्रतिबंधित करने" की भावना वाले सुरक्षा सिद्धांतों को शामिल किया। Guardian ने बताया कि सैम ऑल्टमैन ने X पर समान सिद्धांतों का उल्लेख किया और यहां तक कि "अन्य AI कंपनियों को भी वही शर्तें पेश करने" की बात कही।


यहां सोशल मीडिया की प्रतिक्रिया फिर से विभाजित होती है।

  • सकारात्मक: "यदि प्रतिस्पर्धी भी वही रेखा खींचते हैं, तो सरकार की 'विभाजन रणनीति' काम नहीं करेगी"

  • संदेहपूर्ण: "'शर्तें हैं' और 'उन्हें लागू किया जाएगा' अलग हैं", "आखिरकार यह केवल बाजार को हासिल करने की कोशिश थी?"


टेगमार्क का प्रस्ताव "क्लिनिकल परीक्षण की तरह स्वतंत्र सत्यापन के बाद जारी करना" वास्तव में इस अविश्वास के लिए एक उत्तर है। वादे नहीं, सत्यापन। सद्भावना नहीं, प्रणाली।

7) आगे क्या होगा: AI शासन "कॉर्पोरेट नैतिकता" से "संस्थान डिजाइन" की ओर

इस विवाद ने यह स्पष्ट किया कि AI की सुरक्षा "प्रत्येक कंपनी के सिद्धांतों" से सुरक्षित नहीं हो सकती। सिद्धांत बदले जा सकते हैं। प्रबंधन निर्णय से वापस लिए जा सकते हैं। जब प्रशासन बदलता है, तो अनुबंध की शर्तें भी बदल सकती हैं। जैसा कि TechCrunch ने बताया, कंपनियों द्वारा स्वयं घोषित सुरक्षा प्रतिज्ञाओं को शिथिल करने की संदर्भ ने भी संदेह को बढ़ाया है।


इसलिए, चर्चा का बिंदु "एंथ्रोपिक अच्छा है या बुरा" से "कानून द्वारा क्या बाध्य किया जाए, क्या स्वतंत्र रूप से ऑडिट किया जाए, और पारदर्शिता कहां रखी जाए" की ओर स्थानांतरित होना चाहिए।


यह घटना AI उद्योग के लिए एक लंबे समय से लंबित होमवर्क का संकेत हो सकती है - "स्व-नियमन से पार पाना" का सपना - जिसकी समय सीमा समाप्त हो गई है।



स्रोत