मानव से अधिक मानवीय प्रचार: क्या AI बॉट्स "जनमत" को भी नकली बना सकते हैं - सोशल मीडिया पर शुरू हुआ लोकतंत्र का मौन क्षरण

मानव से अधिक मानवीय प्रचार: क्या AI बॉट्स "जनमत" को भी नकली बना सकते हैं - सोशल मीडिया पर शुरू हुआ लोकतंत्र का मौन क्षरण

कभी सोशल मीडिया की धमकी के रूप में, बहुत से लोग एक ही संदेश को बड़े पैमाने पर भेजने वाले सरल बॉट्स या स्पष्ट नकली खातों के समूह की कल्पना करते थे। लेकिन अब, शोधकर्ता अधिक शांत, अधिक मानव-सदृश, और अधिक पहचान में कठिन अस्तित्व के प्रति सतर्क हैं। नई पीढ़ी के बॉट्स, जो जनरेटिव एआई को शामिल करते हैं, एक ही आदेश पर एक ही वाक्य फैलाने के बजाय, प्रत्येक अलग व्यक्तित्व की तरह व्यवहार करते हैं, और धीरे-धीरे वातावरण को बदलते हुए, वार्तालाप के प्रवाह और दूसरे व्यक्ति की रुचि के अनुसार अपने शब्दों को बदलते हैं। समस्या यह है कि, गलत जानकारी से अधिक, "हर कोई ऐसा सोचता है" जैसी भावना को भी कृत्रिम रूप से बनाया जा सकता है।


यह खतरा कल्पना नहीं है। इंडियाना विश्वविद्यालय के फिलिपो मेंक्ज़र और उनके सहयोगियों ने 2023 के मध्य में, X (तब ट्विटर) पर क्रिप्टोकरेंसी धोखाधड़ी फैलाने वाले 1000 से अधिक बॉटनेट "fox8" की पहचान की। विशेषता यह थी कि पोस्ट बहुत ही मानव-सदृश थे। जब संचालन लापरवाह था, तो "As an AI language model…" जैसी आत्म-प्रकटीकरण वाक्यांश मिश्रित होते थे और पहचान उजागर होती थी, लेकिन शोधकर्ताओं का मानना है कि यह "हिमखंड का सिरा" है। यदि इसे और सावधानीपूर्वक संचालित किया जाता, तो सतह पर इसे सामान्य उपयोगकर्ताओं से अलग करना मुश्किल हो जाता। इसके अलावा, यह बॉट समूह आपस में बातचीत कर रहा था, मानव पोस्टों के साथ स्वाभाविक रूप से जुड़ रहा था, और सिफारिश एल्गोरिदम के माध्यम से अपनी पहुंच और प्रभाव को बढ़ा रहा था।


यहां ध्यान देने योग्य बात यह है कि एआई बॉट्स का विकास "झूठ को अधिक चालाकी से कहने" के चरण को पार कर "जनमत की संरचना को ही नकली बनाने" के चरण में प्रवेश कर रहा है। 2026 के जनवरी में साइंस में चेतावनी दी गई "malicious AI swarms" एकल नहीं बल्कि समूह के रूप में समन्वय करते हैं। शोध दल ने बताया कि ऐसे स्वॉर्म समुदाय में घुसपैठ कर सकते हैं, वार्तालाप की शैली और स्लैंग सीख सकते हैं, और सबसे प्रभावी कथनों को बढ़ावा देने के लिए तेजी से प्रतिक्रियाओं का परीक्षण कर सकते हैं। संक्षेप में, अनगिनत एआई एक साथ "वातावरण को पढ़ने" की ओर मुड़ते हैं। और वह भी 24 घंटे बिना रुके।


इस समय सबसे महत्वपूर्ण कीवर्ड है "synthetic consensus", अर्थात कृत्रिम रूप से निर्मित सहमति। लोग किसी राय की सत्यता का निर्णय केवल उसके सामग्री के आधार पर नहीं करते। यदि उन्हें लगता है कि आसपास के लोग भी वही सोचते हैं, तो वे इसे अधिक आसानी से मान लेते हैं। शोधकर्ता इसे सामाजिक प्रमाण का दुरुपयोग बताते हैं। यदि स्थानीय बोर्ड, पालन-पोषण समुदाय, खेल प्रशंसकों की बैठक, या चुनाव समर्थक समूह में, प्राकृतिक सहानुभूति या बातचीत का ढोंग करते हुए सैकड़ों, हजारों एआई घुसपैठ कर सकते हैं, तो मनुष्य "यह कुछ चरम विचार नहीं है, बल्कि अब यह सामान्य भावना है" का भ्रम आसानी से कर सकते हैं। लोकतंत्र का समर्थन करने वाला "जनमत" वास्तव में अलग-अलग व्यक्तियों की आवाज़ों के टकराव से बनना चाहिए, लेकिन यह आधार टूट सकता है।


इसके अलावा, इस पद्धति की जटिलता यह है कि इसे सरल तथ्य-जांच के माध्यम से रोकना मुश्किल है। यदि आप केवल एक-एक पोस्ट को देखें, तो यह स्पष्ट झूठ नहीं हो सकता। जब विचार, व्यंग्य, सहमति, प्रश्न, अनुभव, और थोड़ा अतिरंजित चिंताएँ - ऐसी "पूरी तरह से झूठ नहीं" छोटी-छोटी बातें बड़े पैमाने पर एकत्र होती हैं, तो एक पूरी कहानी बन जाती है। यदि नकारात्मक जानकारी भी सामने आती है, तो यदि यह ऐसा लगता है कि स्वतंत्र लोग एक ही दिशा में देख रहे हैं, तो प्रभाव आसानी से नहीं मिटेगा। बॉट समूह का लक्ष्य सत्य से पहले, अनुभव के रूप में बहुमत को सुरक्षित करना है।


शोधकर्ताओं ने चेतावनी दी है कि यह तकनीक 2028 के अमेरिकी राष्ट्रपति चुनाव तक बड़े पैमाने पर उपयोग में लाई जा सकती है। गार्जियन की रिपोर्ट में, नोबेल शांति पुरस्कार विजेता मारिया रेसा सहित शोधकर्ताओं और पेशेवरों के एक समूह ने चिंता व्यक्त की कि एआई स्वॉर्म चुनाव परिणामों के अस्वीकार या चुनाव रद्द करने की स्वीकृति को भी बढ़ावा दे सकते हैं। यह भी बताया गया है कि 2024 के ताइवान, इंडोनेशिया, और भारत के चुनावों में एआई का उपयोग करके प्रभावी कार्यवाही के शुरुआती उदाहरण देखे गए थे। इसका मतलब है कि यह "भविष्य की बात" नहीं है, बल्कि "अब आजमाई जा रही विधि" है।


 

दूसरी ओर, सोशल मीडिया पर प्रतिक्रियाएँ एकसमान नहीं हैं। सार्वजनिक पोस्टों को देखते हुए, सबसे पहले जो ध्यान आकर्षित करता है वह है "आखिरकार यह आ ही गया" जैसी संकट की भावना। X पर, एआई बॉट समूहों द्वारा स्केल की गई नकली सहमति बनाने और लोकतंत्र और स्वतंत्र चर्चा को क्षति पहुँचाने की दृष्टि साझा की जाती है, और LinkedIn पर भी शोधकर्ता और संबंधित लोग इसे "clarion call (चेतावनी)" के रूप में फैला रहे हैं। विशेष रूप से अकादमिक और नीति-संबंधी प्रतिक्रियाओं में, "गलत जानकारी से अधिक गंभीर यह है कि स्वतंत्र बहुसंख्यक आवाज़ों का भ्रम पैदा करना" की समझ मजबूत है।


हालांकि, सामान्य उपयोगकर्ताओं की प्रतिक्रियाओं में एक अलग नुआंस भी है। Reddit पर, "यह तो वर्षों से हो रहा था", "रूसी प्रचार बॉट्स जैसे पुराने प्रकार के कार्यों को एआई के साथ और अधिक परिष्कृत किया गया है" जैसी "अब क्या नया है" की भावना कम नहीं है। यहाँ, एआई के प्रति डर से अधिक, प्लेटफ़ॉर्म द्वारा वर्षों से छोड़ी गई समस्याओं के प्रति अविश्वास सामने आता है। मतलब, खतरे का असली कारण नई तकनीक नहीं है, बल्कि नकली खातों या उत्तेजक पोस्टों के फैलने में आसानी के लिए डिज़ाइन है।


और भी मजबूत प्रतिक्रिया यह है कि "पहचान सत्यापन या कठोर निगरानी एक समाधान के रूप में, एक अलग खतरा पैदा कर सकती है"। Reddit पर, मजबूत प्रमाणीकरण अत्यधिक आक्रामक हो सकता है और गुमनामी की हानि या व्यक्तिगत जानकारी के लीक होने की चिंता दिखाई देती है। यह केवल एक तकनीकी चर्चा नहीं है। लोकतंत्र की रक्षा के लिए उपाय, इसके विपरीत, निगरानी बढ़ाने या अभिव्यक्ति को दबाने का कारण बन सकते हैं। यदि एआई बॉट्स के खिलाफ उपाय सही दिशा में नहीं जाते हैं, तो "बॉट्स से समाज की रक्षा" करने का इरादा "मानव अभिव्यक्ति की कठिनाई" को बढ़ा सकता है।


यह विवाद वास्तव में बहुत मौलिक है। यदि एआई स्वॉर्म की समस्या को केवल एक तकनीकी जोखिम के रूप में देखा जाता है, तो उपाय जल्दी से "पता लगाने को मजबूत करना", "प्रमाणीकरण को कठोर करना", "संदिग्ध बयानों को दबाना" की ओर झुकते हैं। लेकिन यह पर्याप्त नहीं है और खतरनाक भी है। शोधकर्ता भी मानते हैं कि कोई एकल सार्वभौमिक उपाय नहीं है। आवश्यक है कि केवल व्यक्तिगत पोस्टों की निगरानी न की जाए, बल्कि सहयोगात्मक व्यवहार के पैटर्न का पता लगाया जाए, शोधकर्ताओं को प्लेटफ़ॉर्म डेटा तक पहुंचने की अनुमति दी जाए, एआई जनित सामग्री की लेबलिंग और इतिहास प्रदर्शन को आगे बढ़ाया जाए, और सबसे महत्वपूर्ण, नकली जुड़ाव के माध्यम से धन के प्रवाह को रोकना है। जब तक हमलावरों को लाभ होता रहेगा, बॉट्स कम नहीं होंगे।


आखिरकार, यह समस्या "एआई खतरनाक है" के एक वाक्य से हल नहीं होती। अधिक जटिल यह है कि हम जो "जनमत" कहते हैं, उसका अधिकांश हिस्सा स्क्रीन के पार के प्रभाव पर निर्भर करता है। टाइमलाइन में बार-बार देखी गई राय, कई खातों द्वारा समर्थित दिखाई देने वाले दावे, टिप्पणियों की धारा का माहौल, ट्रेंडिंग विषय। ये सभी मूल रूप से मानव सामूहिक रुचि के परिणाम माने जाते थे। लेकिन अगर वहां बड़ी संख्या में एआई व्यक्तित्व मिल सकते हैं, तो हम "दूसरों की सोच" नहीं देख रहे हैं, बल्कि एक अनुकूलित प्रस्तुति देख रहे हैं। लोकतंत्र का संकट वह क्षण नहीं है जब मतपेटी छीनी जाती है, बल्कि वह प्रक्रिया है जिसमें मतदान से पहले लोगों की "महसूस करने की क्षमता" को चुपचाप बदल दिया जाता है। जो अब हो रहा है, वह उसका प्रवेश द्वार है।


स्रोत URL

FlaglerLive
https://flaglerlive.com/ai-bots/

पाठ सामग्री की मुख्य पुष्टि के लिए उपयोग किया गया
https://www.salon.com/2026/02/15/swarms-of-ai-bots-are-threatening-democracy-partner/

The Conversation
https://bibbase.org/network/publication/menczer-swarmsofaibotscanswaypeoplesbeliefsthreateningdemocracy-2026

एआई स्वॉर्म्स द्वारा लोकतंत्र को खतरा देने वाले साइंस में प्रकाशित लेख के सारांश की पुष्टि के लिए उपयोग किया गया
https://arxiv.org/abs/2506.06299

शोध संस्थान द्वारा सारांश। एआई स्वॉर्म्स की विशेषताएं, घुसपैठ, अनुकूलन, स्थायित्व का संगठन के लिए उपयोग किया गया
https://www.bi.no/en/about-bi/news/2026/01/ai-swarms-threaten-democracy/

शोध संस्थान द्वारा सारांश। synthetic consensus, पहचान और नीति प्रतिक्रिया की दिशा की पुष्टि के लिए उपयोग किया गया
https://www.cs.ubc.ca/news/2026/01/ai-swarms

2028 के अमेरिकी राष्ट्रपति चुनाव के लिए चिंता, 2024 के चुनाव में शुरुआती उदाहरण, विशेषज्ञ टिप्पणियों की पुष्टि के लिए उपयोग किया गया
https://www.theguardian.com/technology/2026/jan/22/experts-warn-of-threat-to-democracy-by-ai-bot-swarms-infesting-social-media

2023 में पहचाने गए "fox8" बॉटनेट पर शोध लेख। 1000 से अधिक एआई बॉटनेट के उदाहरण की पुष्टि के लिए उपयोग किया गया
https://arxiv.org/pdf/2307.16336

fox8 बॉटनेट की रिपोर्ट। ChatGPT से उत्पन्न आत्म-प्रकटीकरण वाक्यांश और X पर धोखाधड़ी फैलाने के उदाहरण की पुष्टि के लिए उपयोग किया गया
https://www.wired.com/story/chat-gpt-crypto-botnet-scam/

X पर प्रतिक्रिया के उदाहरण। एआई बॉट समूहों द्वारा लोकतंत्र और स्वतंत्र चर्चा को खतरा देने की धारणा की पुष्टि के लिए उपयोग किया गया
https://x.com/SpirosMargaris/status/2014639340547195380
https://x.com/bryan_horrigan/status/2014511410953519369

LinkedIn पर प्रतिक्रिया के उदाहरण। शोधकर्ता और पेशेवर समुदाय में चेतावनी साझा करने की पुष्टि के लिए उपयोग किया गया
https://www.linkedin.com/posts/tangaudrey_how-malicious-ai-swarms-can-threaten-democracy-activity-7420685540989095936-EKqO
https://www.linkedin.com/posts/fmenczer_sciencepolicyforum-scienceresearch-activity-7421363633315577856-F9T9
https://www.linkedin.com/posts/science-magazine_sciencepolicyforum-ai-activity-7424097798943322112-6SKN

Reddit पर प्रतिक्रिया के उदाहरण। "पहले से मौजूद समस्या", "एल्गोरिदम का असली मुद्दा", "प्रमाणीकरण की मजबूती खतरनाक है" जैसी प्रतिक्रियाओं की पुष्टि के लिए उपयोग किया गया
https://www.reddit.com/r/technology/comments/1qk5002/experts_warn_of_threat_to_democracy_from_ai_bot/
https://www.reddit.com/r/technology/comments/1r4jxlv/swarms_of_ai_bots_can_sway_peoples_beliefs/
https://www.reddit.com/r/self/comments/1qp8g9w/it_feels_like_we_should_be_turning_off_the/
https://www.reddit.com/r/science/comments/1qqjwz8/swarms_of_ai_personas_mimic_humans_so_well_they/