การโฆษณาที่เหมือนมนุษย์มากกว่ามนุษย์: บอท AI จะปลอมแปลง "ความคิดเห็นของประชาชน" ได้หรือไม่ ― การกัดกร่อนของประชาธิปไตยที่เริ่มต้นบนโซเชียลมีเดีย

การโฆษณาที่เหมือนมนุษย์มากกว่ามนุษย์: บอท AI จะปลอมแปลง "ความคิดเห็นของประชาชน" ได้หรือไม่ ― การกัดกร่อนของประชาธิปไตยที่เริ่มต้นบนโซเชียลมีเดีย

ในอดีต เมื่อพูดถึงภัยคุกคามจากโซเชียลมีเดีย หลายคนมักจะนึกถึงบอทที่ส่งข้อความซ้ำๆ หรือกลุ่มบัญชีปลอมที่ชัดเจน แต่ปัจจุบัน นักวิจัยกำลังระวังภัยคุกคามที่เงียบกว่า มีความเป็นมนุษย์มากขึ้น และยากที่จะตรวจจับ บอทรุ่นใหม่ที่รวม AI ที่สามารถสร้างเนื้อหาได้ จะไม่เพียงแค่กระจายข้อความเดียวกันตามคำสั่ง แต่จะทำตัวเหมือนเป็นบุคคลที่แตกต่างกัน ปรับเปลี่ยนคำพูดตามความสนใจและการสนทนาของคู่สนทนา และค่อยๆ เปลี่ยนบรรยากาศ ปัญหาไม่ได้อยู่ที่ข้อมูลเท็จเอง แต่คือการสร้างบรรยากาศที่ทำให้ดูเหมือนว่า "ทุกคนคิดแบบนั้น" ได้อย่างเทียมๆ


ภัยคุกคามนี้ไม่ใช่เรื่องเพ้อฝัน Filippo Menczer และทีมงานที่มหาวิทยาลัยอินเดียนาได้ตรวจพบเครือข่ายบอทกว่า 1,000 ตัวที่ชื่อว่า "fox8" ซึ่งแพร่กระจายการหลอกลวงเกี่ยวกับสินทรัพย์ดิจิทัลบน X (Twitter ในขณะนั้น) ในช่วงกลางปี 2023 สิ่งที่โดดเด่นคือโพสต์ของบอทเหล่านี้มีลักษณะเหมือนมนุษย์มาก ในบางกรณีที่การดำเนินการไม่ละเอียดพอ จะมีข้อความเปิดเผยตัวเองเช่น "As an AI language model…" ปรากฏขึ้น แต่ทีมวิจัยมองว่านี่เป็นเพียง "ยอดภูเขาน้ำแข็ง" หากมีการดำเนินการอย่างพิถีพิถันมากขึ้น จะยากที่จะบอกความแตกต่างจากผู้ใช้ทั่วไป นอกจากนี้ บอทเหล่านี้ยังสนทนากันเองและมีปฏิสัมพันธ์กับโพสต์ของมนุษย์อย่างเป็นธรรมชาติ ขยายการเปิดเผยและอิทธิพลผ่านอัลกอริทึมการแนะนำ


สิ่งที่ไม่ควรมองข้ามคือการพัฒนาของบอท AI ที่ก้าวข้ามจากการ "โกหกอย่างชาญฉลาด" ไปสู่การ "ปลอมแปลงรูปแบบของความคิดเห็นสาธารณะ" ในเดือนมกราคม 2026 มีการเตือนในวารสาร Science เกี่ยวกับ "malicious AI swarms" ที่ทำงานร่วมกันเป็นกลุ่ม แทนที่จะทำงานเดี่ยว ทีมวิจัยชี้ว่า swarms เหล่านี้สามารถแทรกซึมเข้าไปในชุมชน เรียนรู้รูปแบบการสนทนาและสแลง ทดลองข้อความที่มีปฏิกิริยาดีอย่างรวดเร็ว และขยายเฉพาะข้อความที่มีผลมากที่สุด กล่าวคือ AI จำนวนมากจะพร้อมใจกัน "อ่านบรรยากาศ" และทำงานตลอด 24 ชั่วโมง


คำสำคัญที่สำคัญที่สุดในที่นี้คือ "synthetic consensus" หรือการสร้างความเห็นพ้องทางเทียม มนุษย์ไม่ได้ตัดสินใจว่าแนวคิดใดถูกต้องเพียงแค่จากเนื้อหาเท่านั้น หากรู้สึกว่ามีคนรอบข้างคิดเหมือนกัน ก็จะเชื่อได้ง่ายขึ้น นักวิจัยอธิบายว่านี่คือการใช้ประโยชน์จากการพิสูจน์ทางสังคม หาก AI ที่แสร้งทำเป็นมีความเห็นร่วมกันหรือพูดคุยธรรมดาๆ สามารถแทรกซึมเข้าไปในกระดานข่าวชุมชน การสนทนาเกี่ยวกับการเลี้ยงลูก การรวมกลุ่มของแฟนกีฬา หรือกลุ่มผู้สนับสนุนการเลือกตั้งได้เป็นร้อยหรือพัน มนุษย์อาจเข้าใจผิดว่า "นี่ไม่ใช่ความเห็นที่รุนแรงของคนกลุ่มน้อย แต่เป็นความรู้สึกทั่วไป" ความคิดเห็นสาธารณะที่ควรจะเป็นเสียงของบุคคลที่แตกต่างกันที่ปะทะกันเพื่อสร้างรูปแบบจะถูกทำลาย


ยิ่งไปกว่านั้น ความยุ่งยากของวิธีนี้คือการที่ไม่สามารถป้องกันได้ง่ายด้วยการตรวจสอบข้อเท็จจริงแบบง่ายๆ หากดูเพียงโพสต์เดียว อาจไม่ใช่ข่าวลือที่ชัดเจน ความคิดเห็น การประชด การพยักหน้า คำถาม ประสบการณ์ หรือความกังวลที่เกินจริงเล็กน้อย—เมื่อรวมกันมากๆ จะสร้างเรื่องราวขึ้นมา แม้จะมีข้อมูลที่ปฏิเสธ แต่ถ้าดูเหมือนว่ามีคนหลายคนที่เป็นอิสระมุ่งไปในทิศทางเดียวกัน ความประทับใจจะไม่หายไปง่ายๆ เป้าหมายของบอทคือการสร้างความรู้สึกว่ามีคนส่วนใหญ่อยู่ก่อนความจริง


นักวิจัยเตือนว่าไม่แปลกใจหากเทคโนโลยีนี้จะถูกใช้งานอย่างกว้างขวางก่อนการเลือกตั้งประธานาธิบดีสหรัฐฯ ในปี 2028 รายงานจาก Guardian ระบุว่ากลุ่มนักวิจัยและผู้ปฏิบัติงาน รวมถึงผู้ได้รับรางวัลโนเบลสาขาสันติภาพ Maria Ressa แสดงความกังวลว่า AI swarms อาจสนับสนุนการปฏิเสธผลการเลือกตั้งหรือการยอมรับการยกเลิกการเลือกตั้ง มีการกล่าวถึงตัวอย่างแรกๆ ของการใช้ AI ในการสร้างอิทธิพลในการเลือกตั้งในไต้หวัน อินโดนีเซีย และอินเดียในปี 2024 ซึ่งหมายความว่านี่ไม่ใช่ "เรื่องของอนาคต" แต่เป็น "วิธีการที่เริ่มถูกทดลองในปัจจุบัน"


 

ในขณะเดียวกัน ปฏิกิริยาบนโซเชียลมีเดียไม่ได้เป็นเอกฉันท์ การติดตามโพสต์สาธารณะพบว่ามีความรู้สึกวิกฤตที่ว่า "มันมาแล้ว" บน X มีการแชร์มุมมองว่า AI บอทจะสร้างความเห็นพ้องเทียมในระดับใหญ่และกัดกร่อนประชาธิปไตยและการอภิปรายอย่างเสรี และบน LinkedIn นักวิจัยและผู้เกี่ยวข้องได้กระจาย "clarion call" หรือการเตือนภัย โดยเฉพาะในปฏิกิริยาทางวิชาการและนโยบาย มีการจัดระเบียบว่า "สิ่งที่ร้ายแรงกว่าข้อมูลเท็จคือการทำให้ดูเหมือนว่ามีเสียงอิสระจำนวนมาก"


อย่างไรก็ตาม ปฏิกิริยาของผู้ใช้ทั่วไปมีนัยยะที่แตกต่างกัน บน Reddit มีความรู้สึกว่า "สิ่งนี้เกิดขึ้นมาหลายปีแล้ว" และ "บอทโฆษณาชวนเชื่อแบบเก่าที่มีต้นกำเนิดจากรัสเซียเพียงแค่ถูกพัฒนาให้ซับซ้อนขึ้นด้วย AI" ความไม่ไว้วางใจในแพลตฟอร์มที่ปล่อยปละละเลยปัญหานี้มานานแสดงออกมาอย่างชัดเจน นั่นคือภัยคุกคามที่แท้จริงไม่ได้มาจากเทคโนโลยีใหม่ แต่จากการออกแบบที่ทำให้บัญชีปลอมและโพสต์ยั่วยุแพร่กระจายได้ง่าย


นอกจากนี้ยังมีปฏิกิริยาที่ว่า "การยืนยันตัวตนหรือการเฝ้าระวังที่เข้มงวดเป็นวิธีแก้ปัญหาจะนำไปสู่ความเสี่ยงอื่นๆ" บน Reddit มีความกังวลว่าการยืนยันที่เข้มงวดอาจเป็นการละเมิดความเป็นส่วนตัวและนำไปสู่การสูญเสียความเป็นนิรนามหรือการรั่วไหลของข้อมูลส่วนบุคคล นี่ไม่ใช่เพียงแค่เรื่องเทคนิค แต่เป็นข้อสงสัยว่ามาตรการเพื่อปกป้องประชาธิปไตยอาจกลับกลายเป็นการเพิ่มการเฝ้าระวังและการยับยั้งการแสดงความคิดเห็น หากการแก้ปัญหาบอท AI ไม่ได้มุ่งไปในทิศทางที่ถูกต้อง อาจจะทำให้ "การปกป้องสังคมจากบอท" กลายเป็น "การทำให้มนุษย์แสดงความคิดเห็นได้ยากขึ้น"


ความขัดแย้งนี้เป็นเรื่องที่มีความสำคัญมาก หากมองปัญหาของ AI swarms เป็นเพียงความเสี่ยงทางเทคโนโลยี มาตรการจะมุ่งไปที่ "การเพิ่มการตรวจจับ" "การยืนยันที่เข้มงวด" และ "การระงับคำพูดที่น่าสงสัย" แต่เพียงเท่านั้นไม่เพียงพอและมีความเสี่ยง นักวิจัยยอมรับว่าไม่มีวิธีแก้ปัญหาที่เป็นเอกภาพ สิ่งที่จำเป็นคือการตรวจจับรูปแบบการกระทำร่วมกัน การอนุญาตให้นักวิจัยเข้าถึงข้อมูลแพลตฟอร์ม การติดป้ายกำกับเนื้อหาที่สร้างโดย AI และการแสดงประวัติ และที่สำคัญที่สุดคือการตัดโครงสร้างที่ทำให้มีเงินหมุนเวียนจากการมีส่วนร่วมปลอม ตราบใดที่ผู้โจมตีได้รับผลประโยชน์ บอทก็จะไม่ลดลง


ในที่สุด ปัญหานี้ไม่สามารถสรุปได้ด้วยคำว่า "AI อันตราย" สิ่งที่ยุ่งยากกว่าคือสิ่งที่เราเรียกว่า "ความคิดเห็นสาธารณะ" ในแต่ละวันนั้นพึ่งพาความประทับใจที่เห็นผ่านหน้าจอ ความคิดเห็นที่เห็นซ้ำๆ ในไทม์ไลน์ ข้อความที่ดูเหมือนมีหลายบัญชีสนับสนุน บรรยากาศในช่องความคิดเห็น หัวข้อที่ติดเทรนด์ สิ่งเหล่านี้เคยถูกเชื่อว่าเป็นผลจากความสนใจร่วมของมนุษย์ แต่ถ้ามี AI จำนวนมากผสมเข้ามา เราอาจไม่ได้เห็น "ความคิดของผู้อื่น" แต่ถูกแสดงให้เห็นการแสดงที่ถูกปรับให้เหมาะสม วิกฤตของประชาธิปไตยไม่ได้อยู่ที่การถูกแย่งชิงกล่องลงคะแนน แต่เป็นกระบวนการที่ความรู้สึกของผู้คนถูกเปลี่ยนแปลงอย่างเงียบๆ ก่อนการลงคะแนน นี่คือจุดเริ่มต้นของสิ่งที่เกิดขึ้นในขณะนี้


แหล่งที่มา URL

FlaglerLive
https://flaglerlive.com/ai-bots/

ใช้ในการตรวจสอบเนื้อหาหลักของบทความ
https://www.salon.com/2026/02/15/swarms-of-ai-bots-are-threatening-democracy-partner/

The Conversation
https://bibbase.org/network/publication/menczer-swarmsofaibotscanswaypeoplesbeliefsthreateningdemocracy-2026

ใช้ในการยืนยันสาระสำคัญของบทความใน Science ที่กล่าวถึง AI swarms ที่คุกคามประชาธิปไตย
https://arxiv.org/abs/2506.06299

สรุปโดยสถาบันวิจัย ใช้ในการจัดระเบียบลักษณะของ AI swarms การแทรกซึม การปรับให้เหมาะสม และความต่อเนื่อง
https://www.bi.no/en/about-bi/news/2026/01/ai-swarms-threaten-democracy/

สรุปโดยสถาบันวิจัย ใช้ในการยืนยันทิศทางของการตรวจจับและการตอบสนองทางนโยบายของ synthetic consensus
https://www.cs.ubc.ca/news/2026/01/ai-swarms

ใช้ในการยืนยันความกังวลเกี่ยวกับการเลือกตั้งประธานาธิบดีสหรัฐฯ ในปี 2028 ตัวอย่างแรกๆ ของการเลือกตั้งในปี 2024 และความคิดเห็นของผู้เชี่ยวชาญ
https://www.theguardian.com/technology/2026/jan/22/experts-warn-of-threat-to-democracy-by-ai-bot-swarms-infesting-social-media

งานวิจัยเกี่ยวกับเครือข่ายบอท "fox8" ที่ตรวจพบในปี 2023 ใช้ในการยืนยันตัวอย่างเครือข่ายบอท AI กว่า 1,000 ตัว
https://arxiv.org/pdf/2307.16336

รายงานเกี่ยวกับเครือข่ายบอท fox8 ใช้ในการเสริมข้อมูลเกี่ยวกับข้อความเปิดเผยตัวเองที่มีต้นกำเนิดจาก ChatGPT และการแพร่กระจายการหลอกลวงบน X
https://www.wired.com/story/chat-gpt-crypto-botnet-scam/

ตัวอย่างปฏิกิริยาบน X ใช้ในการยืนยันการรับรู้ว่า AI บอทคุกคามประชาธิปไตยและการอภิปรายอย่างเสรี
https://x.com/SpirosMargaris/status/2014639340547195380
https://x.com/bryan_horrigan/status/2014511410953519369

ตัวอย่างปฏิกิริยาบน LinkedIn ใช้ในการยืนยันการแชร์การเตือนภัยในชุมชนวิจัยและผู้ปฏิบัติงาน
https://www.linkedin.com/posts/tangaudrey_how-malicious-ai-swarms-can-threaten-democracy-activity-7420685540989095936-EKqO
https://www.linkedin.com/posts/fmenczer_sciencepolicyforum-scienceresearch-activity-7421363633315577856-F9T9
https://www.linkedin.com/posts/science-magazine_sciencepolicyforum-ai-activity-7424097798943322112-6SKN

ตัวอย่างปฏิกิริยาบน Reddit ใช้ในการยืนยันแนวโน้มปฏิกิริยาว่า "เป็นปัญหาที่มีมานาน" "อัลกอริทึมคือปัญหาหลัก" "การยืนยันที่เข้มงวดเป็นอันตราย"
https://www.reddit.com/r/technology/comments/1qk5002/experts_warn_of_threat_to_democracy_from_ai_bot/
https://www.reddit.com/r/technology/comments/1r4jxlv/swarms_of_ai_bots_can_sway_peoples_beliefs/
https://www.reddit.com/r/self/comments/1qp8g9w/it_feels_like_we_should_be_turn