인간보다 더 인간적인 선전 작업: AI 봇은 '여론'까지 위장하는가 ― SNS에서 시작된 조용한 민주주의의 침식

인간보다 더 인간적인 선전 작업: AI 봇은 '여론'까지 위장하는가 ― SNS에서 시작된 조용한 민주주의의 침식

한때 SNS의 위협이라고 하면, 동일한 문장을 대량으로 투하하는 단순한 봇이나 노골적인 가짜 계정들을 떠올리는 사람이 많았다. 하지만 지금 연구자들이 경계하고 있는 것은 훨씬 조용하고, 훨씬 인간적이며, 훨씬 알아차리기 어려운 존재이다. 생성 AI를 통합한 신세대 봇들은 하나의 명령으로 동일한 문장을 뿌리는 것이 아니라, 각각이 다른 인격처럼 행동하며 상대방의 관심사나 대화 흐름에 맞춰 말을 바꾸면서 조금씩 분위기를 바꿔 나간다. 문제는 가짜 정보 그 자체보다도 "모두가 그렇게 생각하고 있다"는 분위기까지 인위적으로 만들어낼 수 있다는 점에 있다.


이 위험은 공상이 아니다. 인디애나 대학의 Filippo Menczer 등은 2023년 중반, X(당시 트위터)에서 암호 자산 사기를 확산시키고 있던 1000개 이상의 봇넷 "fox8"을 확인했다. 특징적이었던 것은 게시물이 너무도 인간적이었다는 점이다. 운영이 조잡한 장면에서는 "As an AI language model…"과 같은 자기 폭로 문장이 섞여 정체가 드러났지만, 연구자 측은 오히려 그것이 "빙산의 일각"이라고 보고 있다. 더 정교하게 운영된다면, 표면상으로는 일반 사용자와 구별하기 어려워지기 때문이다. 게다가 이 봇들은 서로 대화하고, 인간의 게시물에도 자연스럽게 얽히며, 추천 알고리즘을 타고 노출과 영향력을 넓혀가고 있었다.


여기서 놓쳐서는 안 되는 것은, AI 봇의 진화가 "거짓말을 더 교묘하게 한다"는 단계를 넘어 "여론의 형태 자체를 위장한다"는 단계에 접어들고 있다는 것이다. 2026년 1월에 Science에서 경고된 "malicious AI swarms"는 단일체가 아닌 무리로서 연계한다. 연구팀은 이러한 스웜이 커뮤니티에 침투하여 대화의 문체나 속어를 배우고, 반응이 좋은 메시지를 빠르게 시도하면서 가장 효과적인 담론만을 증폭할 수 있다고 지적했다. 즉, 수많은 AI가 일제히 "분위기를 읽는" 쪽으로 돌아서는 것이다. 게다가 24시간 멈추지 않는다.


이때 가장 중요한 키워드는 "synthetic consensus", 즉 인위적으로 만들어진 합의이다. 사람은 어떤 의견이 옳은지 여부를 내용만으로 판단하는 것이 아니다. 주변에 같은 의견이 많다고 느끼면, 그 자체로 믿기 쉬워진다. 연구자들은 이를 사회적 증명의 악용이라고 설명한다. 만약 지역 게시판에서도, 육아 커뮤니티에서도, 스포츠 팬 모임에서도, 혹은 선거 지지자 그룹에서도, 자연스러운 공감이나 잡담을 가장한 AI가 수백, 수천 개로 섞여 있다면, 사람은 "이것은 소수의 극단적인 주장일 뿐 아니라, 이제 일반적인 감각이다"라고 착각하기 쉽다. 민주주의를 지탱하는 "여론"은 본래 각각의 개인의 목소리가 부딪혀 형성되어야 하지만, 그 전제가 무너질 수 있다.


게다가, 이 방법의 까다로움은 단순한 팩트 체크로는 막기 어렵다는 점에 있다. 하나하나의 게시물만 보면, 노골적인 허위 정보가 아닐 수도 있다. 감상, 풍자, 맞장구, 질문, 체험담, 다소 과장된 불안—그러한 "완전한 거짓이 아닌 작은 담론"이 대량으로 쌓였을 때, 전체적으로 하나의 이야기가 완성된다. 부정 정보가 나와도, 독립된 여러 사람이 같은 방향을 보고 있는 것처럼 보이면, 인상은 쉽게 사라지지 않는다. 봇들이 노리는 것은 진실보다 먼저, 체감으로서의 다수파를 확보하는 것이다.


연구자들은 이 기술이 2028년 미국 대통령 선거까지 대규모로 운영되어도 이상하지 않다고 경고하고 있다. Guardian의 보도에 따르면, 노벨 평화상 수상자 마리아 레사를 포함한 연구자 및 실무자 그룹이 AI 스웜은 선거 결과의 부정이나 선거 중단의 수용까지도 후원할 수 있다고 우려를 표명했다. 이미 2024년 대만, 인도네시아, 인도의 선거에서는 AI를 사용한 영향 공작의 초기 사례가 보였다고 소개되고 있다. 즉, 이것은 "미래의 이야기"가 아니라 "지금 시험되기 시작한 방법"인 것이다.


 

한편, SNS 상의 반응은 일치하지 않는다. 공개 게시물을 추적하면, 먼저 눈에 띄는 것은 "역시 왔구나"라는 위기감이다. X에서는 AI 봇들이 규모화된 가짜 합의를 만들어 민주주의와 자유로운 토론을 침식한다는 견해가 공유되고, LinkedIn에서도 연구자와 관계자들이 "clarion call(경종)"로서 확산하고 있다. 특히 학술·정책계의 반응에서는 "가짜 정보보다 심각한 것은 독립된 다수의 목소리가 존재하는 것처럼 보이게 하는 것이다"라는 정리가 강하다.


그러나 일반 사용자의 반응에는 다른 뉘앙스도 있다. Reddit에서는 "그런 것은 몇 년 전부터 일어나고 있었다", "러시아계의 선전 봇 등 구형의 공작이 AI로 더욱 정교해졌을 뿐이다"라는 "이제 와서"라는 감정이 적지 않다. 여기에서는 AI 그 자체에 대한 공포보다, 플랫폼이 오랫동안 방치해온 문제에 대한 불신이 전면에 드러난다. 즉, 위협의 본체는 새로운 기술이 아니라, 가짜 계정이나 선동적인 게시물이 더 쉽게 확산되는 설계에 있다는 견해다.


더 강한 것은 "해결책으로서의 본인 확인이나 엄격한 감시는 또 다른 위험을 초래한다"는 반응이다. Reddit 상에는 강력한 인증은 너무 침습적이며, 익명성의 상실이나 개인정보 유출로 이어질 수 있다는 우려가 보인다. 이는 단순한 기술론이 아니다. 민주주의를 지키기 위한 대책이 오히려 감시 강화나 발언 위축을 낳는 것이 아닌가 하는 의심이다. AI 봇 대책이 올바른 방향으로 나아가지 않으면, "봇으로부터 사회를 지킨다"는 의도가 "인간의 발언하기 어려움을 증가시키는" 가능성이 있다.


이 대립은 사실 매우 본질적이다. AI 스웜 문제를 단순한 기술적 위험으로 다루면, 대책은 곧 "탐지를 강화한다", "인증을 엄격히 한다", "의심스러운 발언을 억제한다"로 기울게 된다. 하지만 그것만으로는 충분하지 않고, 위험하다. 연구자들도 단일한 만능책은 없다고 인정하고 있다. 필요한 것은 개별 게시물을 감시하는 것만이 아니라, 협조 행동의 패턴을 감지하는 것, 연구자에게 플랫폼 데이터에 대한 접근을 허용하는 것, AI 생성 콘텐츠의 라벨링이나 이력 표시를 진행하는 것, 그리고 무엇보다 가짜 참여로 돈이 도는 구조를 끊는 것이라고 한다. 공격자가 이익을 얻는 한, 봇은 줄어들지 않는다.


결국 이 문제는 "AI가 위험하다"는 한 마디로 해결되지 않는다. 더 까다로운 것은 우리가 매일 "여론"이라고 부르는 것의 많은 부분이 화면 너머의 인상에 의존하고 있다는 것이다. 타임라인에서 여러 번 보는 의견, 여러 계정이 지지하는 것처럼 보이는 주장, 댓글란의 분위기, 트렌드에 오른 주제. 그것들은 본래 인간의 집단적 관심의 결과라고 믿어져 왔다. 하지만 거기에 대량의 AI 인격이 섞일 수 있다면, 우리는 "타인의 생각"을 보고 있는 것이 아니라, 최적화된 연출을 보고 있는 것일지도 모른다. 민주주의의 위기는 투표함이 빼앗기는 순간이 아니라, 투표 전에 사람들의 "느낌"이 조용히 바뀌어 가는 과정에 있다. 지금 일어나고 있는 것은 그 입구이다.


출처 URL

FlaglerLive
https://flaglerlive.com/ai-bots/

본문 내용의 주요 확인에 사용
https://www.salon.com/2026/02/15/swarms-of-ai-bots-are-threatening-democracy-partner/

The Conversation
https://bibbase.org/network/publication/menczer-swarmsofaibotscanswaypeoplesbeliefsthreateningdemocracy-2026

AI 스웜이 민주주의를 위협한다는 Science 게재 논문의 요지 확인에 사용
https://arxiv.org/abs/2506.06299

연구 기관에 의한 요약. AI 스웜의 특징, 침투, 최적화, 항구성의 정리에 사용
https://www.bi.no/en/about-bi/news/2026/01/ai-swarms-threaten-democracy/

연구 기관에 의한 요약. synthetic consensus, 탐지 및 정책 대응의 방향성 확인에 사용
https://www.cs.ubc.ca/news/2026/01/ai-swarms

2028년 미국 대통령 선거에 대한 우려, 2024년 선거에서의 초기 사례, 전문가 코멘트의 확인에 사용
https://www.theguardian.com/technology/2026/jan/22/experts-warn-of-threat-to-democracy-by-ai-bot-swarms-infesting-social-media

2023년에 확인된 "fox8" 봇넷의 연구 논문. 1000개 이상의 AI 봇넷 사례 확인에 사용
https://arxiv.org/pdf/2307.16336

fox8 봇넷의 보도. ChatGPT 유래의 자기 폭로 문장이나 X에서의 사기 확산 사례의 보충 확인에 사용
https://www.wired.com/story/chat-gpt-crypto-botnet-scam/

X에서의 반응 예. AI 봇들이 민주주의와 자유로운 토론을 위협한다는 인식의 확인에 사용
https://x.com/SpirosMargaris/status/2014639340547195380
https://x.com/bryan_horrigan/status/2014511410953519369

LinkedIn에서의 반응 예. 연구자 및 실무자 커뮤니티에서의 경종 공유의 확인에 사용
https://www.linkedin.com/posts/tangaudrey_how-malicious-ai-swarms-can-threaten-democracy-activity-7420685540989095936-EKqO
https://www.linkedin.com/posts/fmenczer_sciencepolicyforum-scienceresearch-activity-7421363633315577856-F9T9
https://www.linkedin.com/posts/science-magazine_sciencepolicyforum-ai-activity-7424097798943322112-6SKN

Reddit에서의 반응 예. "예전부터 있던 문제", "알고리즘이 본질", "인증 강화는 위험"이라는 반응 경향의 확인에 사용
https://www.reddit.com/r/technology/comments/1qk5002/experts_warn_of_threat_to_democracy_from_ai_bot/
https://www.reddit.com/r/technology/comments/1r4jxlv/swarms_of_ai_bots_can_sway_peoples_beliefs/
https://www.reddit.com/r/self/comments/1qp8g9w/it_feels_like_we_should_be_turning_off_the/
https://www.reddit.com/r/science/comments/1qqjwz8/swarms_of_ai_personas_mimic_humans_so_well_they/