AI가 글을 너무 많이 작성하여 사회를 망치기 시작했다

AI가 글을 너무 많이 작성하여 사회를 망치기 시작했다

AI는 "너무 똑똑한" 것이 아니라 "너무 많다"는 것이다

AI를 둘러싼 논의는 종종 성능에 치우치기 쉽다. 얼마나 자연스러운 문장을 쓸 수 있는지, 얼마나 인간처럼 행동할 수 있는지, 얼마나 일을 대체할 수 있는지. 그러나 FlaglerLive에 게재된 논고가 지적하는 핵심은 조금 다르다. 지금 사회를 흔들고 있는 것은 AI가 인간보다 똑똑해서가 아니다. 인간이 처리할 수 없는 양의 문장을, 순식간에, 게다가 그럴듯하게 만들어낼 수 있게 되었기 때문이다.

예를 들어 2023년, SF 문학지 클락스월드는 AI 생성 작품의 쇄도로 인해 신규 투고 접수를 중단하게 되었다. 원 기사에서도 상징적인 사건으로 언급되고 있지만, 이는 출판의 특수한 사건이 아니다. 신문의 투고란, 학술지, 정책에 대한 공공 의견, 법원에 제출하는 서류, 채용 지원서류, SNS 게시물까지, 문장이 입구가 되는 제도의 여기저기에서 같은 일이 일어나기 시작하고 있다. 과거에는 "쓰기 어렵다" "생각하기 어렵다"는 것 자체가 유량 제한이 되었었다. 그러나 생성 AI는 그 자연스러운 제한을 한꺼번에 없애버렸다.

이 변화가 까다로운 것은, 문장의 질이 높아서가 아니라, 양이 제도를 무너뜨리기 때문이다. 편집자나 심사자나 교사나 판사는 오류 없는 완벽한 판단 기계가 아니다. 제한된 시간에 대량의 문장을 읽고, 선택하고, 구별하고, 처리하는 인간이다. 여기에 AI가 더해지면서, 제도는 "질의 경쟁"이 아니라 "처리 능력의 한계"와 싸우게 된다. 다시 말해, 문제는 AI의 지능이 아니라, 인간 측의 대역폭에 있다.

그 상징이 행정의 의견 모집이다. 2026년에는, 남부 캘리포니아의 대기 규제를 둘러싼 논의에서, 2만 건이 넘는 반대 의견이 AI 지원 플랫폼을 통해 보내졌다는 것이 보도되었다. 관계자에게 문의한 결과, 자신이 보낸 기억이 없는 의견이 제출되었다는 예도 확인되고 있다. 물론, AI가 시민의 의견 표명을 돕는 것 자체는 일괄적으로 나쁘다고 할 수 없다. 문장이 서툰 사람, 시간이 없는 사람, 영어와 전문 용어에 불안이 있는 사람에게 AI는 정치 참여의 보조선이 될 수 있다. 그러나 같은 기술은 기업이나 로비스트가 "풀뿌리의 목소리"를 대량 생산해 보이는 도구가 될 수도 있다. 여기서 묻고 있는 것은 효율이 아니라, 대표성과 진정성이다.

재판의 세계에서도, 같은 구도는 더 심각한 형태로 나타나고 있다. 전미주법원센터는 2026년, AI 생성의 증거나 인용이 사법에 대한 신뢰를 위협하고 있다고 경고했다. 특히 본인 소송에서는, 존재하지 않는 판례나 조문, AI로 가공된 이미지·동영상·문장이 제출되는 사례가 늘고 있으며, 미국에서는 자기 대리의 당사자에 의한 허위 인용이 350건 이상 기록되고 있다고 한다. 게다가 문제는, 가짜가 섞이는 것만이 아니다. 진짜조차 "AI가 아닌가"라고 의심받는 시대가 되면, 증거 그 자체에 대한 신뢰가 약해진다. 제도의 토대는 올바름뿐만 아니라, 올바름을 믿을 수 있는 감각에 의해 지탱되고 있기 때문이다.

그렇다면, AI 탐지 도구를 강화하면 해결될까. 원 기사가 "승산 없는 군비 경쟁"이라고 부르는 것은 바로 여기다. 생성 측이 교묘해지면, 탐지 측도 고도화된다. 그러나 탐지기는 현실 세계에서 안정적으로 기능한다고는 할 수 없다. 스탠포드 HAI는, AI 탐지기가 비원어민 영어 화자의 문장을 높은 비율로 오판한다고 보고하고 있다. 2026년의 연구에서도, 탐지기는 벤치마크 상에서는 높은 정밀도로 보이더라도, 문체나 생성 모델이나 데이터 분포가 변하면 성능이 크게 무너지는 것이 나타나고 있다. 즉, 탐지는 필요하지만, 그것만 의존하면, 이번에는 무고한 인간을 해치게 된다.

SNS상의 반응도 흥미롭다. 공개 게시물을 보면, 반응은 크게 세 가지로 나뉘어 있었다. 첫째로, "혜택과 해를 어떻게 맞출 것인가"라는 실무적인 수용이다. Harvard Ash Center나 여러 LinkedIn 게시물에서는, AI는 민주주의에의 참여와 표현 지원에 도움이 될 수 있는 한편, 편향이나 오류나 대량 투하가 제도를 손상시킨다고 정리되어 있었다. 둘째로, "문제는 탐지가 아니라 신뢰의 설계다"라는 반응이다. 인간의 판단, 경험, 문맥을 중시하지 않으면, 제도는 "진짜 같은 것"만으로 돌아가게 된다는 우려가 두드러진다. 셋째로, 교육이나 학술 출판의 현장에서의 위기감이다. 오탐에 의한 불신, AI로 작성된 심사, 환각 인용의 혼입 등, 현장에 있는 사람일수록 "이미 시작된 문제"로서 이야기하고 있었다.

여기서 중요한 것은, "AI를 금지하면 원래대로 돌아간다"고 생각하기 어렵다는 것이다. 원 기사도, 능력이 높은 AI는 이미 널리 퍼져 있으며, 노트북에서도 작동하는 시대라고 지적하고 있다. 즉, 사회가 생각해야 할 것은, AI의 존재 자체를 없었던 것으로 하는 방법이 아니다. 어디까지를 지원으로 인정하고, 어디서부터를 위장으로 선을 그을 것인가. 대량 투고에 어떻게 마찰을 마련할 것인가. 인간의 심사를 어디에 남기고, 어디를 AI 보조에 맡길 것인가. 그 제도 설계이다.

오히려, AI에는 확실한 빛의 측면도 있다. 원 기사가 강조하듯이, 지금까지 문장 작성이나 지원서류의 다듬기, 학술 영어의 정문을 인간의 어시스턴트에게 맡길 수 있었던 것은, 시간이나 자금을 가진 사람들이었다. AI는 그 보조를 널리 해방한다. 그래서 정말로 지켜야 할 것은, "인간이 한 자 한 자 모두 자력으로 썼는가"라는 오래된 순혈주의가 아닐지도 모른다. 지켜야 할 것은, 본인의 의사, 경험, 책임, 그리고 제도가 받아야 할 "하나의 목소리"가, 대량 생산된 가짜 군중에 휩쓸리지 않는 것이다.

결국 AI 시대의 쟁점은 문장의 진위 판단만이 아니다. 무엇이 진짜 의견인지, 누가 책임을 지는지, 어디까지가 지원이고 어디서부터가 사술인지. 생성 AI는, 그러한 질문을 사회 앞에 가차 없이 던지고 있다. 문제는 AI가 인간과 똑같은 문장을 쓸 수 있는 것이 아니다. 인간의 제도가, 더 이상 "쓰기 너무 쉬운 세계"를 전제로 설계되어 있지 않다는 것이다.


출처 URL

FlaglerLive
https://flaglerlive.com/overwhelming-ai/

본문 내용의 확인에 사용한 재게시판. Bruce Schneier씨·Nathan Sanders씨에 의한 원 논고의 주요 주장을 확인
https://techxplore.com/news/2026-02-ai-generated-text-overwhelming-arms.html

동일 주제의 다른 게재처. 기사 전체의 요지 확인에 사용
https://www.washingtonpost.com/ripple/2026/02/05/ai-generated-text-is-overwhelming-institutions-setting-off-a-no-win-arms-race-with-ai-detectors/

클락스월드가 AI 생성 작품의 쇄도로 투고 중단에 이른 건의 보도
https://www.theguardian.com/technology/2023/feb/21/sci-fi-publisher-clarkesworld-halts-pitches-amid-deluge-of-ai-generated-stories

AI 탐지기가 비원어민 영어 화자에게 불리하다고 하는 스탠포드 HAI의 해설
https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers

AI 문장 탐지의 일반화 성능이 무너지기 쉬운 것을 나타내는 2026년의 연구
https://arxiv.org/abs/2603.23146

캘리포니아의 대기 규제를 둘러싸고, 2만 건 이상의 AI 지원 의견이 의사 결정에 영향을 미쳤다고 하는 보도
https://www.govtech.com/artificial-intelligence/ai-generated-comments-swayed-california-air-decision

법원에서의 AI 생성 증거·허위 인용과 사법 신뢰의 문제를 다루는 전미주법원센터의 기사
https://www.ncsc.org/resources-courts/ai-generated-evidence-threat-public-trust-courts

SNS상의 반응 그 1. 민주주의에의 영향이라는 관점에서 소개한 Harvard Ash Center의 공개 게시물
https://www.linkedin.com/posts/harvardashcenterfordemocraticgovernanceandinnovation_ai-generated-text-is-overwhelming-institutions-activity-7425269516542185472-ltoL

SNS상의 반응 그 2. AI의 혜택과 해의 균형을 묻는 공개 게시물
https://www.linkedin.com/posts/dr-david-ngatia_ai-generated-text-is-overwhelming-institutions-activity-7425403059226263552-brcN

SNS상의 반응 그 3. "data tsunami"와 거버넌스의 필요성을 논한 공개 게시물
https://www.linkedin.com/posts/john-gasparovic-0ba26b15_ai-generated-text-is-overwhelming-institutions-activity-7425717144308404224-rThd

SNS상의 반응 그 4. 교육 현장에서의 오판정과 신뢰 저하를 논한 공개 게시물
https://www.linkedin.com/posts/william-garrity-b87456112_ai-generated-text-is-overwhelming-institutions-activity-7429204916256038912-abEL

SNS상의 반응 그 5. 탐지 편중이 아니라 인간의 판단과 진정성을 중시해야 한다는 공개 게시물
https://www.linkedin.com/posts/john-gasparovic-0ba26b15_ai-generated-text-is-overwhelming-institutions-activity-7425717144308404224-rThd

SNS상의 반응 그 6. 학술 심사나 인용의 신뢰성 저하에 분노를 나타낸 학술계의 공개 게시물
https://www.linkedin.com/posts/harvardashcenterfordemocraticgovernanceandinnovation_ai-generated-text-is-overwhelming-institutions-activity-7425269516542185472-ltoL