10배 빠르고, 10배 저렴한 여론조사 ― AI가 정치의 분위기를 읽는 시대

10배 빠르고, 10배 저렴한 여론조사 ― AI가 정치의 분위기를 읽는 시대

AI는 "여론"을 들을 수 있는가 - 조사 현장에서 시작된 조용한 혁명

"정치인이라는 말을 들었을 때, 가장 먼저 떠오르는 이미지나 감정은 무엇입니까?"

전화 너머로 들려오는 것은 젊은 여성의 목소리처럼 들린다. 차분하고 사무적이며 대화의 템포도 자연스럽다. 그러나 그 목소리의 주인은 인간이 아니다. AI 에이전트, 즉 프로그램으로 작동하는 청취자이다.

응답자가 정치인에 대한 불신이나 냉소를 이야기하는 동안, 뒤에서는 여러 AI가 작동하고 있다. 응답이 질문에 맞는지 확인하는 AI, 내용이 얕으면 깊이 있는 대화를 유도하는 AI, 그리고 상대가 부정한 응답자나 봇이 아닌지를 간파하려는 AI. 이는 미래의 실험실 이야기가 아니다. 프랑스의 AI 여론 조사 기업 Naratis가 진행하는, 현실의 정치 조사 장면이다.

여론 조사는 오랫동안 사회의 목소리를 시각화하기 위한 중요한 도구였다. 선거 전의 지지율, 정책에 대한 찬반, 기업의 상품 평가, 사회 문제에 대한 태도. 신문이나 TV에서 제시되는 숫자는 정치인이나 기업, 미디어, 그리고 유권자 자신의 판단에 영향을 미쳐왔다.

그러나 그 기반은 지금 흔들리고 있다. 전화를 받는 사람은 줄어들고, 설문에 응답하는 사람도 줄었다. 많은 사람은 모르는 번호를 무시하고, 긴 설문지에는 응하지 않는다. 응답해주는 사람이 적어지면 조사는 비용이 많이 들고, 편향도 커진다. 그곳에 등장한 것이 AI에 의한 여론 조사 자동화다.

Naratis의 창업자 피에르 폰테인 씨는, 자사의 강점을 "사람에게 체크박스를 선택하게 하는 것이 아니라, AI와 대화하게 하는 것"이라고 설명하고 있다. 기존의 정량 조사는 찬성·반대·어느 쪽도 아님 등의 선택지를 대량으로 모은다. 한편, Naratis가 노리는 것은 더 많은 시간과 비용이 드는 정성 조사 영역이다. 소수의 사람에 대한 인터뷰나 그룹 토론을 통해, "무엇을 생각하는가"뿐만 아니라, "왜 그렇게 생각하는가"를 탐구하는 방법이다.

이 영역은 정치 캠페인이나 기업의 브랜드 조사에 매우 가치가 높다. 예를 들어 후보자의 슬로건을 들은 사람이 왜 호감을 가지는가. 어떤 정책안에 반발하는 사람은 제도의 내용이 싫은 것인지, 설명 방식이 싫은 것인지. 숫자만으로는 포착할 수 없는 감정이나 연상, 말더듬 속에 진정한 단서가 숨겨져 있을 수 있다.

AI는 그 정성 조사를 한꺼번에 확장할 가능성을 가지고 있다. 인간 인터뷰어가 한 사람씩 청취를 하면 시간도 인건비도 든다. 그러나 AI라면 동시에 다수의 대화를 진행할 수 있다. Naratis는 인간에 의한 조사에 비해 "10배 빠르고, 10배 저렴하며, 90%의 정확도"라고 주장하고 있다. 과거 몇 주와 수만 유로가 필요했던 조사가, 하루나 이틀 만에 완료될 가능성이 있다고 한다.

이 속도는 정치 현장에서는 큰 의미를 가진다. 선거 기간 중, 여론은 한 발언, 한 실언, 한 국제 사건으로 급변한다. 기존의 조사에서는 결과가 나왔을 때 상황이 변해 있는 경우도 드물지 않다. AI가 24시간 이내에 반응을 모을 수 있다면, 진영은 거의 실시간으로 유권자의 감정을 읽고 메시지를 수정할 수 있다.

그러나 여기에는 첫 번째 위험이 있다. 여론을 더 빨리 이해할 수 있다는 것은, 여론에 더 빨리 작용할 수 있다는 것이기도 하다. AI가 "이 표현이라면 분노를 피할 수 있다", "이 단어라면 지지층이 움직인다"고 제시하면, 정치인이나 진영은 유권자의 불만이나 불안을 더 정밀하게 맞춘 말을 던질 수 있게 된다. 민주주의에 있어서, 그것은 대화의 진보인가. 아니면 감정 조작의 고도화인가.

AI 여론 조사를 둘러싼 논의에서 중요한 것은 두 가지 기술을 나누어 생각하는 것이다. 하나는, 실재하는 인간에 대한 인터뷰를 AI가 대행하는 방법. 또 하나는, AI가 "합성 응답자"나 "디지털 트윈"을 만들어 실제 인간 대신 응답하게 하는 방법이다.

전자는 조사의 청취자와 분석자를 자동화한다. 응답하는 것은 어디까지나 인간이다. 후자는 과거의 데이터나 속성 정보를 바탕으로, AI가 "이런 사람이라면 이렇게 대답할 것이다"라고 추측한다. 이는 시장 조사에서는 컨셉 테스트나 가설 수립에 사용할 수 있을지 모르지만, 정치 조사에서는 한꺼번에 문제가 무거워진다.

왜냐하면, 정치에서의 여론 조사는 단순한 비즈니스 자료가 아니기 때문이다. 공표된 지지율은 보도되고, 기부나 투표 행동에 영향을 미치며, 후보자의 기세를 연출한다. 만약 AI가 생성한 응답을 인간으로부터 모은 여론과 동일하게 취급하면, "민의"가 측정된 것이 아니라, "민의처럼 보이는 것"이 합성되었을 뿐일 가능성이 있다.

이 점에 대해 기존의 조사 회사는 신중하다. 시장 조사 대기업 Ipsos는 AI를 활용하고 있지만, 정치적으로 민감한 조사에서 AI 생성 응답자를 사용하는 것에는 강한 경계가 있다. OpinionWay의 브루노 장바르 CEO도, AI가 만든 데이터에 기반한 여론 조사를 공표하지 않는다고 명확히 하고 있다. 이유는 명확하다. 조사 산업에 있어서, 최대의 자산은 "신뢰"이기 때문이다.

SNS 상에서도, AI 여론 조사에 대한 반응은 기대보다 경계에 기울어져 있다. 특히 영어권의 기술 커뮤니티에서는 "AI 여론 조사는 가짜 여론 조사다"라는 표현이 확산되고, Reddit에서는 "진짜 인간이 아니라, 대규모 언어 모델이 규칙에 따라 반응을 만들고 있을 뿐이다"라는 비판이 두드러졌다. 다른 사용자는, 방법론을 작게 써도 많은 사람이 읽지 않기 때문에, AI 생성 응답이라는 것을 간과할 수 없게 표시해야 한다고 주장하고 있었다.

한편, 모든 반응이 전면 부정인 것은 아니다. LinkedIn에서는, AI에 의한 합성 오디언스는 "실제 여론 조사"가 아니라 "예측 모델"로서 위치 지어야 한다는 논의도 있다. 즉, AI에 인간의 대역을 시키는 것이 아니라, 가설 검증이나 편향 탐지, 메시지의 초기 테스트에 사용한다면 의미가 있다는 견해다. 문제는 AI를 사용하는 것 자체가 아니라, 시뮬레이션을 실측 데이터처럼 보이게 하는 것이다, 라는 입장이다.

이 반응의 차이는, AI 여론 조사의 본질을 잘 나타내고 있다. 편리한 도구로 보면, AI는 조사의 가능성을 넓힌다. 인간이 응답하기 어려운 주제도, 기계 상대라면 본심을 말하기 쉬운 사람이 있을지도 모른다. 인간의 청취자에게는 멋을 부리거나, 사회적으로 바람직한 답을 하거나 하는 사람도, AI 상대라면 솔직해질 가능성이 있다. 프랑스에서는 극우 지지가 여론 조사에서 과소 평가되기 쉽다고 하지만, 이러한 "말하기 어려운 본심"을 포착할 수 있다면, AI 인터뷰에는 일정한 이점이 있다.

또한, AI는 응답의 깊이 있는 탐구에도 적합하다. 일반적인 설문에서는 "반대"라고 답한 이유를 충분히 파고들 수 없는 경우가 많다. 그러나 대화형 AI라면, "왜 그렇게 생각하십니까", "그 생각은 언제부터 바뀌었습니까", "어떤 사건이 인상에 남아 있습니까"라고 계속해서 물을 수 있다. 대량의 자유 응답을 분류하고, 감정이나 논점을 정리하는 작업도 AI의 특기 분야다.

그럼에도 불구하고, AI에는 치명적인 약점이 있다. 첫째, AI는 그럴듯한 실수를 만들 수 있다. 이른바 환각이다. 조사 세계에서는, 약간의 왜곡이 큰 오해로 이어질 수 있다. 둘째, AI는 과거 데이터에 강하게 의존한다. 과거에 많이 이야기된 의견, 인터넷에 대량으로 남은 담론, 영어권이나 도시부의 가치관을, 현실 이상으로 일반적인 것으로 취급할 가능성이 있다.

셋째, AI는 "평균적인 그럴듯함"에 치우치기 쉽다. 인간의 의견은 모순되고, 감정적이며, 상황에 따라 흔들린다. 어떤 정책에는 찬성하지만, 그 정책을 제안하는 정치가는 싫어할 수도 있다. 가계에 대한 불안과 환경 의식이 충돌할 수도 있다. AI가 정돈된 응답을 생성하면, 이러한 인간다운 흔들림이 제거된다. 결과적으로, 너무 깔끔한 민의가 생겨날 수 있다.

실제로, 합성 응답자에 관한 연구 리뷰에서는, 높은 수준의 평균치는 인간의 응답에 가까워질 수 있는 반면, 속성별 차이, 변동성, 상관, 회귀 계수 등의 세부 사항에서는 문제가 발생한다고 지적되고 있다. 정치 현장에서 중요한 것은 바로 그 세부 사항이다. 전체 평균이 맞아도, 특정 지역의 무당파층, 젊은 층, 이민 배경을 가진 유권자, 지방의 고령자 등의 반응을 잘못 파악하면, 선거 전략도 정책 판단도 잘못될 수 있다.

더욱 심각한 것은, 설명 책임의 문제이다. 기존의 여론 조사에도 한계는 있었다. 조사 대상의 편향, 질문문의 유도, 응답 거부, 가중치 부여 방법 등, 완벽한 조사는 존재하지 않는다. 그래도 적어도, 누구에게 물었는지, 언제 물었는지, 몇 명에게 물었는지, 질문은 무엇이었는지를 보여줌으로써, 외부에서 검증할 여지가 있었다.

AI가 들어가면, 이 검증은 복잡해진다. 어떤 모델을 사용했는가. 어떤 데이터로 학습했는가. 어떻게 응답의 깊이를 평가했는가. 부정 응답을 어떻게 간파했는가. 합성 응답자를 사용한 경우, 그 인물상은 무엇을 근거로 만들어졌는가. 이러한 정보가 불투명한 채로 숫자만 공표되면, 조사가 아니라 블랙박스의 권위화가 되어 버린다.

AI 여론 조사가 확산되면, 규제 논의도 피할 수 없을 것이다. 특히 정치 분야에서는, AI 생성 데이터에 기반한 조사를 공표할 경우, 명확한 표시 의무나 금지 규칙이 필요할 가능성이 있다. 프랑스처럼 여론 조사에 대한 규제가 비교적 강한 나라에서는, 합성 데이터를 사용한 정치 조사의 공표에 제한이 걸릴지도 모른다.

그러면, AI는 여론 조사를 정확하게 만드는가.

답은 단순하지 않다. AI는 기존의 조사가 어려워했던 속도, 비용, 자유 응답의 분석, 대화형의 깊이 있는 탐구에 강하다. 인간 인터뷰어 부족이나 응답률 저하에 고민하는 업계에 있어, 매력적인 해결책인 것은 틀림없다. 실재하는 인간에게 묻고, 그 대화를 AI가 보조·분석하는 형태라면, 여론 조사의 질을 높일 가능성은 충분히 있다.

그러나, AI가 인간 대신 "응답"하기 시작한 순간, 이야기는 달라진다. 그것은 여론의 측정이 아니라, 여론의 추측이며, 시뮬레이션이며, 모델의 출력이다. 유용할 수는 있다. 그러나 그것을 민의라고 부르기에는 신중해야 한다.

앞으로의 주류는, 아마도 완전 자동화가 아닌 하이브리드형이 될 것이다. AI가 질문을 던지고, 응답을 정리하고, 이상치를 검출하고, 가설을 세운다. 인간 조사원이 설계를 감독하고, 결과를 검증하며, 정치적·윤리적 책임을 진다. AI는 귀를 늘리지만, 최종적으로 무엇을 들은 것으로 할지는 인간이 결정한다. 그 선 긋기가 중요해진다.

AI 여론 조사는, 민주주의를 편리하게 할지도 모른다. 닿지 않았던 목소리를 포착하고, 복잡한 감정을 시각화하며, 정책이나 보도를 더 현실에 가깝게 할 가능성이 있다. 그러나 동시에, 민의를 합성하고, 조작하고, 알았다고 착각하게 하는 위험도 있다.

여론 조사의 본질은, 숫자를 만드는 것이 아니다. 사회에 사는 사람들이, 무엇을 두려워하고, 무엇에 분노하며, 무엇을 바라고, 어디에서 망설이고 있는지를 아는 것이다. AI가 그 작업을 돕는다면, 환영할 만한 진보가 된다. 그러나, AI가 인간 대신 민의를 말하기 시작한다면, 그것은 민주주의에 있어서 너무 편리한 위험물이 된다.

결국, AI 시대의 여론 조사에서 가장 중요한 것은, AI가 얼마나 똑똑한가가 아니다. 조사하는 측이 얼마나 정직하게, 무엇을 AI에 맡기고, 무엇을 인간에게 들었는지를 설명할 수 있는가이다. 신뢰를 잃은 여론 조사를 AI가 구할 것인가, 아니면 더욱 의심스러운 것으로 만들 것인가. 그 답은, 기술이 아니라, 사용 방법의 투명성에 달려 있다.


SNS 반응 요약

 

SNS와 댓글란에서는, AI 여론 조사에 대한 반응이 크게 세 가지로 나뉘고 있다.

첫째로 많은 것은, 강한 불신감이다. Reddit의 기술 커뮤니티에서는, AI가 응답자를 시뮬레이트하는 방식에 대해 "진짜 인간에게 묻지 않았다면 여론 조사가 아니다"라는 취지의 반응이 두드러진다. 특히, AI 생성 응답을 사용한 조사가 헤드라인이나 그래프만으로 확산되면, 독자가 실측 조사라고 오해할 수 있다는 우려가 강하다.

둘째로, "사용 용도를 제한하면 유용하다"는 현실적인 시각이 있다. LinkedIn에서는, AI에 의한 합성 오디언스는 여론의 측정이 아니라, 예측 모델이나 가설 검증 도구로서 다루어야 한다는 의견이 보인다. 메시지의 초기 테스트나, 모델의 편향 확인에는 사용할 수 있지만, 실제 인간의 목소리를 대체하는 것은 아니라는 입장이다.

셋째로, 기존의 여론 조사 자체에 대한 불신도 있다. SNS에서는 "인간 상대의 조사도 편향투성이가 아닌가"라는 목소리도 있으며, AI만이 문제가 아니라, 여론 조사 전체의 신뢰가 흔들리고 있음을 엿볼 수 있다. AI 여론 조사에 대한 비판은, 동시에 기존형 조사에 대한 불만의 표현이기도 하다.