기자는 AI를 어디까지 사용해도 되는가 - 투명성이 역효과를 낳을까? AI 시대의 뉴스가 안고 있는 '공지의 딜레마'

기자는 AI를 어디까지 사용해도 되는가 - 투명성이 역효과를 낳을까? AI 시대의 뉴스가 안고 있는 '공지의 딜레마'

AI는 뉴스룸의 "보이지 않는 공동 편집자"가 되었다. 취재 메모의 문자 변환, 방대한 문서의 정리, 요약, 제목 제안, 이미지 보조... 이전에는 인력과 시간이 필요했던 과정이 이제는 몇 분 만에 진행된다. 자금 조달이 어려운 보도 산업에 있어 AI는 "비용을 낮추고 속도를 높이는" 매력적인 수단이다. 그러나 그 편리함은 동시에 "책임의 소재"를 모호하게 하여 신뢰를 흔들 수 있다.


그 긴장이 마침내 "노사 쟁점"으로 전면화되었다. 독립계 조사 보도로 알려진 ProPublica의 기자들이 AI의 취급을 둘러싼 협상에서 강한 태도를 보이며, AI 운영이 주요 논점이 되는 뉴스 산업의 노동 쟁의로 주목받고 있다.



1) 현재 현장에서 일어나고 있는 일: AI는 "도움이 된다"—그러나 사고도 증가한다

현장 측이 AI를 놓을 수 없는 이유는 명확하다. 데이터 중심의 취재에서는 AI가 복잡한 작업을 단순화하고 시간을 절약한다. 음성 변환은 이미 자동화가 당연하게 되었고, 검색 서비스 자체도 AI 요약을 포함하게 되었다.


한편, 급하게 도입한 결과의 "사고"도 표면화되고 있다. AI 요약의 오류를 수정하는 경우, 실재하지 않는 저자 명의의 게시물이 혼입되는 경우, 생성물이 사실을 조작하는 경우. 상징적이었던 것은 Ars Technica가 AI 도구에 의해 생성된 "조작된 인용"을 포함한 기사를 게재하고, 나중에 철회 및 사과한 사건이다. AI의 전형적인 약점(그럴듯하게 거짓을 섞는)을 테크 보도의 노포가 스스로 밟은 형태가 되었다.


즉, AI는 "효율화의 천사"이자 "신뢰 훼손의 악마"가 될 수 있다. 문제는 뉴스 조직이 이 양면성을 전제로 "어디에 가드레일을 놓을 것인가"를 결정하지 못하고 있는 점에 있다.



2) 왜 갈등이 생기는가: AI 거버넌스의 논점은 "문장"보다 "권한"

이번 쟁점을 "AI로 기사를 작성할 것인가"로 축소하면 오해할 수 있다. 실제 싸움은 더 넓다.

  • 공개(Disclosure): AI를 사용한 사실을 독자에게 어떻게 전달할 것인가

  • 인간 개입(Human-in-the-loop): 어느 과정에 인간의 판단을 필수로 할 것인가

  • 고용 및 직능(Jobs): AI가 일을 대체할 때, 누가 보호받고, 누가 재배치될 것인가

  • 편집 책임(Accountability): 실수가 발생했을 때, 책임은 기자인가 편집자인가, 도구 도입자인가


ProPublica 측(경영)은 "몇 년 단위로 구속되는 계약에, 변화가 빠른 기술의 운영을 고정화하는 것은 위험하다"는 입장을 취하고, 노조 측은 "고정화하지 않으면 제동이 되지 않는다"고 반발한다. 바로 거버넌스의 줄다리기다.


여기서 중요한 것은, AI의 활용 범위가 "점"이 아니라 "선"으로 확장되고 있다는 것이다. 취재 시작부터 공개까지, 무수한 과정에서 AI가 관여할 수 있다. 따라서 "AI를 사용하면 반드시 표시"라는 단순 규칙은 현장의 실태를 잘 포착하지 못할 수 있다.



3) "공개하면 신뢰가 올라간다"는 환상?—"고지의 딜레마"

독자는 일반적으로 "AI 사용을 알고 싶다"고 말한다. 그러나 실제로 AI 사용을 명시하면 오히려 신뢰가 떨어지는 경향이 있다—이 모순이 보도 현장을 괴롭힌다.


왜일까. 이유는 몇 가지가 생각된다.
하나는, 독자가 AI를 "비용 절감 도구", "대충하는 상징"으로 직결시켜 버리는 것. 또 하나는, 생성 AI의 "환각"이 널리 알려져 "AI=오류의 온상"이라는 선입견이 강해지고 있는 것. Ars Technica의 철회극은 바로 그 불신을 강화했다.


게다가, 일정 수의 사람들은 "애초에 AI를 보도에 사용하지 않았으면 좋겠다"고 생각한다. 공개는 그러한 층에 대해 "경고 라벨"이 되어 버린다.


결국, 공개는 "성실함의 증명"이 될 수 있는 한편, "품질 저하"나 "기자의 부재"를 상기시키는 위험도 안고 있다. 여기가 "Catch-22(진퇴양난)"다.



4) 규칙이 따라잡지 못한다: 변화 속도가 "규정"을 부패시킨다

AI의 진화가 너무 빠르다는 주장은 업계 내에서 자주 들린다. 최근 화제가 된 에세이가 "최근 몇 달간 AI에 접하지 않았다면, 지금의 AI는 눈에 띄게 다르다"고 부추기며 확산되었다. 이것이 "지금 규정을 문서화해도 곧 진부화된다"는 논의의 순풍이 되었다.


하지만 변화가 빠르기 때문에 "원리 원칙"이 필요하다는 시각도 있다. 예를 들어,

  • 사실 확인의 책임은 인간이 진다

  • 인용·고유 명사·수치는 검증 가능한 근거에 연결한다

  • AI가 관여한 부분은 감사 가능한 로그를 남긴다
    와 같은, 도구의 종류가 바뀌어도 통용되는 "운영의 골격"은 만들 수 있을 것이다.


실제로, Trusting News는 AI 활용의 투명성이나 설명 방법에 관한 지침 마련을 촉구하고 있다.



5) "법"은 개입해야 하는가: 뉴욕주의 NY FAIR News Act가 던진 파문

논의는 마침내 정치에도 파급되었다. 뉴욕주에서 생성 AI가 관여한 뉴스 콘텐츠에 명확한 면책·표시를 요구하고, 인간의 편집 권한에 의한 리뷰를 의무화하는 것을 내건 법안(NY FAIR News Act)이 제안되어 찬반을 불러일으키고 있다.


지지 측은 "투명성 확보", "노동자 보호", "독자의 권리"를 이유로 든다. 반대·우려 측은 "정부가 편집 판단에 개입하는 것이 아닌가", "보도의 독립성이나 표현의 자유에 저촉될 수 있다"고 경계한다.


여기서 보이는 것은, AI 거버넌스가 "기업 내의 운영"을 넘어, 사회 제도의 설계론이 되어가고 있다는 현실이다.



6) SNS의 반응: 현장의 목소리는 "투명성"보다 "통치"를 요구하기 시작했다

이번 논점은, SNS상에서도 "AI는 선인가 악인가"라는 단순 대립을 넘어, "어떻게 통치할 것인가"에 초점이 옮겨지기 시작한 것이 흥미롭다.


(A) 노조·기자 측: 고용뿐만 아니라 "신뢰의 가드레일"을 요구

NewsGuild계의 발신에서는, ProPublica의 협상을 "AI의 남용을 막기 위한 방파제"로 간주하고, 파업도 불사하는 강경한 자세를 드러내는 게시물이 눈에 띈다. Bluesky에서도, ProPublica의 움직임에 연대하는 톤이 보인다.


함의는 이렇다. "AI는 어차피 들어온다. 그렇다면, 투명성·인간 개입·고용 영향의 최소화를, 계약과 프로세스로 묶어라."


(B) 테크/독자 커뮤니티: Ars Technica 철회에 "감사하라", "누가 했는가"의 추궁

Ars Technica의 "조작된 인용" 철회를 둘러싸고는, 게시판·커뮤니티에서 "왜 검증하지 않았는가", "누가 도구를 사용했고, 어디서 멈추지 못했는가"라는, 프로세스 감사를 요구하는 반응이 많다.


이는 감정적인 AI 비판이라기보다는, "공정 관리의 실패"로 간주하는 시점이다. AI의 출력을 "소재"로 취급한다면, 소재 검수의 책임자와 기준이 필요하다는 당연한 요구로 수렴하고 있다.


(C) 규제 법안에 대한 반응: "표시"만으로는 부족하다 / 반대로 "너무 깊이 들어간다"

NY FAIR News Act에 대한 반응은 갈린다. LinkedIn 등에서는 "AI는 도구 도입이나 표시 문구의 문제가 아니라, 데이터 접근·승인 권한·기록성까지 포함하는 '라이프사이클 통치'다"라는, 더 넓은 거버넌스 논의가 이루어지고 있다.


한편으로, 보도의 독립성을 손상시키는 것이 아닌가 하는 비판도 강하다. 법이 "편집의 내용"에 영향을 미치지 않는 형태로 투명성만을 보장할 수 있는가, 현실적으로 어렵다는 의문이다.



7) 그렇다면, 뉴스룸은 어떻게 "통치"해야 하는가: 3가지 현실적 해법

이 기사가 던진 질문에 대해, 현실적인 해법은 "AI를 사용한다/사용하지 않는다"가 아니라, 다음 3점에 집약된다.

① "중요한 AI 이용"을 정의하고, 그 부분만 강하게 제약한다

모든 과정에서 일률적으로 공개하면 운영이 파탄나기 쉽다. 그렇기 때문에,

  • 본문 생성

  • 중요한 요약(뉴스의 요점을 대체하는 것)

  • 이미지·영상의 생성이나 변형

  • 인용문의 생성(이는 원칙적으로 금지에 가까운 취급)
    과 같은 "독자의 판단에 영향을 미치고, 오류의 피해가 큰 영역"을 "중요"로 정의하고, 강한 감사와 공개를 행하는 것이 좋다.

② Human-in-the-loop를 "편집"이 아니라 "책임"으로 설계한다

"사람이 보았다"는 것으로는 약하다. 누가, 무엇을, 어떤 기준으로 확인했는가. 로그와 권한의 설계가 거버넌스의 중심이 된다. Ars Technica의 사건이 보여준 것은, 규칙 문구보다도 운영 설계의 취약함이었다.

③ 독자에 대한 설명은 "면죄부"가 아니라 "이해의 보조"로 한다

공개는 신뢰를 높이는 만능약이 아니다. 그렇다면, 단순히 "AI를 사용했습니다"라고 붙이는 것이 아니라,

  • 무엇을 위해 사용했는가(예: 문자 변환, 자료 정리)

  • 사용해서는 안 되는 부분에는 사용하지 않았는가(예: 인용의 생성은 하지 않았다)

  • 오류가 발생한 경우의 수정 절차
    까지 포함한 "설명"으로 설계할 필요가 있다.


##HTML_TAG_255