AI에게 재판을 맡겨도 되는가 ― "단순한 사건이라도 위험하다"고 하는 진짜 이유

AI에게 재판을 맡겨도 되는가 ― "단순한 사건이라도 위험하다"고 하는 진짜 이유

AI는 "간단한 사건"조차 심판해서는 안 되는가

2026년 4월 7일에 게재된 Phys.org의 기사는 생성 AI를 "단순한 재판"에 사용하는 것조차 신중해야 한다고 주장했다. 논점은 단순하다. AI는 빠르고, 저렴하며, 일정한 형식으로 문서를 처리할 수 있다. 그렇기 때문에 법원의 업무가 과중한 시대에는 매력적으로 보인다. 하지만 판결이란 단순히 문장을 정리하거나, 과거의 사례를 나열하는 작업이 아니다. 그곳에는 당사자의 이야기를 듣고, 사정을 헤아리며, 법과 공정성 사이에서 판단하는 인간적인 활동이 포함되어 있다. 원 기사는 환각, 차별적인 출력, 불투명성과 같은 생성 AI의 약점을 지적하며, 사법의 핵심 부분에 기계를 도입하는 위험을 강하게 지적하고 있다.

이 문제가 심각하게 보이는 것은 이미 세계의 사법 현장에서 AI 활용이 시작되고 있기 때문이다. 영국의 사법 당국은 2025년 10월에 AI 이용 가이던스를 업데이트하여, AI 사용은 "사법 운영의 완전성"과 "법의 지배"를 훼손하지 않는 것이 대전제라고 명시했다. 그곳에서는 편향된 학습 데이터, 환각, 기밀 정보 입력 위험에 주의할 것을 촉구하면서, AI가 내놓은 내용이라도 최종 책임은 판사 측에 있다고 강조하고 있다. 즉, 보조 이용은 가능하더라도, 책임 그 자체는 인간으로부터 분리할 수 없다는 발상이다.

실제 도입 사례를 보더라도, 각국이 목표로 하는 것은 "AI 판사" 그 자체가 아니라, 어디까지나 보조 시스템에 가깝다. 대만에서는 음주 운전이나 사기 방조와 같은 비교적 정형적인 형사 사건에 대해 AI가 판결문의 초안을 생성하는 시스템이 시도되었지만, 사실 인정, 법의 적용, 양형 결정 권한은 판사에게 남겨져 있다. 에스토니아도 종종 "AI 판사"의 선진 사례로 언급되지만, 해당국의 사법·디지털 행정 당국은 소액 청구나 일반 절차에서 인간 판사를 대체하는 AI 판사를 개발하고 있는 것은 아니라고 명확히 하고 있다. 한편, 옥스퍼드 대학계의 정리에 따르면, 해당국에서는 최대 8,000유로의 소액 청구에 대해 반자동적으로 지급 명령을 내리는 시스템이 있으며, 그곳에서도 인간에 의한 감독이 남아 있다. 화제로는 선진적이더라도, 실태는 "완전 자동 재판"이 아니다.

그럼에도 불구하고, 원 기사의 저자가 "단순한 사건이라도 위험하다"고 말하는 이유는 무겁다. 애초에 무엇을 단순하다고 부르는가는 인간이 결정한다. 연금, 급부, 손해 배상, 경미해 보이는 형사 사건—제도의 측면에서는 정형 처리로 보일지라도, 당사자에게는 생활이나 신용, 미래를 좌우하는 심각한 문제인 경우가 적지 않다. 게다가 재판은, 올바른 답을 하나 내놓는 장치가 아니다. 당사자가 "자신은 들어주었다"고 느낄 수 있는 것, 사정이 인간에게 받아들여졌다고 납득할 수 있는 것 자체가, 사법의 정통성을 지탱하고 있다. 원 기사는, AI에는 고통, 후회, 취약성, 신뢰성과 같은 인간적인 요소를 이해하는 능력이 없으며, 그 한계 때문에 판사의 자리에 적합하지 않다고 논한다.

게다가, 효율화의 약속도, 현 시점에서는 그렇게 단순하지 않다. Reuters는 2026년 1월, 생성 AI 붐 이후, 허위 또는 잘못된 인용이 법정 제출 서류에 포함되어, 변호사가 제재를 받는 사례가 수십 건 발생했다고 보도했다. 2월에는 캔자스 주의 연방 판사가, AI가 만든 존재하지 않는 인용이나 판례를 검증하지 않고 제출한 변호사들에게 총 12,000달러의 제재금을 부과했다. 게다가 3월에도, AI 유래의 허위 판례를 둘러싼 제재가 계속되었다. 법정에서 중요한 것은 "그럴듯하게 쓸 수 있는 것"이 아니라, "정말로 올바른 것"이다. 이 점이 무너지면, AI로 절약한 시간은 결국 검증, 수정, 재심리, 항소 대응으로 잃게 된다.

한편, 현장의 압력이 AI 도입을 추진하고 있는 것도 사실이다. Reuters는 1월, 미국의 판사들이 AI의 장점과 함정을 공유하기 위한 연계 조직을 설립했다고 보도했다. 그곳에서는, AI가 법률 조사나 초안 작성 시간을 단축할 수 있는 한편, 환각이나 딥페이크 증거 등 새로운 위험도 초래할 수 있다는 점이 논의되고 있다. Washington Post도 4월, 조사 대상이 된 미국 연방 판사 112명 중 60% 이상이 어떤 형태로든 AI를 이용하고 있으며, 22%는 정기적으로 사용하고 있다고 보도했다. 사법은 이미 AI 시대에 들어서고 있다. 그러나 그곳에서 진행되고 있는 것은 "판결의 자동화"가 아니라, "인간이 최종적으로 책임을 지는 것을 전제로 한 보조 이용"이다.

 

SNS나 게시판의 반응을 보면, 이 논점을 둘러싼 감정의 강함을 잘 알 수 있다. Reddit의 AI 관련 커뮤니티에서는, "논리적인 판단을 학습시킬 수는 있어도, 배려나 겸손함을 학습시키는 것은 어렵다", "AI에 일을 전적으로 맡긴 것 아닌가"라는 부정적인 목소리가 눈에 띈다. 그중에는 "당신의 온라인 기록에서 유죄 가능성이 높다고 판단했습니다, 라는 세계가 될 것"이라고 비꼬는 글도 있어, AI 판사에 대한 불안은 단순한 기술론이 아니라 '사람이 데이터로 환원되는 두려움'으로 향하고 있다.

하지만, 긍정파나 조건부 용인파도 있다. 다른 Reddit 토론에서는, "인간 판사나 배심원도 감정, 배고픔, 편견, 외모의 인상에 좌우된다", "완벽한지 여부가 아니라, 현재의 인간 중심 시스템보다 나은지를 비교해야 한다"는 주장이 나왔다. 또한, "AI는 부패하지 않는 기반, 인간은 자비와 맥락을 담당하는 나침반"으로서, 양자를 결합하는 '협동 모델'을 지지하는 목소리도 있다. SNS상의 반응은 양극화된 것처럼 보이지만, 사실은 "전면 대체"보다 "보조 이용+인간 책임"으로 수렴하고 있다고도 할 수 있다. 다만, 이러한 SNS상의 반응은 여론 조사라기보다는, 논의의 경향을 나타내는 참고 자료로 보는 것이 타당하다.

결국 이 논의의 핵심은 성능이 아니다. 아무리 정밀도가 높아져도, 재판이 민주 사회에서 무엇을 의미하는가라는 질문은 남는다. 법정은, 효율적으로 사건을 처리하기 위한 장치가 아니다. 국가가 개인을 심판할 때, 그 판단에 인간이 책임을 지는 약속 그 자체가, 사법에 대한 신뢰를 지탱하고 있다. 그래서 AI는, 문서 정리, 판례 탐색, 요약, 초안 보조와 같은 주변 업무에서는 점점 더 힘을 발휘할 것이다. 그러나 "사람을 심판하는" 마지막 선까지 맡기면, 사법은 편리해지는 대신, 스스로의 정통성을 깎을지도 모른다. 원 기사가 경고하고 있는 것은 바로 그 점이다. 속도는 정의의 조건 중 하나일 수 있다. 그러나 정의 그 자체는 아니다.


출처 URL