AIに裁判を任せていいのか ― 「単純な事件でも危うい」と言われる本当の理由

AIに裁判を任せていいのか ― 「単純な事件でも危うい」と言われる本当の理由

AIは「簡単な事件」すら裁くべきではないのか

2026年4月7日に掲載されたPhys.orgの記事は、生成AIを「単純な裁判」に使うことにさえ慎重であるべきだと訴えた。論点は単純だ。AIは速く、安く、一定の形式で文書を処理できる。だからこそ、裁判所の業務が逼迫する時代には魅力的に見える。だが、判決とは単に文章を整えたり、過去の事例を並べたりする作業ではない。そこには、当事者の話を聞き、事情を汲み、法と公平のあいだで判断するという、人間的な営みが含まれている。元記事は、幻覚、差別的な出力、不透明性といった生成AIの弱点を挙げながら、司法の核心部分に機械を入れる危険を強く指摘している。

この問題が重く見えるのは、すでに世界の司法現場でAI活用が始まっているからだ。英国の司法当局は2025年10月にAI利用ガイダンスを更新し、AI使用は「司法の運営の完全性」と「法の支配」を損なわないことが大前提だと明記した。そこでは、偏った学習データ、幻覚、機密情報の入力リスクに注意を促しつつ、AIが出した内容であっても最終責任は裁判官側にあると強調している。つまり、補助利用はあり得ても、責任そのものは人間から切り離せないという発想だ。

実際の導入例を見ても、各国が目指しているのは「AI裁判官」そのものではなく、あくまで補助システムに近い。台湾では、飲酒運転や詐欺幇助のような比較的定型的な刑事事件について、AIが判決文の下書きを生成する仕組みが試行されたが、事実認定、法の適用、量刑の決定権限は裁判官に残されている。エストニアもよく「AI裁判官」の先進例として語られるが、同国の司法・デジタル行政当局は、少額請求や一般手続で人間裁判官を置き換えるAI裁判官を開発しているわけではないと明言している。一方で、オックスフォード大学系の整理によれば、同国では最大8,000ユーロの少額請求について半自動的に支払命令を出す仕組みがあり、そこでも人間による監督が残る。話題としては先進的でも、実態は「完全自動裁判」ではない。

それでもなお、元記事の著者が「単純な事件でも危うい」と言う理由は重い。そもそも、何をもって単純と呼ぶのかは人間が決める。年金、給付、損害賠償、軽微に見える刑事事件――制度の側からは定型処理に見えても、当事者にとっては生活や信用、将来を左右する深刻な問題であることが少なくない。しかも裁判は、正しい答えを一つ出すだけの装置ではない。当事者が「自分は聞いてもらえた」と感じられること、事情が人間に受け止められたと納得できること自体が、司法の正統性を支えている。元記事は、AIには苦痛、後悔、脆弱さ、信頼性といった人間的な要素を理解する能力がなく、その限界ゆえに裁判官の席には不向きだと論じる。

しかも、効率化の約束も、現時点ではそれほど単純ではない。Reutersは2026年1月、生成AIブーム以降、虚偽または誤った引用が法廷提出書類に入り込み、弁護士が制裁を受ける事例が何十件も生じていると報じた。2月にはカンザス州の連邦判事が、AIが作った存在しない引用や判例を検証せず提出した弁護士らに計1万2,000ドルの制裁金を科している。さらに3月にも、AI由来の虚偽判例をめぐる制裁が続いた。法廷で重要なのは「それらしく書けること」ではなく、「本当に正しいこと」だ。ここが崩れると、AIで浮かせたはずの時間は、結局は検証、訂正、再審理、上訴対応で失われていく。

一方で、現場の圧力がAI導入を後押ししているのも事実だ。Reutersは1月、米国の裁判官らがAIの利点と落とし穴を共有するための連携組織を立ち上げたと報じた。そこでは、AIが法律調査や下書きの時間を短縮し得る一方、幻覚やディープフェイク証拠など新しい危険ももたらすことが話し合われている。Washington Postも4月、調査対象となった米連邦判事112人のうち6割超が何らかの形でAIを利用し、22%は定期的に使っていると報じた。司法はすでにAI時代に入っている。しかし、そこで進んでいるのは「判決の自動化」ではなく、「人間が最後に責任を負うことを前提とした補助利用」である。

 

SNSや掲示板の反応を見ると、この論点をめぐる感情の強さがよく分かる。RedditのAI関連コミュニティでは、「論理的な判断を学習させることはできても、思いやりや謙虚さを学習させるのは難しい」「AIに仕事を丸投げしただけではないか」といった否定的な声が目立つ。なかには「あなたのオンライン履歴から有罪の可能性が高いと判断しました、という世界になるのでは」と皮肉る書き込みもあり、AI裁判官への不安は、単なる技術論ではなく“人がデータに還元される怖さ”に向かっている。

ただし、肯定派や条件付き容認派もいる。別のReddit議論では、「人間の裁判官や陪審も感情、空腹、偏見、見た目の印象に左右される」「完璧かどうかではなく、現在の人間中心システムよりマシかを比べるべきだ」という主張が出ていた。また、「AIは腐敗しない基盤、人間は慈悲や文脈を担う羅針盤」として、両者を組み合わせる“協働モデル”を支持する声もある。SNS上の反応は二極化しているようでいて、実は「全面代替」より「補助利用+人間責任」に収れんしつつあるとも言える。なお、こうしたSNS上の反応は世論調査ではなく、議論の傾向を示す参考材料として見るのが妥当だ。

結局のところ、この議論の核心は性能ではない。どれだけ精度が上がっても、裁判が民主社会において何を意味するのかという問いは残る。法廷は、効率的に事件をさばくためだけの装置ではない。国家が個人を裁くとき、その判断に人間が責任を負うという約束そのものが、司法への信頼を支えている。だからAIは、書類整理、判例探索、要約、下書き補助といった周辺業務ではますます力を発揮するだろう。しかし「人を裁く」という最後の一線まで委ねてしまえば、司法は便利になる代わりに、自らの正統性を削るかもしれない。元記事が警告しているのは、まさにその点だ。速さは正義の条件の一つではある。だが、正義そのものではない。


出典URL