Ist es in Ordnung, der KI Gerichtsverfahren anzuvertrauen? ― Der wahre Grund, warum selbst bei einfachen Fällen Vorsicht geboten ist

Ist es in Ordnung, der KI Gerichtsverfahren anzuvertrauen? ― Der wahre Grund, warum selbst bei einfachen Fällen Vorsicht geboten ist

Sollte KI nicht einmal "einfache Fälle" beurteilen?

Ein Artikel auf Phys.org, veröffentlicht am 7. April 2026, argumentierte, dass man bei der Verwendung von generativer KI selbst für "einfache Gerichtsverfahren" vorsichtig sein sollte. Das Argument ist einfach: KI kann Dokumente schnell, kostengünstig und in einem bestimmten Format verarbeiten. Daher erscheint sie in Zeiten, in denen die Gerichte überlastet sind, attraktiv. Doch ein Urteil ist nicht nur das Ordnen von Texten oder das Auflisten vergangener Fälle. Es beinhaltet das Zuhören der Parteien, das Verstehen der Umstände und das Entscheiden zwischen Recht und Gerechtigkeit, was eine menschliche Tätigkeit ist. Der Originalartikel hebt die Schwächen der generativen KI wie Halluzinationen, diskriminierende Ausgaben und Intransparenz hervor und warnt eindringlich vor der Gefahr, Maschinen in den Kern der Justiz zu integrieren.

Das Problem erscheint umso schwerwiegender, da der Einsatz von KI in der Justiz weltweit bereits begonnen hat. Die britischen Justizbehörden aktualisierten im Oktober 2025 ihre Leitlinien zur Nutzung von KI und stellten klar, dass der Einsatz von KI die "Integrität der Justiz" und die "Rechtsstaatlichkeit" nicht beeinträchtigen darf. Dabei wird auf die Risiken von voreingenommenen Trainingsdaten, Halluzinationen und der Eingabe vertraulicher Informationen hingewiesen, während betont wird, dass die endgültige Verantwortung auch bei KI-generierten Inhalten bei den Richtern liegt. Das bedeutet, dass eine unterstützende Nutzung möglich ist, die Verantwortung jedoch nicht von den Menschen getrennt werden kann.

Auch bei den tatsächlichen Anwendungsbeispielen streben die Länder nicht nach einem "KI-Richter" als solchem, sondern eher nach einem unterstützenden System. In Taiwan wurde ein System erprobt, bei dem KI Entwürfe von Urteilstexten für relativ standardisierte Strafsachen wie Trunkenheit am Steuer oder Beihilfe zum Betrug erstellt, wobei die Feststellung von Tatsachen, die Anwendung des Rechts und die Entscheidung über das Strafmaß den Richtern vorbehalten bleiben. Estland wird oft als fortschrittliches Beispiel für "KI-Richter" genannt, aber die Justiz- und Digitalverwaltungsbehörden des Landes haben klargestellt, dass sie keine KI-Richter entwickeln, um menschliche Richter bei geringfügigen Forderungen oder allgemeinen Verfahren zu ersetzen. Laut einer Übersicht der Universität Oxford gibt es jedoch ein halbautomatisches System zur Erteilung von Zahlungsanordnungen für Forderungen bis zu 8.000 Euro, bei dem auch menschliche Aufsicht verbleibt. Obwohl es als fortschrittlich gilt, ist es in der Praxis kein "vollständig automatisiertes Gericht".

Trotzdem ist der Grund, warum der Autor des Originalartikels sagt, dass "selbst einfache Fälle riskant sind", von Bedeutung. Letztlich entscheidet der Mensch, was als einfach gilt. Renten, Leistungen, Schadensersatz, scheinbar geringfügige Strafsachen - auch wenn sie aus Sicht des Systems als standardisierte Verfahren erscheinen, sind sie für die Betroffenen oft schwerwiegende Probleme, die ihr Leben, ihren Ruf und ihre Zukunft beeinflussen. Außerdem ist ein Gericht kein Gerät, das nur eine richtige Antwort liefert. Dass die Parteien das Gefühl haben, "gehört worden zu sein", und dass ihre Umstände von Menschen verstanden wurden, trägt zur Legitimität der Justiz bei. Der Originalartikel argumentiert, dass KI nicht in der Lage ist, menschliche Elemente wie Schmerz, Reue, Verwundbarkeit und Zuverlässigkeit zu verstehen, und dass sie aufgrund dieser Grenzen nicht für den Richterstuhl geeignet ist.

Darüber hinaus ist das Versprechen der Effizienzsteigerung derzeit nicht so einfach. Reuters berichtete im Januar 2026, dass seit dem Boom der generativen KI Dutzende von Fällen aufgetreten sind, in denen falsche oder fehlerhafte Zitate in Gerichtsunterlagen eingefügt wurden und Anwälte sanktioniert wurden. Im Februar verhängte ein Bundesrichter in Kansas eine Geldstrafe von insgesamt 12.000 Dollar gegen Anwälte, die Zitate und Präzedenzfälle, die von KI erstellt wurden und nicht existierten, eingereicht hatten, ohne sie zu überprüfen. Auch im März gab es weitere Sanktionen im Zusammenhang mit falschen Präzedenzfällen, die von KI stammten. Wichtig im Gericht ist nicht, "etwas plausibel zu schreiben", sondern "wirklich richtig zu sein". Wenn dies zusammenbricht, geht die durch KI eingesparte Zeit letztlich durch Überprüfung, Korrektur, erneute Verhandlungen und Berufungen verloren.

Gleichzeitig ist es eine Tatsache, dass der Druck vor Ort die Einführung von KI vorantreibt. Reuters berichtete im Januar, dass US-Richter eine Organisation gegründet haben, um die Vorteile und Fallstricke von KI zu teilen. Dabei wird diskutiert, dass KI die Zeit für juristische Recherchen und Entwürfe verkürzen kann, aber auch neue Gefahren wie Halluzinationen und Deepfake-Beweise mit sich bringt. Die Washington Post berichtete im April, dass über 60 % der 112 befragten US-Bundesrichter in irgendeiner Form KI nutzen und 22 % sie regelmäßig verwenden. Die Justiz ist bereits im KI-Zeitalter angekommen. Doch was voranschreitet, ist nicht die "Automatisierung von Urteilen", sondern die "unterstützende Nutzung unter der Voraussetzung, dass der Mensch letztendlich die Verantwortung trägt".

 

Ein Blick auf die Reaktionen in sozialen Netzwerken und Foren zeigt die Intensität der Gefühle zu diesem Thema. In der AI-bezogenen Community auf Reddit sind negative Stimmen wie "Man kann logisches Denken lehren, aber Mitgefühl und Demut sind schwer zu lehren" und "Hat man die Arbeit nicht einfach an die KI delegiert?" vorherrschend. Einige Beiträge äußern ironisch die Sorge, dass die Welt so wird: "Es wurde anhand Ihrer Online-Historie festgestellt, dass Sie wahrscheinlich schuldig sind." Die Angst vor KI-Richtern richtet sich nicht nur auf technische Fragen, sondern auf die "Angst, dass Menschen auf Daten reduziert werden".

Es gibt jedoch auch Befürworter und bedingte Unterstützer. In einer anderen Reddit-Diskussion wurde argumentiert, dass "menschliche Richter und Geschworene von Emotionen, Hunger, Vorurteilen und äußeren Eindrücken beeinflusst werden" und dass man nicht die Perfektion, sondern die Verbesserung gegenüber dem derzeitigen menschzentrierten System vergleichen sollte. Außerdem gibt es Stimmen, die ein "Kooperationsmodell" unterstützen, bei dem "KI eine unbestechliche Grundlage bietet und Menschen als Kompass für Gnade und Kontext dienen". Die Reaktionen in sozialen Netzwerken scheinen polarisiert zu sein, aber in Wirklichkeit konzentrieren sie sich eher auf "unterstützende Nutzung + menschliche Verantwortung" als auf "vollständigen Ersatz". Diese Reaktionen in sozialen Netzwerken sind jedoch keine Meinungsumfragen, sondern sollten als Hinweis auf die Tendenzen der Diskussionen betrachtet werden.

Letztlich dreht sich der Kern dieser Debatte nicht um die Leistung. Egal wie hoch die Genauigkeit wird, die Frage, was ein Gerichtsverfahren in einer demokratischen Gesellschaft bedeutet, bleibt bestehen. Ein Gericht ist nicht nur ein Gerät, um Fälle effizient zu bearbeiten. Wenn der Staat über Einzelpersonen urteilt, ist das Versprechen, dass Menschen die Verantwortung für diese Entscheidungen tragen, das Fundament des Vertrauens in die Justiz. Daher wird KI zunehmend in peripheren Aufgaben wie der Dokumentenverwaltung, der Fallrecherche, der Zusammenfassung und der Unterstützung bei Entwürfen eingesetzt. Doch wenn man die letzte Grenze, "über Menschen zu urteilen", überschreitet, könnte die Justiz an Legitimität verlieren, auch wenn sie bequemer wird. Genau darauf weist der Originalartikel hin. Schnelligkeit ist eine der Bedingungen für Gerechtigkeit, aber nicht die Gerechtigkeit selbst.


Quellen-URL