Skip to content
Richterhammer mit Glitcheffekt als Symbolbild für Roboterrichter
25 September 2019| doi: 10.5281/zenodo.3484550

“Robot judges” without training?

Discussing the implementation of automated decision making systems as savior of overburdened legal decision makers is en vogue. But if employed instead of human decision makers and with rising complexity of legal decision, they face hardly resolvable structural problems and barriers. Dr. Stephan Dreyer and Johannes Schmees explain this by reference to four technical and legal challenges. By that, a differentiated perspective is sought to be established in the emerging discourse with an eye on technical and legal realities. 

Die Diskussion über den Einsatz von automatisierten Entscheidungssystemen in Justizsystemen bis hin zu autonomen, menschliche Entscheider ersetzenden Systemen hat begonnen. Die Automatisierung rechtlicher Entscheidungen soll hier vor allem durch Systeme maschinellen Lernens erfolgen, die durch das Trainieren auf größeren Mengen von Dokumenten mit bestehender Spruchpraxis Entscheidungsmuster erkennen und richtige Entscheidungen „lernen“, etwa durch das Auffinden von Mustern oder Korrelationen zwischen Sachverhaltsaspekten und späteren Entscheidungsergebnissen. Das trainierte System soll nach der Lernphase dann auf unbekannte Fälle angewandt werden und anhand der trainierten Muster autonom entscheiden. Dieser Ansatz bringt mit steigender Komplexität rechtlicher Entscheidungen kaum lösbare strukturelle Probleme mit sich und stößt an absolute Machbarkeitsgrenzen. 

Erstes Problem: Geringe Trainingsdatenmengen

Für Systeme maschinellen Lernens zwingend notwendig ist die Verfügbarkeit von repräsentativen, validen, die Wirklichkeit abbildenden Trainingsdaten. Dies steuert und begrenzt die mögliche Komplexität des durch maschinelles Lernen entstehenden Modells. Für lernende Systeme, die automatisiert rechtliche Entscheidungen treffen sollen, kommen hierfür auf behördlicher Ebene nur Begründungen zu erlassenen Verwaltungsakten, auf gerichtlicher Ebene nur rechtswirksame Urteile in Betracht. Jedenfalls letztere sind nicht flächendeckend elektronisch und interoperabel verfügbar. Zudem sind aufgrund der in Art. 97 GG verankerten Unabhängigkeit die jeweils entscheidenden Richter dazu befugt, eigene Wertungen zuzulassen und eigene Rechtsprechung zu ändern, was die Vergleichbarkeit der potenziellen Trainingsdaten weiter schmälert. Auch würde jede Rechts- und vor allem höchstrichterliche Rechtsprechungsänderung die nutzbare Trainingsdatenmenge reduzieren. Für ein funktionales lernendes System ist der Korpus der verfügbaren Trainingsdaten zu gering.

Zweites Problem: Maschinelles Lernen bei nicht standardisierten Datensätzen

Selbst bei quantitativ ausreichenden Datensätzen kommt es auch auf deren Qualität an. Lernenden Systemen steht im Weg, dass behördliche und gerichtliche textliche Entscheidungen keiner hinreichend strukturierten Form folgen. Vielmehr sind Sachverhaltsdarstellung, argumentative Entscheidungsherleitung und -begründung für unterschiedliche Semantiken, Argumentationsmethoden und Schwerpunktsetzung durch den (menschlichen) Entscheider offen. Diese Unterschiede zwischen einzelfallbezogenen Entscheidungen sowie die nicht hinreichend formale Strukturierung steht der Mustererkennung durch lernende automatisierte Entscheidungssysteme entgegen. Eine Unterscheidung zwischen entscheidungsrelevanten und unwesentlichen Daten würde so erheblich erschwert. 

Drittes Problem: Abwägungen als schwer formalisierbare soziale Praxis

Behörden und Gerichte müssen bei der Entscheidungsfindung regelmäßig im Wege praktischer Konkordanz die betroffenen Rechtsgüter einzelner oder mehrerer Betroffener abwägen. Diese sollen zu relativ optimaler Geltung kommen, und Einzelaspekte gilt es in Bezug zu unterschiedlichen Rechtspositionen in unterschiedlichen Kontexten verschieden zu bewerten. Dabei bestehende Wertungsspielräume wie Beurteilungs- und Ermessensspielräume eröffnen einen Nexus mehrerer „richtiger“ Entscheidungen. Bei rechtlichem Entscheiden als soziale Praxis rückt mit den gewährten Entscheidungsspielräumen die Rationalität des Entscheidungsverfahrens in den Fokus. Wird aber ein System mit begrenzt einsehbarer Entscheidungsherleitung eingesetzt, so wird ausgerechnet dieser Aspekt der Entscheidung dem Kontrollblick entzogen. Die Abhängigkeit rechtlichen Entscheidens von unterschiedlichen sozialen Kontexten, wie schon die klassische Subsumtion eines konkreten Sachverhaltes unter abstrakte, unbestimmte Normen, stellt hohe Anforderungen an die Komplexität der lernenden Systeme und damit an die Größe der Trainingsdatensätze (von denen es zu wenige gibt, s. oben).

Viertes Problem: Verschiebung von Einflusspotenzialen in Richtung der Input-Akteure

Nicht nur zu Programmierern, auch zugunsten derjenigen Akteure, die den datenbasierten Input für die einzusetzenden Algorithmen erstellen oder vorbereiten, verschieben sich die entscheidungsbezogenen Machtpotenziale. Die Erstellung der Ursprungsdatensätze, ihrer Vorauswahl und ihrer Bereinigung beeinflusst das Ergebnis des maschinellen Lernens und spätere automatisierte Entscheidungsprozesse unter Umständen erheblich. Rechtsstaatlich bedenklich ist dies beispielsweise, wenn Polizeibeamte als Teil der Exekutive eine algorithmisch getroffene Entscheidung für die Judikative durch die Datenerstellung oder Datenauswahl faktisch prädeterminieren. Zudem skalieren die Fehlerfolgen- und Missbrauchspotenziale durch den flächendeckenden Einsatz – eine weitere rechtliche Problematik für automatisierte Entscheidungssysteme.

Fazit

Neben den spannenden Diskussionen darüber, welche materiellen Anforderungen an eine „KI“ für rechtliche Entscheidungen zu stellen sind, gilt es zuvor, zu beantworten, ob der Einsatz solcher lernenden Systeme zur verlässlichen Entscheidungsfindung überhaupt geeignet sind. Der Beitrag zeigt, dass der Machbarkeit ganz grundsätzliche faktische, technische und (entscheidungs-)strukturelle Bedenken entgegenstehen. Diese Hürden stehen dem derzeitigen Hype (noch) im Wege, bieten aber die Chance, die Diskussion auf eine unaufgeregt sachbezogene, objektive Ebene zu verlagern. 


Dr. Stephan Dreyer is Senior Researcher, Johannes Schmees is Junior Researcher at the Leibniz-Institute for Media Research | Hans-Bredow-Institut. This entry is based on a forthcoming and extensive article which came to being in the context of the interdisciplinary research project “Deciding about, by and together with ADM-Systems.”

This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Lukas Fox

Ehem. Studentischer Mitarbeiter: Webredaktion

Sign up for HIIG's Monthly Digest

HIIG-Newsletter-Header

You will receive our latest blog articles once a month in a newsletter.

Explore Research issue in focus

Platform governance

In our research on platform governance, we investigate how corporate goals and social values can be balanced on online platforms.

Further articles

The photo shows a close-up of a spiral seashell. This symbolises complexity and hidden layers, representing AI’s environmental impact across its full life cycle.

Blind spot sustainability: Making AI’s environmental impact measurable

AI's environmental impact spans its entire life cycle, but remains a blind spot due to missing data and limited transparency. What must change?

The photo shows an old television set standing in the middle of a forest, symbolising the hidden environmental cost of digital technology and the concept of the digital metabolic rift.

The digital metabolic rift: Why do we live beyond our means online?

We cut plastic and fly less, but scroll and stream nonstop. The digital metabolic rift reveals why our eco-awareness ends where the digital begins.

The photo shows a brown cow running freely, representing how data governance helps cities and municipalities escape the digitalisation backlog and enter the digital fast lane.

Escaping the digitalisation backlog: data governance puts cities and municipalities in the digital fast lane

The Data Governance Guide empowers cities to develop data-driven services that serve citizens effectively.