DIGITAL SOCIETY BLOG

Wissen über unsere vernetzte Welt

DIGITAL SOCIETY BLOG

Wissen über unsere vernetzte Welt

A gavel with glitch effect as symbol picture for robot judge

„Robo-Richter“ ohne Training?

25 September 2019| doi: 10.5281/zenodo.3484550

Über automatisierte Entscheidungssysteme als Heilsbringer überlasteter Entscheider im Recht zu diskutieren, ist en vogue. Warum deren Einsatz mit steigender Komplexität rechtlicher Entscheidungen kaum lösbare strukturelle Probleme mit sich bringt und an Grenzen stößt, erklären Stephan Dreyer und Johannes Schmees anhand von vier technischen und rechtlichen Herausforderungen. Hierdurch soll dem aufkommenden Diskurs eine differenzierende, an den technischen und rechtlichen Realitäten orientierte Perspektive gegeben werden.

Die Diskussion über den Einsatz von automatisierten Entscheidungssystemen in Justizsystemen bis hin zu autonomen, menschliche Entscheider ersetzenden Systemen hat begonnen. Die Automatisierung rechtlicher Entscheidungen soll hier vor allem durch Systeme maschinellen Lernens erfolgen, die durch das Trainieren auf größeren Mengen von Dokumenten mit bestehender Spruchpraxis Entscheidungsmuster erkennen und richtige Entscheidungen „lernen“, etwa durch das Auffinden von Mustern oder Korrelationen zwischen Sachverhaltsaspekten und späteren Entscheidungsergebnissen. Das trainierte System soll nach der Lernphase dann auf unbekannte Fälle angewandt werden und anhand der trainierten Muster autonom entscheiden. Dieser Ansatz bringt mit steigender Komplexität rechtlicher Entscheidungen kaum lösbare strukturelle Probleme mit sich und stößt an absolute Machbarkeitsgrenzen. 

Erstes Problem: Geringe Trainingsdatenmengen

Für Systeme maschinellen Lernens zwingend notwendig ist die Verfügbarkeit von repräsentativen, validen, die Wirklichkeit abbildenden Trainingsdaten. Dies steuert und begrenzt die mögliche Komplexität des durch maschinelles Lernen entstehenden Modells. Für lernende Systeme, die automatisiert rechtliche Entscheidungen treffen sollen, kommen hierfür auf behördlicher Ebene nur Begründungen zu erlassenen Verwaltungsakten, auf gerichtlicher Ebene nur rechtswirksame Urteile in Betracht. Jedenfalls letztere sind nicht flächendeckend elektronisch und interoperabel verfügbar. Zudem sind aufgrund der in Art. 97 GG verankerten Unabhängigkeit die jeweils entscheidenden Richter dazu befugt, eigene Wertungen zuzulassen und eigene Rechtsprechung zu ändern, was die Vergleichbarkeit der potenziellen Trainingsdaten weiter schmälert. Auch würde jede Rechts- und vor allem höchstrichterliche Rechtsprechungsänderung die nutzbare Trainingsdatenmenge reduzieren. Für ein funktionales lernendes System ist der Korpus der verfügbaren Trainingsdaten zu gering.

Zweites Problem: Maschinelles Lernen bei nicht standardisierten Datensätzen

Selbst bei quantitativ ausreichenden Datensätzen kommt es auch auf deren Qualität an. Lernenden Systemen steht im Weg, dass behördliche und gerichtliche textliche Entscheidungen keiner hinreichend strukturierten Form folgen. Vielmehr sind Sachverhaltsdarstellung, argumentative Entscheidungsherleitung und -begründung für unterschiedliche Semantiken, Argumentationsmethoden und Schwerpunktsetzung durch den (menschlichen) Entscheider offen. Diese Unterschiede zwischen einzelfallbezogenen Entscheidungen sowie die nicht hinreichend formale Strukturierung steht der Mustererkennung durch lernende automatisierte Entscheidungssysteme entgegen. Eine Unterscheidung zwischen entscheidungsrelevanten und unwesentlichen Daten würde so erheblich erschwert. 

Drittes Problem: Abwägungen als schwer formalisierbare soziale Praxis

Behörden und Gerichte müssen bei der Entscheidungsfindung regelmäßig im Wege praktischer Konkordanz die betroffenen Rechtsgüter einzelner oder mehrerer Betroffener abwägen. Diese sollen zu relativ optimaler Geltung kommen, und Einzelaspekte gilt es in Bezug zu unterschiedlichen Rechtspositionen in unterschiedlichen Kontexten verschieden zu bewerten. Dabei bestehende Wertungsspielräume wie Beurteilungs- und Ermessensspielräume eröffnen einen Nexus mehrerer „richtiger“ Entscheidungen. Bei rechtlichem Entscheiden als soziale Praxis rückt mit den gewährten Entscheidungsspielräumen die Rationalität des Entscheidungsverfahrens in den Fokus. Wird aber ein System mit begrenzt einsehbarer Entscheidungsherleitung eingesetzt, so wird ausgerechnet dieser Aspekt der Entscheidung dem Kontrollblick entzogen. Die Abhängigkeit rechtlichen Entscheidens von unterschiedlichen sozialen Kontexten, wie schon die klassische Subsumtion eines konkreten Sachverhaltes unter abstrakte, unbestimmte Normen, stellt hohe Anforderungen an die Komplexität der lernenden Systeme und damit an die Größe der Trainingsdatensätze (von denen es zu wenige gibt, s. oben).

Viertes Problem: Verschiebung von Einflusspotenzialen in Richtung der Input-Akteure

Nicht nur zu Programmierern, auch zugunsten derjenigen Akteure, die den datenbasierten Input für die einzusetzenden Algorithmen erstellen oder vorbereiten, verschieben sich die entscheidungsbezogenen Machtpotenziale. Die Erstellung der Ursprungsdatensätze, ihrer Vorauswahl und ihrer Bereinigung beeinflusst das Ergebnis des maschinellen Lernens und spätere automatisierte Entscheidungsprozesse unter Umständen erheblich. Rechtsstaatlich bedenklich ist dies beispielsweise, wenn Polizeibeamte als Teil der Exekutive eine algorithmisch getroffene Entscheidung für die Judikative durch die Datenerstellung oder Datenauswahl faktisch prädeterminieren. Zudem skalieren die Fehlerfolgen- und Missbrauchspotenziale durch den flächendeckenden Einsatz – eine weitere rechtliche Problematik für automatisierte Entscheidungssysteme.

Fazit

Neben den spannenden Diskussionen darüber, welche materiellen Anforderungen an eine „KI“ für rechtliche Entscheidungen zu stellen sind, gilt es zuvor, zu beantworten, ob der Einsatz solcher lernenden Systeme zur verlässlichen Entscheidungsfindung überhaupt geeignet sind. Der Beitrag zeigt, dass der Machbarkeit ganz grundsätzliche faktische, technische und (entscheidungs-)strukturelle Bedenken entgegenstehen. Diese Hürden stehen dem derzeitigen Hype (noch) im Wege, bieten aber die Chance, die Diskussion auf eine unaufgeregt sachbezogene, objektive Ebene zu verlagern. 


Dr. Stephan Dreyer ist Senior Researcher, Johannes Schmees ist Junior Researcher am Leibniz-Institut für Medienforschung| Hans-Bredow-Institut. Dieser Beitrag basiert auf einem im Erscheinen befindlichem, ausführlicheren Beitrag, der im Kontext des interdisziplinären Forschungsprojektes „Entscheiden über, durch und zusammen mit ADM-Systemen“ entstanden ist.

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Stephan Dreyer & Johannes Schmees

Bleiben Sie in Kontakt

und melden Sie sich für unseren monatlichen Newsletter mit den neusten Blogartikeln an.

JOURNALS DES HIIG

Zukünftige Veranstaltungen

Weitere Artikel

AI in SMEs | HIIG

KI im Mittelstand – Status Quo und Herausforderungen

„KI ist eine Grundlagentechnologie, die Maschinen verschiedenste neue Fähigkeiten gibt, die ganze Markthypothesen infrage stellen”, sagt Alexander Waldmann im Interview mit Miriam Wolf. Dieser Blogpost stellt den Auftakt der Beitragsserie…

Die Regulierung von Online-Inhalten in Brasilien steht vor einem Rückschlag

In Brasilien droht ein Abschaffung der derzeitigen Haftungssystems für Intermediäre, da der Oberste Gerichtshof des Landes diese Woche entscheidet, ob es verfassungswidrig ist oder nicht. Assoziierte HIIG-Forscherin Clara Iglesias Keller…

AfriLab Blog Post | HIIG

Innovation Hubs in Afrika werden erwachsen

Wie entwickeln sich aufstrebende Innovationsgemeinschaften im globalen Süden? Nicolas Friederici teilt seine Beobachtungen vom AfriLabs Annual Gathering 2019 und beschreibt wie die jungen Gemeinschaften größer und mutiger geworden sind. I…

Hinterlassen Sie einen Kommentar