Skip to content
franck-v-rDxP1tF3CmA-unsplash Cropped
07 August 2019| doi: 10.5281/zenodo.3365930

Robot judge: Verdict in the name of the algorithm?

Smaller legal disputes in Estonia are to be decided by Artificial Intelligence. In the USA, algorithms are already making decisions about penalties and bail amounts. In Germany, too, there is debate as to whether “robots” will be able to pass sentences. Franziska Oehmer shows what opportunities and challenges are associated with this.

Es gibt kaum einen Bereich, eine Branche oder Profession in der nicht über Möglichkeiten, Chancen und Risiken des Einsatzes von Künstlicher Intelligenz (KI oder engl. AI) diskutiert wird – sei es im Medizinbereich in der Diagnostik oder zum Monitoren von Gesundheitsdaten, in der Pflege oder bei der Bewerberauswahl in Personalabteilungen. Die Justiz galt lange Zeit als weitgehend zurückhaltend gegenüber digitalen Entwicklungen. Doch spätestens seit der Einführung von algorithmenbasierten, automatisierten Entscheidungssystemen, die in den USA über das Strafmaß oder auch die Kaution mitbestimmen und jüngst auch in Estland bei Streitigkeiten mit Schadenssummen von bis zu 6.400 Euro zur Anwendung kommen (sollen), wird auch hierzulande in der Öffentlichkeit und Fachkreisen über den Einsatz von „Robotern als Richtern und den damit verbundenen Risiken und Chancen debattiert.

Herausforderungen von algorithmenbasierten Urteilen

Das Recht und die jeweilige Gesetzeslage sei, so der Tenor der Technikskeptiker [1], zu komplex, um in Algorithmen übersetzt werden zu können. Zudem könne eine „Maschine“ den Spezifika des zu beurteilenden juristischen Einzelfalls nicht gerecht werden: So müsse ein Gericht sämtliche Tatumstände und relevanten Merkmale eines (vermeintlichen) Täters wie persönliche Eigenschaften, Lebensumstände und mögliche Vorstrafen bei der Urteilsfindung berücksichtigen. Dabei kann auch das Verhalten der Prozessbeteiligten vor Ort im Gerichtssaal eine Rolle spielen. Auch bereits eine durch starke mediale Berichterstattung während des Prozesses erlittene öffentliche Anprangerung des Beschuldigten kann mildernd bei der Bemessung des Strafmaßes berücksichtigt werden. All diese Informationen in digitale Daten zu übertragen und damit maschinellem Entscheiden zugänglich zu machen, ist eine Herausforderung und wird Prognosen zufolge auch zukünftig nicht oder nur bedingt in vollem Umfang gelingen. Und selbst wenn dies der Fall sein sollte, so stünde eine auf Künstlicher Intelligenz basierte Justiz jedoch vor einem Legitimationsproblem: Wenn sie ein Urteil fällt, so bleibt der dahinter liegende Mechanismus, der zum Entscheid geführt hat, als Black Box intransparent, damit nicht nachvollziehbar und kontrollierbar. Zudem würden Entscheide einer Künstlichen Intelligenz neue gesellschaftliche und technologische Trends oder sich wandelnde Wertvorstellungen bspw. zur Stellung gleichgeschlechtlicher Partnerschaften oder zum Umwelt- und Klimaschutz nicht mitberücksichtigen oder gestalten können. Diese müssten erst als Input in Form neuer Daten oder Programmierbefehle hinzugegeben werden. Sie würde jedoch nicht von einem Robot Judge selbst entwickelt werden können. Das Recht würde dann nicht mehr gesellschaftliche Verhältnisse widerspiegeln. Eine wichtige Grundlage für die Anerkennung der Justiz durch die Bevölkerung wäre damit nicht mehr gegeben. 

Chancen von algorithmenbasierten Urteilen

Andererseits, so die mit Künstlicher Intelligenz verbundene Hoffnung [2], sind algorithmenbasierte Entscheide gerechter, da hier keine persönlichen Präferenzen, Einstellungen oder Vorurteile des Gerichts zum Tragen kommen können. So würden diskriminierende Entscheide, wie sie US-Gerichten häufig bei der Verurteilung von Beschuldigen mit Migrationshintergrund unterstellt werden, unmöglich gemacht. Voraussetzung hierfür wäre allerdings, dass die Daten mit denen Algorithmen trainiert werden, auch neutral sind. Das sind sie aber meist nicht. Denn die Daten stammen von vergangenen menschlichen und damit möglicherweise verzerrten Urteilen. So verstärkt die vermeintlich objektive Technik aufgrund der ihr zu Grunde liegenden Datenbasis meist noch bestehende vorurteilsbehaftete Verzerrungen bei der Urteilsfindung, statt sie zu verobjektivieren [3]: Einem schwarzen Beschuldigten aus armen Verhältnissen, der in einem bestimmten Ortsteil wohnt, wird von einer algorithmenbasierten Software eine höhere Rückfallwahrscheinlichkeit zugesprochen als einem weißen Beschuldigten der Mittelschicht aus einem anderen Wohnort – beim selben Vergehen. 

In diesen Fällen werden die mit der Künstlichen Intelligenz verbundenen Hoffnungen nicht eingelöst. In weniger komplexen Fällen, jedoch, bei denen nicht über Haftstrafen, sondern über einen geringen Streitwert wie bspw. beim Falschparken verhandelt wird, wie es in Estland vorgesehen ist, kann mit Künstlicher Intelligenz die Arbeit der Justiz erheblich entlastet werden: Hier entscheiden „Robot Judges“ schnell und effizient über vergleichsweise einfache und eindeutige Fälle auf der Basis einer mehrheitlich einheitlichen präjudiziellen Rechtsprechung. Zudem kann mithilfe Künstlicher Intelligenz die Recherche nach Mustern in der vergangenen Rechtsprechung oder der juristischen Lehrmeinung, aus denen wiederum Entscheidempfehlungen abgeleitet werden können, erheblich vereinfacht werden. Dem Gericht bliebe somit deutlich mehr Zeit, um sich komplexeren Gerichtsfällen zu widmen und hier ein begründetes und transparentes Urteil zu fällen. 


Sources

[1] Albrecht v. Graevenitz. Zwei mal Zwei ist Grün“ – Mensch und KI im Vergleich. Zeitschrift für Rechtspolitik, 2018, S. 238-241.

[2] Ebenda.

[3] Dressel Julia; Hany Farid, 2018. The accuracy, fairness, and limits of predicting recidivism. Science Advances 4(1), S.1-5. 


Dr. Franziska Oehmer is a senior research assistant and lecturer at the Department of Communication Science and Media Research DCM at the University of Fribourg (CH) and former Fellow at the Humboldt Institute for Internet and Society. Her research interests include mediatization (of law), political communication and digital media governance.


This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Franziska Oehmer, Dr.

Ehem. Fellow: Entwicklung der digitalen Gesellschaft

Explore Research issue in focus

Du siehst eine Tastatur auf der eine Taste rot gefärbt ist und auf der „Control“ steht. Eine bildliche Metapher für die Regulierung von digitalen Plattformen im Internet und Data Governance. You see a keyboard on which one key is coloured red and says "Control". A figurative metaphor for the regulation of digital platforms on the internet and data governance.

Data governance

We develop robust data governance frameworks and models to provide practical solutions for good data governance policies.

Sign up for HIIG's Monthly Digest

and receive our latest blog articles.

Further articles

Toolkit "Making Sense of the Future" lays on the table, representing digital futures in the classroom.

Making Sense of the Future: New brainteasers for digital futures in the classroom

Explore “Making Sense of the Future”, an open educational resource combining futures studies and creative exploration to reimagine our digital futures.

Generic visualizations generated by the author using Stable Diffusion AI representing futuristic visions for futures studies

Honey, we need to talk about the future

Can futures studies challenge the status quo beyond academia and approach public dialogue as an imaginative space for collective endeavours?

two Quechuas, sitting on green grass and looking at their smartphones, symbolising What are the indigenous perspectives of digitalisation? Quechuas in Peru show openness, challenges, and requirements to grow their digital economies

Exploring digitalisation: Indigenous perspectives from Puno, Peru

What are the indigenous perspectives of digitalisation? Quechuas in Peru show openness, challenges, and requirements to grow their digital economies.