Skip to content

Digital Society Blog

Making sense of our connected world

franck-v-rDxP1tF3CmA-unsplash Cropped

Robot judge: Verdict in the name of the algorithm?

07 August 2019| doi: 10.5281/zenodo.3365930

Smaller legal disputes in Estonia are to be decided by Artificial Intelligence. In the USA, algorithms are already making decisions about penalties and bail amounts. In Germany, too, there is debate as to whether “robots” will be able to pass sentences. Franziska Oehmer shows what opportunities and challenges are associated with this.

Es gibt kaum einen Bereich, eine Branche oder Profession in der nicht über Möglichkeiten, Chancen und Risiken des Einsatzes von Künstlicher Intelligenz (KI oder engl. AI) diskutiert wird – sei es im Medizinbereich in der Diagnostik oder zum Monitoren von Gesundheitsdaten, in der Pflege oder bei der Bewerberauswahl in Personalabteilungen. Die Justiz galt lange Zeit als weitgehend zurückhaltend gegenüber digitalen Entwicklungen. Doch spätestens seit der Einführung von algorithmenbasierten, automatisierten Entscheidungssystemen, die in den USA über das Strafmaß oder auch die Kaution mitbestimmen und jüngst auch in Estland bei Streitigkeiten mit Schadenssummen von bis zu 6.400 Euro zur Anwendung kommen (sollen), wird auch hierzulande in der Öffentlichkeit und Fachkreisen über den Einsatz von „Robotern als Richtern und den damit verbundenen Risiken und Chancen debattiert.

Herausforderungen von algorithmenbasierten Urteilen

Das Recht und die jeweilige Gesetzeslage sei, so der Tenor der Technikskeptiker [1], zu komplex, um in Algorithmen übersetzt werden zu können. Zudem könne eine „Maschine“ den Spezifika des zu beurteilenden juristischen Einzelfalls nicht gerecht werden: So müsse ein Gericht sämtliche Tatumstände und relevanten Merkmale eines (vermeintlichen) Täters wie persönliche Eigenschaften, Lebensumstände und mögliche Vorstrafen bei der Urteilsfindung berücksichtigen. Dabei kann auch das Verhalten der Prozessbeteiligten vor Ort im Gerichtssaal eine Rolle spielen. Auch bereits eine durch starke mediale Berichterstattung während des Prozesses erlittene öffentliche Anprangerung des Beschuldigten kann mildernd bei der Bemessung des Strafmaßes berücksichtigt werden. All diese Informationen in digitale Daten zu übertragen und damit maschinellem Entscheiden zugänglich zu machen, ist eine Herausforderung und wird Prognosen zufolge auch zukünftig nicht oder nur bedingt in vollem Umfang gelingen. Und selbst wenn dies der Fall sein sollte, so stünde eine auf Künstlicher Intelligenz basierte Justiz jedoch vor einem Legitimationsproblem: Wenn sie ein Urteil fällt, so bleibt der dahinter liegende Mechanismus, der zum Entscheid geführt hat, als Black Box intransparent, damit nicht nachvollziehbar und kontrollierbar. Zudem würden Entscheide einer Künstlichen Intelligenz neue gesellschaftliche und technologische Trends oder sich wandelnde Wertvorstellungen bspw. zur Stellung gleichgeschlechtlicher Partnerschaften oder zum Umwelt- und Klimaschutz nicht mitberücksichtigen oder gestalten können. Diese müssten erst als Input in Form neuer Daten oder Programmierbefehle hinzugegeben werden. Sie würde jedoch nicht von einem Robot Judge selbst entwickelt werden können. Das Recht würde dann nicht mehr gesellschaftliche Verhältnisse widerspiegeln. Eine wichtige Grundlage für die Anerkennung der Justiz durch die Bevölkerung wäre damit nicht mehr gegeben. 

Chancen von algorithmenbasierten Urteilen

Andererseits, so die mit Künstlicher Intelligenz verbundene Hoffnung [2], sind algorithmenbasierte Entscheide gerechter, da hier keine persönlichen Präferenzen, Einstellungen oder Vorurteile des Gerichts zum Tragen kommen können. So würden diskriminierende Entscheide, wie sie US-Gerichten häufig bei der Verurteilung von Beschuldigen mit Migrationshintergrund unterstellt werden, unmöglich gemacht. Voraussetzung hierfür wäre allerdings, dass die Daten mit denen Algorithmen trainiert werden, auch neutral sind. Das sind sie aber meist nicht. Denn die Daten stammen von vergangenen menschlichen und damit möglicherweise verzerrten Urteilen. So verstärkt die vermeintlich objektive Technik aufgrund der ihr zu Grunde liegenden Datenbasis meist noch bestehende vorurteilsbehaftete Verzerrungen bei der Urteilsfindung, statt sie zu verobjektivieren [3]: Einem schwarzen Beschuldigten aus armen Verhältnissen, der in einem bestimmten Ortsteil wohnt, wird von einer algorithmenbasierten Software eine höhere Rückfallwahrscheinlichkeit zugesprochen als einem weißen Beschuldigten der Mittelschicht aus einem anderen Wohnort – beim selben Vergehen. 

In diesen Fällen werden die mit der Künstlichen Intelligenz verbundenen Hoffnungen nicht eingelöst. In weniger komplexen Fällen, jedoch, bei denen nicht über Haftstrafen, sondern über einen geringen Streitwert wie bspw. beim Falschparken verhandelt wird, wie es in Estland vorgesehen ist, kann mit Künstlicher Intelligenz die Arbeit der Justiz erheblich entlastet werden: Hier entscheiden „Robot Judges“ schnell und effizient über vergleichsweise einfache und eindeutige Fälle auf der Basis einer mehrheitlich einheitlichen präjudiziellen Rechtsprechung. Zudem kann mithilfe Künstlicher Intelligenz die Recherche nach Mustern in der vergangenen Rechtsprechung oder der juristischen Lehrmeinung, aus denen wiederum Entscheidempfehlungen abgeleitet werden können, erheblich vereinfacht werden. Dem Gericht bliebe somit deutlich mehr Zeit, um sich komplexeren Gerichtsfällen zu widmen und hier ein begründetes und transparentes Urteil zu fällen. 


Sources

[1] Albrecht v. Graevenitz. Zwei mal Zwei ist Grün“ – Mensch und KI im Vergleich. Zeitschrift für Rechtspolitik, 2018, S. 238-241.

[2] Ebenda.

[3] Dressel Julia; Hany Farid, 2018. The accuracy, fairness, and limits of predicting recidivism. Science Advances 4(1), S.1-5. 


Dr. Franziska Oehmer is a senior research assistant and lecturer at the Department of Communication Science and Media Research DCM at the University of Fribourg (CH) and former Fellow at the Humboldt Institute for Internet and Society. Her research interests include mediatization (of law), political communication and digital media governance.


This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Franziska Oehmer, Dr.

Ehem. Fellow: Entwicklung der digitalen Gesellschaft

Sign up for HIIG's Monthly Digest

and receive our latest blog articles.

Sustainability in a digital society

The developments of digitalisation are the greatest technical challenges of our time. At the same time, we must be careful to make our technology and our actions sustainable. Are digitalisation and sustainability opposites? Or can new technologies such as artificial intelligence even contribute to making our lives more sustainable? Is technical progress perhaps even the only answer to climate change? This dossier deals with these questions and offers an overview of the future-friendly development of our digital society.

Discover all 9 articles

Further articles

How to identify bias in Natural Language Processing

Why do translation programmes or chatbots often contain discriminatory tendencies towards gender or race? Here is an easy guide to understand how bias natural language processing works.

Titelbild Blogpost: When self-regulation in platform entrepreneurship is an asset. Ein Einkaufswagen steht auf einem Parkplatz.

When self-regulation in platform entrepreneurship is an asset

Tina Krell interviewed Magdalena Piech from Allegro, Poland’s leading digital marketplace. What are its community-driven efforts and views on regulation and self-regulation in platform entrepreneurship?

You can see an empty platform and tracks leading around the corner, pointing the way to the future.

Drilling down on diversity in the European platform economy

The Platform Alternatives research team looks back on two years of research into the European platform economy and tells which insights have surprised them the most so far.