Skip to content
franck-v-rDxP1tF3CmA-unsplash Cropped

Robot judge: Verdict in the name of the algorithm?

07 August 2019| doi: 10.5281/zenodo.3365930

Smaller legal disputes in Estonia are to be decided by Artificial Intelligence. In the USA, algorithms are already making decisions about penalties and bail amounts. In Germany, too, there is debate as to whether “robots” will be able to pass sentences. Franziska Oehmer shows what opportunities and challenges are associated with this.

Es gibt kaum einen Bereich, eine Branche oder Profession in der nicht über Möglichkeiten, Chancen und Risiken des Einsatzes von Künstlicher Intelligenz (KI oder engl. AI) diskutiert wird – sei es im Medizinbereich in der Diagnostik oder zum Monitoren von Gesundheitsdaten, in der Pflege oder bei der Bewerberauswahl in Personalabteilungen. Die Justiz galt lange Zeit als weitgehend zurückhaltend gegenüber digitalen Entwicklungen. Doch spätestens seit der Einführung von algorithmenbasierten, automatisierten Entscheidungssystemen, die in den USA über das Strafmaß oder auch die Kaution mitbestimmen und jüngst auch in Estland bei Streitigkeiten mit Schadenssummen von bis zu 6.400 Euro zur Anwendung kommen (sollen), wird auch hierzulande in der Öffentlichkeit und Fachkreisen über den Einsatz von „Robotern als Richtern und den damit verbundenen Risiken und Chancen debattiert.

Herausforderungen von algorithmenbasierten Urteilen

Das Recht und die jeweilige Gesetzeslage sei, so der Tenor der Technikskeptiker [1], zu komplex, um in Algorithmen übersetzt werden zu können. Zudem könne eine „Maschine“ den Spezifika des zu beurteilenden juristischen Einzelfalls nicht gerecht werden: So müsse ein Gericht sämtliche Tatumstände und relevanten Merkmale eines (vermeintlichen) Täters wie persönliche Eigenschaften, Lebensumstände und mögliche Vorstrafen bei der Urteilsfindung berücksichtigen. Dabei kann auch das Verhalten der Prozessbeteiligten vor Ort im Gerichtssaal eine Rolle spielen. Auch bereits eine durch starke mediale Berichterstattung während des Prozesses erlittene öffentliche Anprangerung des Beschuldigten kann mildernd bei der Bemessung des Strafmaßes berücksichtigt werden. All diese Informationen in digitale Daten zu übertragen und damit maschinellem Entscheiden zugänglich zu machen, ist eine Herausforderung und wird Prognosen zufolge auch zukünftig nicht oder nur bedingt in vollem Umfang gelingen. Und selbst wenn dies der Fall sein sollte, so stünde eine auf Künstlicher Intelligenz basierte Justiz jedoch vor einem Legitimationsproblem: Wenn sie ein Urteil fällt, so bleibt der dahinter liegende Mechanismus, der zum Entscheid geführt hat, als Black Box intransparent, damit nicht nachvollziehbar und kontrollierbar. Zudem würden Entscheide einer Künstlichen Intelligenz neue gesellschaftliche und technologische Trends oder sich wandelnde Wertvorstellungen bspw. zur Stellung gleichgeschlechtlicher Partnerschaften oder zum Umwelt- und Klimaschutz nicht mitberücksichtigen oder gestalten können. Diese müssten erst als Input in Form neuer Daten oder Programmierbefehle hinzugegeben werden. Sie würde jedoch nicht von einem Robot Judge selbst entwickelt werden können. Das Recht würde dann nicht mehr gesellschaftliche Verhältnisse widerspiegeln. Eine wichtige Grundlage für die Anerkennung der Justiz durch die Bevölkerung wäre damit nicht mehr gegeben. 

Chancen von algorithmenbasierten Urteilen

Andererseits, so die mit Künstlicher Intelligenz verbundene Hoffnung [2], sind algorithmenbasierte Entscheide gerechter, da hier keine persönlichen Präferenzen, Einstellungen oder Vorurteile des Gerichts zum Tragen kommen können. So würden diskriminierende Entscheide, wie sie US-Gerichten häufig bei der Verurteilung von Beschuldigen mit Migrationshintergrund unterstellt werden, unmöglich gemacht. Voraussetzung hierfür wäre allerdings, dass die Daten mit denen Algorithmen trainiert werden, auch neutral sind. Das sind sie aber meist nicht. Denn die Daten stammen von vergangenen menschlichen und damit möglicherweise verzerrten Urteilen. So verstärkt die vermeintlich objektive Technik aufgrund der ihr zu Grunde liegenden Datenbasis meist noch bestehende vorurteilsbehaftete Verzerrungen bei der Urteilsfindung, statt sie zu verobjektivieren [3]: Einem schwarzen Beschuldigten aus armen Verhältnissen, der in einem bestimmten Ortsteil wohnt, wird von einer algorithmenbasierten Software eine höhere Rückfallwahrscheinlichkeit zugesprochen als einem weißen Beschuldigten der Mittelschicht aus einem anderen Wohnort – beim selben Vergehen. 

In diesen Fällen werden die mit der Künstlichen Intelligenz verbundenen Hoffnungen nicht eingelöst. In weniger komplexen Fällen, jedoch, bei denen nicht über Haftstrafen, sondern über einen geringen Streitwert wie bspw. beim Falschparken verhandelt wird, wie es in Estland vorgesehen ist, kann mit Künstlicher Intelligenz die Arbeit der Justiz erheblich entlastet werden: Hier entscheiden „Robot Judges“ schnell und effizient über vergleichsweise einfache und eindeutige Fälle auf der Basis einer mehrheitlich einheitlichen präjudiziellen Rechtsprechung. Zudem kann mithilfe Künstlicher Intelligenz die Recherche nach Mustern in der vergangenen Rechtsprechung oder der juristischen Lehrmeinung, aus denen wiederum Entscheidempfehlungen abgeleitet werden können, erheblich vereinfacht werden. Dem Gericht bliebe somit deutlich mehr Zeit, um sich komplexeren Gerichtsfällen zu widmen und hier ein begründetes und transparentes Urteil zu fällen. 


Sources

[1] Albrecht v. Graevenitz. Zwei mal Zwei ist Grün“ – Mensch und KI im Vergleich. Zeitschrift für Rechtspolitik, 2018, S. 238-241.

[2] Ebenda.

[3] Dressel Julia; Hany Farid, 2018. The accuracy, fairness, and limits of predicting recidivism. Science Advances 4(1), S.1-5. 


Dr. Franziska Oehmer is a senior research assistant and lecturer at the Department of Communication Science and Media Research DCM at the University of Fribourg (CH) and former Fellow at the Humboldt Institute for Internet and Society. Her research interests include mediatization (of law), political communication and digital media governance.


This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Franziska Oehmer, Dr.

Ehem. Fellow: Entwicklung der digitalen Gesellschaft

Sign up for HIIG's Monthly Digest

and receive our latest blog articles.

Man sieht in Leuchtschrift das Wort "Ethical"

Digital Ethics

Whether civil society, politics or science – everyone seems to agree that the New Twenties will be characterised by digitalisation. But what about the tension of digital ethics? How do we create a digital transformation involving society as a whole, including people who either do not have the financial means or the necessary know-how to benefit from digitalisation?  And what do these comprehensive changes in our actions mean for democracy? In this dossier we want to address these questions and offer food for thought on how we can use digitalisation for the common good.

Discover all 12 articles

Further articles

Twitter needs to be handled with care

Turning back time for Content Moderation? How Musk’s takeover is affecting Twitter’s rules

Elon Musk’s takeover of Twitter is bringing platform governance to the centre of the media spotlight. A closer look reveals that – at least until now – Twitter's content policies...

Federal German states have their own approach of AI Policy

ArtificiaI Intelligence made in X: The German AI policy landscape

AI is also discussed at the subnational level. We wondered: Why do German federal states feel the need to also issue AI policies for themselves?

Digital Democracy needs deliberation

Designing Digital Democracy

Designing rules for digital democracy is difficult. Private platforms' orders imperfectly shape what can be said online, as new ideas for more democracy on platforms through deliberative elements are being...