{"id":72436,"date":"2020-11-30T13:09:12","date_gmt":"2020-11-30T12:09:12","guid":{"rendered":"https:\/\/www.hiig.de\/?p=72436"},"modified":"2023-03-28T14:07:02","modified_gmt":"2023-03-28T12:07:02","slug":"the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong","status":"publish","type":"post","link":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/","title":{"rendered":"&#8220;The idea that algorithmic decisions are not yet regulated is wrong&#8221;"},"content":{"rendered":"\n<h4 class=\"wp-block-heading\"><strong>An interview with Matthias Spielkamp <\/strong><\/h4>\n\n\n\n<p><p><em><span style=\"font-weight: 400;\">Should machines make important decisions in HR management and administration? Who is responsible for ensuring that these decisions are taken fairly \u2013 and how do we prevent discriminatory structures from being algorithmically perpetuated? Particularly when it comes to automated processes, there is a great deal of uncertainty and this raises the question of how we as a digital society deal with developments such as artificial intelligence. At the <\/span><a href=\"https:\/\/www.hiig.de\/en\/events\/roundtable-inklusive-ki-workshop-in-kooperation-mit-der-europaeischen-kommission\/\"><span style=\"font-weight: 400;\">\u00a0Roundtable on \u201cInclusive AI<\/span><\/a><span style=\"font-weight: 400;\">\u201d, which was part of an event series organised by our <\/span><a href=\"https:\/\/www.hiig.de\/en\/research\/ai-and-society-lab\/\"><span style=\"font-weight: 400;\">AI &amp; Society Lab<\/span><\/a><span style=\"font-weight: 400;\"> in cooperation with the Representation of the European Commission in Germany, Katrin Werner had the opportunity to talk to journalist, entrepreneur and civil rights activist Matthias Spielkamp.<\/span><\/em><\/p><\/p>\n\n\n\n<hr class=\"wp-block-separator\"\/>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Welche Chancen und Herausforderungen bietet die Einf\u00fchrung k\u00fcnstlicher Intelligenz im Personalwesen und in der Verwaltung?&nbsp;<\/strong><\/h3>\n\n\n\n<p><strong>Spielkamp<\/strong>: Beim Einsatz von KI-Systemen kommen immer (mindestens) zwei verschiedene Aspekte zusammen: Effizienz und Fairness. Ich bin \u00fcberzeugt davon, dass Automatisierungssysteme uns Arbeit abnehmen k\u00f6nnen, denn das passiert schon sehr, sehr lange. Wer m\u00f6chte heute noch G\u00fcter zu Fu\u00df oder mit der Sackkarre transportieren, wenn es LKWs oder F\u00f6rderb\u00e4nder gibt? Der zweite Aspekt \u2013 die Frage nach der Fairness \u2013 ist eine ganz andere Ebene. Denn wenn tats\u00e4chlich Entscheidungen automatisiert werden, m\u00fcssen wir uns genau anschauen: Wird das richtig gemacht? Das klingt im ersten Moment trivial, bringt aber eine ganze Reihe komplexer und weitreichender Fragen mit sich: Ist das gerecht, wie da gearbeitet wird? Ist das diskriminierungsfrei?&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>F\u00fchren diskriminierende Algorithmen zu struktureller Diskriminierung?<\/strong><\/h3>\n\n\n\n<p><strong>Spielkamp<\/strong>: Es besteht zumindest die M\u00f6glichkeit, dass diskriminierendes Verhalten von Menschen in solche automatisierten Systeme \u00fcbersetzt wird. Nehmen wir das bekannt gewordene Amazon-Beispiel: das Unternehmen setzte f\u00fcr sein Recruiting ein automatisiertes Bewertungssystem ein, das Frauen systematisch benachteiligte, weil der Algorithmus mit Datens\u00e4tzen erfolgreicher Bewerberinnen und Bewerber trainiert worden war. In einer von M\u00e4nnern dominierten Industrie meinte <em>erfolgreich<\/em> in den Jahren zuvor zumeist <em>m\u00e4nnlich<\/em> \u2013 mit der Folge, dass Bewerbungen von Frauen schlechter einzustufen seien.&nbsp;<br>Aber wie erkenne ich, dass diese Diskriminierung eintritt? Ich suche ja nicht explizit nach Frauennamen oder nach der Geschlechtsangabe. Gen\u00fcgt es im oben skizzierten Beispiel bereits, wenn jemand Mitglied eines weiblich konnotierten Vereins ist? Wir wissen es nicht, und darin liegt genau das Problem: Es geht letztlich darum, dass das KI-gest\u00fctzte System eine bestimmte Suche aus\u00fcbt, von der ich nicht vorher wei\u00df, dass sie so unterschiedliche oder diskriminierende Ergebnisse bringt.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Welche gesellschaftlichen Gruppen sind dann besonders durch diese Diskriminierung, z.B. im Bereich Recruiting, betroffen?&nbsp;<\/strong><\/h3>\n\n\n\n<p><strong>Spielkamp<\/strong>: Dar\u00fcber haben wir keine genauen Erkenntnisse, was ein gro\u00dfes Problem darstellt. Privatwirtschaftlichen Regelungen folgend kann ein Unternehmen bekanntlich selbst dar\u00fcber entscheiden, wen es zum Bewerbungsgespr\u00e4ch einladen m\u00f6chte, ohne den Prozess dahinter transparent machen zu m\u00fcssen. Diskriminierende Auswahlmethoden k\u00f6nnen demnach nicht ohne Weiteres aufgedeckt werden. Was automatisierte Systeme angeht, so l\u00e4sst sich mithilfe von Audits unter Umst\u00e4nden sogar feststellen, dass eine Diskriminierung stattgefunden hat \u2013 wohingegen es bei einer menschlichen Auswahl wahrscheinlich sehr viel schwieriger ist. Um eine m\u00f6gliche Diskriminierung effektiv verfolgen zu k\u00f6nnen, braucht es zun\u00e4chst konkrete Hinweise, dass tats\u00e4chlich Diskriminierung stattgefunden hat \u2013 wof\u00fcr wiederum tiefe Einsicht in die Verfahren vonn\u00f6ten ist. Diese Nachweispflicht ist meiner Erkenntnis nach der Grund, warum so selten ein Rechtsstreit aus Diskriminierungsgr\u00fcnden begonnen wird.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Solche Prozesse lie\u00dfen sich demnach verbessern, wenn uns KI-Systeme erkl\u00e4ren k\u00f6nnten, wie sie welche Entscheidungen treffen und warum?<\/strong><\/h3>\n\n\n\n<p><strong>Spielkamp<\/strong>: Wir setzen uns f\u00fcr Nachvollziehbarkeit von solchen Systemen ein, was allerdings ein wirklich dickes Brett ist: Was soll das bedeuten? Welche Aspekte dieser Automatisierung m\u00f6chte ich nachvollziehen k\u00f6nnen? Wer soll das tundie nachvollziehen k\u00f6nnen?, Soll das eine Expertin f\u00fcr Machine Learning nachvollziehen k\u00f6nnen, soll das die betroffene Person nachvollziehen k\u00f6nnen, soll das eine \u00f6ffentliche Institution nachvollziehen k\u00f6nnen, auf der Grundlage welcher Informationen? Wir stehen wirklich noch ziemlich am Anfang. Es gibt tats\u00e4chlich die Idee, zu versuchen, solche Module \u2013 ich nenne sie mal Module, das ist softwaretechnisch unsinnig, aber dient der besseren Vorstellung \u2013 in die Systeme selbst einzubauen. Diese Module w\u00fcrden jeden Schritt innerhalb eines Verfahrens skizzieren und erl\u00e4utern, wie die finale Entscheidung zustande gekommen ist.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Die Europ\u00e4ische Kommission hat sich f\u00fcr die Entwicklung einer inklusiven europ\u00e4ischen KI ausgesprochen. Was w\u00e4ren konkrete Schritte dahin?<\/strong><\/h3>\n\n\n\n<p><strong>Spielkamp<\/strong>: Ich finde das Statement, dass wir eine werteorientierte, d.h. vertrauensw\u00fcrdige und trotzdem konkurrenzf\u00e4hige Entwicklung haben wollen, prinzipiell unterst\u00fctzenswert. Aber wie sieht das in der Praxis aus? Wir k\u00f6nnen uns nicht einfach darauf verlassen, dass die beteiligten Akteure \u2013 Hersteller, Anwender und die betroffenen B\u00fcrgerinnen und B\u00fcrger \u2013 sich im Rahmen von Selbstverpflichtungsprozessen irgendwie einig werden. Muss nicht stattdessen vielleicht auch gesetzlich eingegriffen werden? Das ist genau im Moment die wahnsinnig schwer zu beantwortende Frage. Es gibt Beispiele aus anderen Sektoren, wo algorithmische Systeme bereits reguliert werden: algorithmisch gesteuerte Systeme f\u00fcr den Hochgeschwindigkeitshandel an B\u00f6rsen unterliegen schon seit L\u00e4ngerem der Finanzmarktregulierung. <\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\"><p>Die weit verbreitete Vorstellung, dass algorithmische Prozesse oder automatisierte Entscheidungsprozesse noch nicht reguliert w\u00fcrden, ist falsch. Aber bislang war das Ganze noch zu abstrakt, weil es nur indirekt das Leben der Menschen betroffen hat. <\/p><\/blockquote>\n\n\n\n<p>Mit dem zunehmenden Einsatz von KI-Systemen z.B. im Recruitment oder in der Beurteilung am Arbeitsplatz sind sie davon potenziell viel direkter betroffen, und das besch\u00e4ftigt sie. Pl\u00f6tzlich kommen wir also von Finanzmarktregulierungen auch zu Prozessen, die das Allgemeine Gleichbehandlungsgesetz und Betriebsverfassungsgesetz betreffen. Die Verunsicherung ist gro\u00df \u2013 und wirft die Frage danach auf, wie wir mit solchen Entwicklungen als Gesellschaft umgehen wollen.&nbsp;<\/p>\n\n\n\n<hr class=\"wp-block-separator\"\/>\n\n\n\n<p><em>Journalist, entrepreneur and civil rights activist <strong>Matthias Spielkamp<\/strong> is co-founder and managing director of <a href=\"http:\/\/algorithmwatch.org\/en\" target=\"_blank\" rel=\"noreferrer noopener\">AlgorithmWatch<\/a> and board member of German <a href=\"https:\/\/www.reporter-ohne-grenzen.de\" target=\"_blank\" rel=\"noreferrer noopener\">Reporters Without Borders<\/a>.<\/em><\/p>\n<div class=\"shariff shariff-align-flex-start shariff-widget-align-flex-start\"><ul class=\"shariff-buttons theme-round orientation-horizontal buttonsize-medium\"><li class=\"shariff-button linkedin shariff-nocustomcolor\" style=\"background-color:#1488bf\"><a href=\"https:\/\/www.linkedin.com\/sharing\/share-offsite\/?url=https%3A%2F%2Fwww.hiig.de%2Fen%2Fthe-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong%2F\" title=\"Share on LinkedIn\" aria-label=\"Share on LinkedIn\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#0077b5; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 27 32\"><path fill=\"#0077b5\" d=\"M6.2 11.2v17.7h-5.9v-17.7h5.9zM6.6 5.7q0 1.3-0.9 2.2t-2.4 0.9h0q-1.5 0-2.4-0.9t-0.9-2.2 0.9-2.2 2.4-0.9 2.4 0.9 0.9 2.2zM27.4 18.7v10.1h-5.9v-9.5q0-1.9-0.7-2.9t-2.3-1.1q-1.1 0-1.9 0.6t-1.2 1.5q-0.2 0.5-0.2 1.4v9.9h-5.9q0-7.1 0-11.6t0-5.3l0-0.9h5.9v2.6h0q0.4-0.6 0.7-1t1-0.9 1.6-0.8 2-0.3q3 0 4.9 2t1.9 6z\"\/><\/svg><\/span><\/a><\/li><li class=\"shariff-button bluesky shariff-nocustomcolor\" style=\"background-color:#84c4ff\"><a href=\"https:\/\/bsky.app\/intent\/compose?text=%E2%80%9CThe%20idea%20that%20algorithmic%20decisions%20are%20not%20yet%20regulated%20is%20wrong%E2%80%9D https%3A%2F%2Fwww.hiig.de%2Fen%2Fthe-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong%2F  via @hiigberlin.bsky.social\" title=\"Share on Bluesky\" aria-label=\"Share on Bluesky\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#0085ff; color:#fff\" target=\"_blank\"><span class=\"shariff-icon\" style=\"\"><svg width=\"20\" height=\"20\" version=\"1.1\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 20 20\"><path class=\"st0\" d=\"M4.89,3.12c2.07,1.55,4.3,4.71,5.11,6.4.82-1.69,3.04-4.84,5.11-6.4,1.49-1.12,3.91-1.99,3.91.77,0,.55-.32,4.63-.5,5.3-.64,2.3-2.99,2.89-5.08,2.54,3.65.62,4.58,2.68,2.57,4.74-3.81,3.91-5.48-.98-5.9-2.23-.08-.23-.11-.34-.12-.25,0-.09-.04.02-.12.25-.43,1.25-2.09,6.14-5.9,2.23-2.01-2.06-1.08-4.12,2.57-4.74-2.09.36-4.44-.23-5.08-2.54-.19-.66-.5-4.74-.5-5.3,0-2.76,2.42-1.89,3.91-.77h0Z\"\/><\/svg><\/span><\/a><\/li><li class=\"shariff-button mailto shariff-nocustomcolor\" style=\"background-color:#a8a8a8\"><a href=\"mailto:?body=https%3A%2F%2Fwww.hiig.de%2Fen%2Fthe-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong%2F&subject=%E2%80%9CThe%20idea%20that%20algorithmic%20decisions%20are%20not%20yet%20regulated%20is%20wrong%E2%80%9D\" title=\"Send by email\" aria-label=\"Send by email\" role=\"button\" rel=\"noopener nofollow\" class=\"shariff-link\" style=\"; background-color:#999; color:#fff\"><span class=\"shariff-icon\" style=\"\"><svg width=\"32px\" height=\"20px\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" viewBox=\"0 0 32 32\"><path fill=\"#999\" d=\"M32 12.7v14.2q0 1.2-0.8 2t-2 0.9h-26.3q-1.2 0-2-0.9t-0.8-2v-14.2q0.8 0.9 1.8 1.6 6.5 4.4 8.9 6.1 1 0.8 1.6 1.2t1.7 0.9 2 0.4h0.1q0.9 0 2-0.4t1.7-0.9 1.6-1.2q3-2.2 8.9-6.1 1-0.7 1.8-1.6zM32 7.4q0 1.4-0.9 2.7t-2.2 2.2q-6.7 4.7-8.4 5.8-0.2 0.1-0.7 0.5t-1 0.7-0.9 0.6-1.1 0.5-0.9 0.2h-0.1q-0.4 0-0.9-0.2t-1.1-0.5-0.9-0.6-1-0.7-0.7-0.5q-1.6-1.1-4.7-3.2t-3.6-2.6q-1.1-0.7-2.1-2t-1-2.5q0-1.4 0.7-2.3t2.1-0.9h26.3q1.2 0 2 0.8t0.9 2z\"\/><\/svg><\/span><\/a><\/li><\/ul><\/div>","protected":false},"excerpt":{"rendered":"<p>Should machines make important decisions in HR management and administration? Who is responsible for ensuring that these decisions are taken fairly \u2013 and how do we prevent discriminatory structures from being algorithmically perpetuated?<\/p>\n","protected":false},"author":127,"featured_media":72448,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1289,1582,224],"tags":[1108,1263,686,1172],"class_list":["post-72436","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artificial-intelligence","category-ftif-ai-and-society","category-policy-and-law","tag-diskriminierung-2","tag-diversitat","tag-ki-2","tag-recht-2"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>&quot;The idea that algorithmic decisions are not yet regulated is wrong&quot; &#8211; Digital Society Blog<\/title>\n<meta name=\"description\" content=\"Should machines make decisions in HR management and administration? How do we prevent discriminatory structures from being algorithmically perpetuated?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"&quot;The idea that algorithmic decisions are not yet regulated is wrong&quot; &#8211; Digital Society Blog\" \/>\n<meta property=\"og:description\" content=\"Should machines make decisions in HR management and administration? How do we prevent discriminatory structures from being algorithmically perpetuated?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/\" \/>\n<meta property=\"og:site_name\" content=\"HIIG\" \/>\n<meta property=\"article:published_time\" content=\"2020-11-30T12:09:12+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-03-28T12:07:02+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.hiig.de\/wp-content\/uploads\/2020\/11\/the-blowup-C8D0upr8H-Y-unsplash-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1432\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Katrin Werner\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Katrin Werner\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minutes\" \/>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"\"The idea that algorithmic decisions are not yet regulated is wrong\" &#8211; Digital Society Blog","description":"Should machines make decisions in HR management and administration? How do we prevent discriminatory structures from being algorithmically perpetuated?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/","og_locale":"en_US","og_type":"article","og_title":"\"The idea that algorithmic decisions are not yet regulated is wrong\" &#8211; Digital Society Blog","og_description":"Should machines make decisions in HR management and administration? How do we prevent discriminatory structures from being algorithmically perpetuated?","og_url":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/","og_site_name":"HIIG","article_published_time":"2020-11-30T12:09:12+00:00","article_modified_time":"2023-03-28T12:07:02+00:00","og_image":[{"width":2560,"height":1432,"url":"https:\/\/www.hiig.de\/wp-content\/uploads\/2020\/11\/the-blowup-C8D0upr8H-Y-unsplash-scaled.jpg","type":"image\/jpeg"}],"author":"Katrin Werner","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Katrin Werner","Est. reading time":"4 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/#article","isPartOf":{"@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/"},"author":{"name":"Katrin Werner","@id":"https:\/\/www.hiig.de\/#\/schema\/person\/e36886be9abf09ac12ff4fb4b1b7fcb5"},"headline":"&#8220;The idea that algorithmic decisions are not yet regulated is wrong&#8221;","datePublished":"2020-11-30T12:09:12+00:00","dateModified":"2023-03-28T12:07:02+00:00","mainEntityOfPage":{"@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/"},"wordCount":973,"publisher":{"@id":"https:\/\/www.hiig.de\/#organization"},"image":{"@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/www.hiig.de\/wp-content\/uploads\/2020\/11\/the-blowup-C8D0upr8H-Y-unsplash-scaled.jpg","keywords":["diskriminierung","Diversit\u00e4t","KI","Recht"],"articleSection":["Artificial Intelligence","ftif AI and Society","Policy and Law"],"inLanguage":"en-US"},{"@type":"WebPage","@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/","url":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/","name":"\"The idea that algorithmic decisions are not yet regulated is wrong\" &#8211; Digital Society Blog","isPartOf":{"@id":"https:\/\/www.hiig.de\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/#primaryimage"},"image":{"@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/#primaryimage"},"thumbnailUrl":"https:\/\/www.hiig.de\/wp-content\/uploads\/2020\/11\/the-blowup-C8D0upr8H-Y-unsplash-scaled.jpg","datePublished":"2020-11-30T12:09:12+00:00","dateModified":"2023-03-28T12:07:02+00:00","description":"Should machines make decisions in HR management and administration? How do we prevent discriminatory structures from being algorithmically perpetuated?","breadcrumb":{"@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/#primaryimage","url":"https:\/\/www.hiig.de\/wp-content\/uploads\/2020\/11\/the-blowup-C8D0upr8H-Y-unsplash-scaled.jpg","contentUrl":"https:\/\/www.hiig.de\/wp-content\/uploads\/2020\/11\/the-blowup-C8D0upr8H-Y-unsplash-scaled.jpg","width":2560,"height":1432},{"@type":"BreadcrumbList","@id":"https:\/\/www.hiig.de\/en\/the-idea-that-algorithmic-decisions-are-not-yet-regulated-is-wrong\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.hiig.de\/en\/"},{"@type":"ListItem","position":2,"name":"&#8220;The idea that algorithmic decisions are not yet regulated is wrong&#8221;"}]},{"@type":"WebSite","@id":"https:\/\/www.hiig.de\/#website","url":"https:\/\/www.hiig.de\/","name":"HIIG","description":"Alexander von Humboldt Institute for Internet and Society","publisher":{"@id":"https:\/\/www.hiig.de\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.hiig.de\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Organization","@id":"https:\/\/www.hiig.de\/#organization","name":"HIIG","url":"https:\/\/www.hiig.de\/","logo":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.hiig.de\/#\/schema\/logo\/image\/","url":"https:\/\/www.hiig.de\/wp-content\/uploads\/2019\/06\/hiig.png","contentUrl":"https:\/\/www.hiig.de\/wp-content\/uploads\/2019\/06\/hiig.png","width":320,"height":80,"caption":"HIIG"},"image":{"@id":"https:\/\/www.hiig.de\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/www.hiig.de\/#\/schema\/person\/e36886be9abf09ac12ff4fb4b1b7fcb5","name":"Katrin Werner"}]}},"_links":{"self":[{"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/posts\/72436","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/users\/127"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/comments?post=72436"}],"version-history":[{"count":11,"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/posts\/72436\/revisions"}],"predecessor-version":[{"id":79652,"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/posts\/72436\/revisions\/79652"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/media\/72448"}],"wp:attachment":[{"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/media?parent=72436"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/categories?post=72436"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hiig.de\/en\/wp-json\/wp\/v2\/tags?post=72436"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}