Zum Inhalt springen
blog vorhersagen
17 Juni 2021| doi: 10.5281/zenodo.4719467

Mythos: KI behandelt alle gleich und macht faire Vorhersagen

Algorithmische Macht wird in den Händen von Datenkonzernen konzentriert und gebündelt, die herrschenden kolonialen Dynamiken werden damit aber nur verstärkt. Durch einen Blick auf den Cambridge Analytica-Skandal und die Content Manager in Manila wird der Mythos der Gleichbehandlung in Bezug auf KI und Predictive Analytics auf die Probe gestellt. Ich argumentiere, dass die Datenkonzerne es darauf anlegen, das politische und soziale Klima anderer Gebiete zu kontrollieren und zu verändern. In diesem Prozess nutzen diese Konzerne sowohl die analogen als auch die digitalen Infrastrukturen für ihre Zwecke.

Mythos

KI behandelt alle gleich und macht faire Vorhersagen.

KI verstärkt die politischen Hierarchien zwischen dem globalen Norden und dem globalen Süden.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR
Algorithms of Oppression. (2018). NYU Press. Retrieved 21 April 2021, from NYU Press.

Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.

Benjamin, R. (2020). Race After Technology: Abolitionist Tools for the New Jim Code. Social Forces, 98(4), 1–3. Read here.

Tuzcu, P. (2016). “Allow access to location?”: Digital feminist geographies. Feminist Media Studies, 16(1), 150–163. Read here.

Tuzcu, P. (2020). Cyberkolonialismus und dekoloniale feministische Applikationen. In B. Hoffarth, E. Reuter, & S. Richter (Eds.), Geschlecht und Medien – Räume, Deutungen, Repräsentationen (pp. 126–148). Campus Verlag.

Über die Autorin

Pinar Tuzcu

Post-Doc Fellow, Soziologie der Universität Kassel

Pinar Tuzcu promovierte 2015 im Fachgebiet Soziologie der Diversität an der Universität Kassel. Von 2015-2019 arbeitete sie als Post-Doc in verschiedenen Projekten und hatte von Oktober 2019 bis April 2020 eine Vertretungsprofessur für den Fachbereich Allgemeine Soziologie an der Justus-Liebig-Universität, Gießen, inne. Seit April 2020 arbeitet sie als eine der Hauptantragstellerinnen als Koordinatorin des von der VolkswagenStiftung geförderten Projekts „Re:coding Algorithmic Culture“.


Why, AI?

Dieser Beitrag ist Teil unseres Projekts „Why, AI?“. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Das Foto zeigt einen Arbeiter, der eine blaue Glasfassade reinigt. Es steht symbolisch für Transparenz und das Hinterfragen von Annahmen über Desinformation.

Annahmen über Desinformation: Was wir zu wissen glauben und was wir wirklich wissen

Was steckt hinter Annahmen über Desinformation? Dieser Artikel räumt mit Missverständnissen auf und zeigt, warum es mehr Forschung braucht.

Das Foto zeigt eine Nahaufnahme eines leuchtenden roten „STOP“-Signals vor unscharfem Stadthintergrund. Das ist ein visuelles Zeichen für „Nein zu KI“ und die wachsende Resistenz gegen undemokratische Machtstrukturen in der Entwicklung Künstlicher Intelligenz.

Nein zu KI: Wer widersetzt sich und warum?

Dieser Artikel zeigt: „Nein" zu KI sagen, heißt nicht, Technologie grundsätzlich abzulehnen. Es ist ein Weg, Macht zu hinterfragen und demokratische Teilhabe einzufordern.

Das Foto zeigt stark vergrößert das innere Gewinde eines Schneckenhauses. Es symbolisiert die Herausforderungen bei der Bemessung der Ökobilanz von KI über den gesamten Lebenszyklus.

Blindspot Nachhaltigkeit: Die Ökobilanz von KI messbar machen

Die Ökobilanz von KI bleibt ein blinder Fleck: Entlang des gesamten Lebenszyklus fehlen belastbare Daten und Transparenz. Wie kann sich das ändern?