Skip to content
169 HD – AI is neutral – 1
10 Mai 2021| doi: 10.5281/zenodo.4745653

Mythos: KI macht Schluss mit Diskriminierung

Als vermeintlich objektive Spitzentechnologie besteht die Hoffnung, dass KI menschliche Schwächen überwinden kann. Manche Menschen glauben, dass KI frei von menschlichen Voreingenommenheiten und Fehlern sei und auf Grundlage fairer und objektiver Entscheidungen so der Diskriminierung einen Riegel vorschieben könne.

Wir entmystifizieren diese Behauptung, indem wir uns konkrete Beispiele dafür ansehen, wie KI Ungleichheiten (re)produziert, und verbinden diese mit verschiedenen Aspekten, die helfen, sozio-technische Verstrickungen zu veranschaulichen. Unter Rückgriff auf eine Reihe kritischer WissenschaftlerInnen argumentieren wir, dass dieser vereinfachende Mythos sogar gefährlich sein könnte und zeigen, was dagegen zu tun ist.

Mythos

KI wird die Diskriminierung beenden (oder ist zumindest weniger diskriminierend als fehlbare und unfaire Menschen).


Als Teil der Gesellschaft ist KI tief in ihr verwurzelt und als solche nicht von Strukturen der Diskriminierung zu trennen. Aufgrund dieser sozio-technischen Einbettung kann KI Diskriminierung nicht von selbst zum Verschwinden bringen.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Benjamin, R. (2019a): Captivating Technology. Race, Carceral Technoscience, and Liberatory Imagination in Everyday Life. Durham: Duke University Press.

Benjamin, R. (2019b): Race after technology: abolitionist tools for the new Jim code. Cambridge: UKPolity.

Criado-Perez, C. (2020): Unsichtbare Frauen. Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. München: btb Verlag.

D’Ignazio, C.; Klein, L. F. (2020): Data Feminism.
Strong ideas series Cambridge, Massachusetts London, England: The MIT Press.

Buolamwini, J.; Gebru, T. (2018): Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. In: Proceedings of Machine Learning Research 81. Paper präsentiert bei der Conference on Fairness, Accountability, and Transparency, 1–15.

ZUSATZLITERATUR

Eubanks, V. (2017): Automating inequality. How high-tech tools profile, police, and punish the poor. First Edition. New York, NY: St. Martin’s Press

O’Neil, C. (2016): Weapons of math destruction. How big data increases inequality and threatens democracy. First edition. New York: Crown.

Zuboff, S. (2020): The Age of Surveillance Capitalism. The Fight for a Human Future at the new Frontier of Power. First Trade Paperback Edition. New York: PublicAffairs.

Cave, S.; Dihal, K. (2020): The Whiteness of AI. In: Philosophy & Technology 33(4), 685–703.
UNICORN IN THE FIELD

Epicenter.works
AlgorithmWatch
netzforma* e.V.

Über die Autor*innen

Miriam Fahimi, Digital Age Research Center (D!ARC), Alpen-Adria-Universität Klagenfurt

Miriam ist Marie Skłodowska-Curie Fellow im Horizon 2020 ITN-ETN Marie Curie Training Network “NoBIAS – Artificial Intelligence without Bias” und wissenschaftliche Projektmitarbeiterin am Digital Age Research Center (D!ARC) der Alpen-Adria-Universität Klagenfurt. Sie promoviert in Science and Technology Studies an der Alpen-Adria-Universität Klagenfurt bei Katharina Kinder-Kurlanda. Ihre Forschungsinteressen umfassen algorithmische Fairness, Wissenschaftsphilosophie, Wissenschafts- und Technologiestudien und feministische Theorie.

@feminasmus

Phillip Lücking

Phillip ist wissenschaftlicher Mitarbeiter und Doktorand an der Universität Kassel, Gender/Diversity in Informatiksystemen (GeDIS). Er absolvierte sein Studium der Intelligenten Systeme an der Universität Bielefeld (MSc). Sein Forschungsinteresse umfasst maschinelles Lernen und Robotik in Bezug auf ihre gesellschaftlichen Auswirkungen sowie die Frage, wie diese Technologien für das Gemeinwohl genutzt werden können.


Why, AI?

Dieser Beitrag ist Teil unseres Projekts „Why, AI?“. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autor*innen und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Ein Vulkanausbruch mit gewaltiger Aschewolke, der die Metapher der KI als mächtiger "Todesmaschine" symbolisieren soll.

Von wegen „Todesmaschine”: Warum KI eine Verantwortungsfrage ist, keine Apokalypse

Die Autoren setzen der weitverbreiteten Metapher von KI als mächtiger „Todesmaschine”, die ihre Schöpfer*innen eines Tages übertrumpft, eine andere, wissenschaftliche Lesart entgegen.

Unscharfes rotes Gesicht auf schwarzem Hintergrund, das symbolisiert, wie KI-Agenten digitale Identität konstruieren können.

Wenn Bots zurückschlagen: KI-Agenten, Verleumdung und die Konstruktion digitaler Identität

Der Fall Shambaugh zeigt, wie ein KI-Agent den Ruf einer Person schädigen kann, und wirft damit neue rechtliche Fragen auf.

Das Bild zeigt den orangenen Ring eines Basketballkorbs vor blauem Himmel, symbolisch für den Human in the Loop in der Kreditvergabe.

Der Human in the Loop bei der automatisierten Kreditvergabe – Menschliche Expertise für größere Fairness

Wie fair sind automatisierte Kreditentscheidungen? Wann ist menschliche Expertise unverzichtbar?