Zum Inhalt springen
169 HD – AI is neutral – 1

Mythos: KI macht Schluss mit Diskriminierung

10 Mai 2021| doi: 10.5281/zenodo.4745653

Als vermeintlich objektive Spitzentechnologie besteht die Hoffnung, dass KI menschliche Schwächen überwinden kann. Manche Menschen glauben, dass KI frei von menschlichen Voreingenommenheiten und Fehlern sei und auf Grundlage fairer und objektiver Entscheidungen so der Diskriminierung einen Riegel vorschieben könne.

Wir entmystifizieren diese Behauptung, indem wir uns konkrete Beispiele dafür ansehen, wie KI Ungleichheiten (re)produziert, und verbinden diese mit verschiedenen Aspekten, die helfen, sozio-technische Verstrickungen zu veranschaulichen. Unter Rückgriff auf eine Reihe kritischer WissenschaftlerInnen argumentieren wir, dass dieser vereinfachende Mythos sogar gefährlich sein könnte und zeigen, was dagegen zu tun ist.

Mythos

KI wird die Diskriminierung beenden (oder ist zumindest weniger diskriminierend als fehlbare und unfaire Menschen).


Als Teil der Gesellschaft ist KI tief in ihr verwurzelt und als solche nicht von Strukturen der Diskriminierung zu trennen. Aufgrund dieser sozio-technischen Einbettung kann KI Diskriminierung nicht von selbst zum Verschwinden bringen.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Benjamin, R. (2019a): Captivating Technology. Race, Carceral Technoscience, and Liberatory Imagination in Everyday Life. Durham: Duke University Press.

Benjamin, R. (2019b): Race after technology: abolitionist tools for the new Jim code. Cambridge: UKPolity.

Criado-Perez, C. (2020): Unsichtbare Frauen. Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. München: btb Verlag.

D’Ignazio, C.; Klein, L. F. (2020): Data Feminism.
Strong ideas series Cambridge, Massachusetts London, England: The MIT Press.

Buolamwini, J.; Gebru, T. (2018): Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. In: Proceedings of Machine Learning Research 81. Paper präsentiert bei der Conference on Fairness, Accountability, and Transparency, 1–15.

ZUSATZLITERATUR

Eubanks, V. (2017): Automating inequality. How high-tech tools profile, police, and punish the poor. First Edition. New York, NY: St. Martin’s Press

O’Neil, C. (2016): Weapons of math destruction. How big data increases inequality and threatens democracy. First edition. New York: Crown.

Zuboff, S. (2020): The Age of Surveillance Capitalism. The Fight for a Human Future at the new Frontier of Power. First Trade Paperback Edition. New York: PublicAffairs.

Cave, S.; Dihal, K. (2020): The Whiteness of AI. In: Philosophy & Technology 33(4), 685–703.
UNICORN IN THE FIELD

Epicenter.works
AlgorithmWatch
netzforma* e.V.

Über die Autor*innen

Miriam Fahimi, Digital Age Research Center (D!ARC), Alpen-Adria-Universität Klagenfurt

Miriam ist Marie Skłodowska-Curie Fellow im Horizon 2020 ITN-ETN Marie Curie Training Network “NoBIAS – Artificial Intelligence without Bias” und wissenschaftliche Projektmitarbeiterin am Digital Age Research Center (D!ARC) der Alpen-Adria-Universität Klagenfurt. Sie promoviert in Science and Technology Studies an der Alpen-Adria-Universität Klagenfurt bei Katharina Kinder-Kurlanda. Ihre Forschungsinteressen umfassen algorithmische Fairness, Wissenschaftsphilosophie, Wissenschafts- und Technologiestudien und feministische Theorie.

@feminasmus

Phillip Lücking

Phillip ist wissenschaftlicher Mitarbeiter und Doktorand an der Universität Kassel, Gender/Diversity in Informatiksystemen (GeDIS). Er absolvierte sein Studium der Intelligenten Systeme an der Universität Bielefeld (MSc). Sein Forschungsinteresse umfasst maschinelles Lernen und Robotik in Bezug auf ihre gesellschaftlichen Auswirkungen sowie die Frage, wie diese Technologien für das Gemeinwohl genutzt werden können.


Why, AI?

Dieser Beitrag ist Teil unseres Projekts “Why, AI?”. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Man sieht in Leuchtschrift das Wort "Ethical"

Digitale Ethik

Ob Zivilgesellschaft, Politik oder Wissenschaft – alle scheinen sich einig, dass die Neuen Zwanziger im Zeichen der Digitalisierung stehen werden. Doch wo stehen wir aktuell beim Thema digitale Ethik? Wie schaffen wir eine digitale Transformation unter Einbindung der Gesamtgesellschaft, also auch der Menschen, die entweder nicht die finanziellen Mittel oder aber auch das nötige Know-How besitzen, um von der Digitalisierung zu profitieren?  Und was bedeuten diese umfassenden Änderungen unseres Agierens für die Demokratie? In diesem Dossier wollen wir diese Fragen behandeln und Denkanstöße bieten.

Discover all 11 articles

Weitere Artikel

Person in wheelchair taking photos outside

Potenziale ausschöpfen: Hinderniserkennung mit KI für Barrierefreiheit

Hindernisse erschweren noch immer vielen den Alltag. KI hat das Potenzial, für mehr Barrierefreiheit zu sorgen. Der Blogbeitrag stellt vor, wie man sie mit offenen Trainingsdaten darauf trainieren kann.

Titelbild Blogbeitrag Explainable AI

Explaining AI – Wie erklärt man das Unerklärliche?

Komplexe automatisierte Entscheidungsfindungssysteme sind in unserem Alltag allgegenwärtig geworden. Sollten wir uns überhaupt dafür interessieren, wie sie funktionieren?

Zivilgesellschaft und KI: Streben nach ethischer Governance

Die Beteiligung der Zivilgesellschaft ist der Schlüssel für eine ethische und gerechte KI. Doch vor welchen Herausforderungen stehen Betroffene, die sich aktiv in Governance-Prozesse einbringen wollen?