Zum Inhalt springen
169 HD – AI is inaccessible.-2
02 Juni 2021| doi: 10.5281/zenodo.4811512

Mythos: Die KI versteht mich, aber ich kann sie nicht verstehen

Jeder kann und sollte verstehen, wie KI funktioniert, so dass wir – anstatt uns von algorithmischer Entscheidungsfindung einschüchtern oder in die Irre führen zu lassen – mehrere Perspektiven in die Entwicklung und Implementierung der Systeme einbringen können, die uns alle unterschiedlich beeinflussen.

Mythos

KI versteht mich, aber ich sie nicht verstehen.

KI ist NICHT schlauer als wir. KI sollte verständlich und zugänglich sein.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Crawford, K. & Paglen, T. (2019, September 19). Excavating AI: The Politics of Images in Machine Learning Training Sets.

Timnit Gebru. (2021, April 14). The Hierarchy of Knowledge in Machine Learning & Related Fields and Its Consequences.

Zubarev, V. (2018, November 21). Machine Learning for Everyone.

ZUSATZLITERATUR

Griffith, C. (2017). Visualizing Algorithms.

Kogan, G. (n.d.). Neural networks. Retrieved 18 May 2021.

McPherson, T., & Parham, M. (2019, October 24). ‘What is a Feminist Lab?’ Symposium.
UNICORN IN THE FIELD

Algorithmic Justice League
Color Coded LA
Data Nutrition Project
School of Machines, Making, & Make-Believe

Über die Autorin

Sarah Ciston, Fellow | HIIG

Sarah Ciston ist Virtual Fellow am Humboldt Institut für Internet und Gesellschaft und Mellon Fellow und Doktorandin in Media Arts + Practice an der University of Southern California. Ihre Forschung untersucht, wie man Intersektionalität in die künstliche Intelligenz einbringen kann, indem man queere, feministische und antirassistische Ethik und Taktiken anwendet. Sie leitet das Creative Code Collective – eine studentische Gemeinschaft für Co-Learning-Programmierung unter Verwendung zugänglicher, interdisziplinärer Strategien. Zu ihren Projekten gehören ein Machine-Learning-Interface, das den inneren Kritiker „umschreibt“, und ein Chatbot, der Online-Frauenfeinden den Feminismus erklärt. Derzeit entwickelt sie eine Bibliothek von digital gedruckten Magazinen zu intersektionaler KI.

@sarahciston


Why, AI?

Dieser Beitrag ist Teil unseres Projekts „Why, AI?“. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Das Foto zeigt einen Arbeiter, der eine blaue Glasfassade reinigt. Es steht symbolisch für Transparenz und das Hinterfragen von Annahmen über Desinformation.

Annahmen über Desinformation: Was wir zu wissen glauben und was wir wirklich wissen

Was steckt hinter Annahmen über Desinformation? Dieser Artikel räumt mit Missverständnissen auf und zeigt, warum es mehr Forschung braucht.

Das Foto zeigt eine Nahaufnahme eines leuchtenden roten „STOP“-Signals vor unscharfem Stadthintergrund. Das ist ein visuelles Zeichen für „Nein zu KI“ und die wachsende Resistenz gegen undemokratische Machtstrukturen in der Entwicklung Künstlicher Intelligenz.

Nein zu KI: Wer widersetzt sich und warum?

Dieser Artikel zeigt: „Nein" zu KI sagen, heißt nicht, Technologie grundsätzlich abzulehnen. Es ist ein Weg, Macht zu hinterfragen und demokratische Teilhabe einzufordern.

Das Foto zeigt stark vergrößert das innere Gewinde eines Schneckenhauses. Es symbolisiert die Herausforderungen bei der Bemessung der Ökobilanz von KI über den gesamten Lebenszyklus.

Blindspot Nachhaltigkeit: Die Ökobilanz von KI messbar machen

Die Ökobilanz von KI bleibt ein blinder Fleck: Entlang des gesamten Lebenszyklus fehlen belastbare Daten und Transparenz. Wie kann sich das ändern?