Zum Inhalt springen
169 HD – AI is inaccessible.-2

Mythos: Die KI versteht mich, aber ich kann sie nicht verstehen

02 Juni 2021| doi: 10.5281/zenodo.4811512

Jeder kann und sollte verstehen, wie KI funktioniert, so dass wir – anstatt uns von algorithmischer Entscheidungsfindung einschüchtern oder in die Irre führen zu lassen – mehrere Perspektiven in die Entwicklung und Implementierung der Systeme einbringen können, die uns alle unterschiedlich beeinflussen.

Mythos

KI versteht mich, aber ich sie nicht verstehen.

KI ist NICHT schlauer als wir. KI sollte verständlich und zugänglich sein.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Crawford, K. & Paglen, T. (2019, September 19). Excavating AI: The Politics of Images in Machine Learning Training Sets.

Timnit Gebru. (2021, April 14). The Hierarchy of Knowledge in Machine Learning & Related Fields and Its Consequences.

Zubarev, V. (2018, November 21). Machine Learning for Everyone.

ZUSATZLITERATUR

Griffith, C. (2017). Visualizing Algorithms.

Kogan, G. (n.d.). Neural networks. Retrieved 18 May 2021.

McPherson, T., & Parham, M. (2019, October 24). ‘What is a Feminist Lab?’ Symposium.
UNICORN IN THE FIELD

Algorithmic Justice League
Color Coded LA
Data Nutrition Project
School of Machines, Making, & Make-Believe

Über die Autorin

Sarah Ciston, Fellow | HIIG

Sarah Ciston ist Virtual Fellow am Humboldt Institut für Internet und Gesellschaft und Mellon Fellow und Doktorandin in Media Arts + Practice an der University of Southern California. Ihre Forschung untersucht, wie man Intersektionalität in die künstliche Intelligenz einbringen kann, indem man queere, feministische und antirassistische Ethik und Taktiken anwendet. Sie leitet das Creative Code Collective – eine studentische Gemeinschaft für Co-Learning-Programmierung unter Verwendung zugänglicher, interdisziplinärer Strategien. Zu ihren Projekten gehören ein Machine-Learning-Interface, das den inneren Kritiker “umschreibt”, und ein Chatbot, der Online-Frauenfeinden den Feminismus erklärt. Derzeit entwickelt sie eine Bibliothek von digital gedruckten Magazinen zu intersektionaler KI.

@sarahciston


Why, AI?

Dieser Beitrag ist Teil unseres Projekts “Why, AI?”. Es ist eine Lernplattform, die euch hilft, mehr über die Mythen und Wahrheiten rund um Automatisierung, Algorithmen, die Gesellschaft und uns selbst herauszufinden. Sie wird kontinuierlich mit neuen Beiträgen befüllt.

Alle Mythen erkunden


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Man sieht in Leuchtschrift das Wort "Ethical"

Digitale Ethik

Ob Zivilgesellschaft, Politik oder Wissenschaft – alle scheinen sich einig, dass die Neuen Zwanziger im Zeichen der Digitalisierung stehen werden. Doch wo stehen wir aktuell beim Thema digitale Ethik? Wie schaffen wir eine digitale Transformation unter Einbindung der Gesamtgesellschaft, also auch der Menschen, die entweder nicht die finanziellen Mittel oder aber auch das nötige Know-How besitzen, um von der Digitalisierung zu profitieren?  Und was bedeuten diese umfassenden Änderungen unseres Agierens für die Demokratie? In diesem Dossier wollen wir diese Fragen behandeln und Denkanstöße bieten.

Discover all 12 articles

Weitere Artikel

Is the new EU directive for sustainability in AI a toothless paper tiger or a sharp and hungry lion?

CSRD, ein Löwe oder Papiertiger? Über Nachhaltigkeitsstandards künstlicher Intelligenz

Hat das CSRD der Europäischen Union das Potenzial, neue Standards für die Nachhaltigkeit Künstlicher Intelligenz zu setzen?

Sustainable AI – Wie nachhaltig ist Künstliche Intelligenz wirklich?

In diesem Blogbeitrag beschäftigen wir uns damit, wie nachhaltig kleinere KI-Systeme wirklich sind und welche Handlungsempfehlungen sich aus den Forschungsergebnissen ableiten lassen.

Titelbild Blogbeitrag Explainable AI

Explaining AI – Wie erklärt man das Unerklärliche?

Komplexe automatisierte Entscheidungsfindungssysteme sind in unserem Alltag allgegenwärtig geworden. Sollten wir uns überhaupt dafür interessieren, wie sie funktionieren?