Zum Inhalt springen
169 HD – Why AI

Why, AI? – Ein digitaler Lernraum über KI

27 April 2021

Mythen rund um Automatisierung, Algorithmen und ihre gesellschaftlichen Folgen entlarven


Alle Welt spricht über Künstliche Intelligenz (KI). Aber wie werden KI-Technologien unsere Gesellschaft verändern und wie können wir sie zu unserem Vorteil einsetzen? Dafür müssen wir zunächst verstehen, wie KI funktioniert – und vor allem, wie wir sie für uns nutzbar machen können. Ihr Einsatz birgt viele Risiken, weshalb es umso wichtiger ist, sie zu (er)kennen und Lösungen zu entwickeln. Aus diesem Grund haben wir diesen digitalen Lernraum zusammengestellt. “Why, AI?” ist eine Open Education Resource (OER), deren gesamtes Material unter CC BY lizenziert ist. Lasst uns darüber diskutieren, was wir von KI erwarten und welche gesellschaftlichen Herausforderungen sich in Zeiten von KI stellen.

Künstliche Intelligenz ist zu einem wichtigen Thema in der öffentlichen Debatte geworden und wirft viele Fragen der Regulierung auf. Aber was ist “KI”? Was sind ihre Grenzen? Brauchen wir eine KI-Ethik? KI-Gesetze? Auf globaler Ebene, in Europa, in Deutschland? Ist KI neutral? Kann KI diskriminieren? Kann KI Entscheidungen treffen? Können oder müssen KI-Technologien und -Anwendungen erklärt werden oder erklärbar sein? Wo liegen die Grenzen für den Einsatz von KI in verschiedenen Gesellschaftsbereichen? Automatisierte Autos gibt es, aber was ist mit automatisierten Richter*innen? 

Das gemeinsam vom AI & Society Lab und der Forschungsgruppe Globaler Konstitutionalismus und das Internet initiierte Projekt “Why, AI?” ist als digitaler Lernraum konzipiert, der geballtes Wissen gegen Mythen rund um Automatisierung, Algorithmen und ihre gesellschaftlichen Folgen bietet.

Mythen mit Wissenschaft aufdecken – mit Hilfe eines offenen Kursformats

Ein hochkarätiges Expert*innenteam widmet sich kritisch einer Vielzahl von urban legends über KI, um diese zu dekonstruieren: dass KI-Algorithmen und automatisierte Entscheidungssysteme von Natur aus schlecht sind, dass sie Diskriminierung überwinden werden; dass sie die Welt regieren werden.
Die Wahrheit ist meist etwas weniger dramatisch – aber mindestens genauso interessant. 

Alle Mythen erkunden

“Why, AI?” richtet sich an Journalist*innen und Pädagog*innen, Student*innen, Politiker*innen und an die Zivilgesellschaft gleichermaßen – für mehr Kenntnis darüber, wie Algorithmen funktionieren und wie Künstliche Intelligenz für die Zukunft gestaltet werden kann, anstatt ihr zu erlauben, die Zukunft zu gestalten. 

Hans Jonas, ein deutscher Technikphilosoph, erinnert uns, so zu handeln, dass die Konsequenzen unseres Handelns mit dem Bestehen echten und nachhaltigen menschlichen Lebens vereinbar sind. Es ist keinesfalls übertrieben zu sagen, dass wir uns in Bezug auf KI in einer Schlüsselphase der technologischen Entwicklung befinden. Wir als Gesellschaft müssen auf den Fortschritt mit und durch KI reagieren, Risiken (an)erkennen und Lösungen entwickeln. Wir hoffen, dass Sie mit “Why, AI” ein wenig mehr darüber lernen, wie KI die Welt beeinflusst und wie wir KI verändern müssen, bevor KI uns (zu sehr) verändert.

Kuratiert wird das Projekt von von Matthias C. Kettemann – Leiter der Forschungsgruppe Globaler Konstitutionalismus und das Internet, in der er die Regeln der Macht und die Macht der Regeln in hypervernetzten Online-Räumen untersucht – und Daniela Dicks, Co-Leiterin des AI & Society Lab, einem interdisziplinären Raum, der neue Perspektiven auf KI erforscht und zwischen verschiedenen gesellschaftlichen Akteuren vermittelt, die mit KI interagieren.

Ihr habt Feedback für uns, oder Ideen für einen Mythos, mit dem aufgeräumt werden sollte? Meldet euch unter whyai@hiig.de.

 


Das Team hinter diesem Projekt: Frederik Efferenn, Lukas Fox, Christian Grauvogel, Katharina Mosene, Marie-Therese Sekwenz, Katrin Werner, Larissa Wunderlich.

Es wird vom HIIG in Kooperation mit dem Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Junges Forum: Technikwissenschaften (JF:TEC), dem Sustainable Computing Lab der Wirtschaftsuniversität Wien (SCL) und dem Max-Planck-Institut für ausländisches öffentliches Recht und Völkerrecht (MPIL) (Sektion Völkerrecht des Internets) & OESA e.V. gehostet.


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Daniela Dicks

Ehem. Co-Leitung und Sprecherin: AI & Society Lab

Matthias C. Kettemann

Assoziierter Forscher, Forschungsprogrammleiter

Digital & Disziplinlos: HIIG Erklärvideos

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Man sieht in Leuchtschrift das Wort "Ethical"

Digitale Ethik

Ob Zivilgesellschaft, Politik oder Wissenschaft – alle scheinen sich einig, dass die Neuen Zwanziger im Zeichen der Digitalisierung stehen werden. Doch wo stehen wir aktuell beim Thema digitale Ethik? Wie schaffen wir eine digitale Transformation unter Einbindung der Gesamtgesellschaft, also auch der Menschen, die entweder nicht die finanziellen Mittel oder aber auch das nötige Know-How besitzen, um von der Digitalisierung zu profitieren?  Und was bedeuten diese umfassenden Änderungen unseres Agierens für die Demokratie? In diesem Dossier wollen wir diese Fragen behandeln und Denkanstöße bieten.

Discover all 12 articles

Weitere Artikel

Is the new EU directive for sustainability in AI a toothless paper tiger or a sharp and hungry lion?

CSRD, ein Löwe oder Papiertiger? Über Nachhaltigkeitsstandards künstlicher Intelligenz

Hat das CSRD der Europäischen Union das Potenzial, neue Standards für die Nachhaltigkeit Künstlicher Intelligenz zu setzen?

Sustainable AI – Wie nachhaltig ist Künstliche Intelligenz wirklich?

In diesem Blogbeitrag beschäftigen wir uns damit, wie nachhaltig kleinere KI-Systeme wirklich sind und welche Handlungsempfehlungen sich aus den Forschungsergebnissen ableiten lassen.

Titelbild Blogbeitrag Explainable AI

Explaining AI – Wie erklärt man das Unerklärliche?

Komplexe automatisierte Entscheidungsfindungssysteme sind in unserem Alltag allgegenwärtig geworden. Sollten wir uns überhaupt dafür interessieren, wie sie funktionieren?