Zum Inhalt springen
169 HD – Why AI
27 April 2021

Why, AI? – Ein digitaler Lernraum über KI

Mythen rund um Automatisierung, Algorithmen und ihre gesellschaftlichen Folgen entlarven


Alle Welt spricht über Künstliche Intelligenz (KI). Aber wie werden KI-Technologien unsere Gesellschaft verändern und wie können wir sie zu unserem Vorteil einsetzen? Dafür müssen wir zunächst verstehen, wie KI funktioniert – und vor allem, wie wir sie für uns nutzbar machen können. Ihr Einsatz birgt viele Risiken, weshalb es umso wichtiger ist, sie zu (er)kennen und Lösungen zu entwickeln. Aus diesem Grund haben wir diesen digitalen Lernraum zusammengestellt. “Why, AI?” ist eine Open Education Resource (OER), deren gesamtes Material unter CC BY lizenziert ist. Lasst uns darüber diskutieren, was wir von KI erwarten und welche gesellschaftlichen Herausforderungen sich in Zeiten von KI stellen.

Künstliche Intelligenz ist zu einem wichtigen Thema in der öffentlichen Debatte geworden und wirft viele Fragen der Regulierung auf. Aber was ist “KI”? Was sind ihre Grenzen? Brauchen wir eine KI-Ethik? KI-Gesetze? Auf globaler Ebene, in Europa, in Deutschland? Ist KI neutral? Kann KI diskriminieren? Kann KI Entscheidungen treffen? Können oder müssen KI-Technologien und -Anwendungen erklärt werden oder erklärbar sein? Wo liegen die Grenzen für den Einsatz von KI in verschiedenen Gesellschaftsbereichen? Automatisierte Autos gibt es, aber was ist mit automatisierten Richter*innen? 

Das gemeinsam vom AI & Society Lab und der Forschungsgruppe Globaler Konstitutionalismus und das Internet initiierte Projekt “Why, AI?” ist als digitaler Lernraum konzipiert, der geballtes Wissen gegen Mythen rund um Automatisierung, Algorithmen und ihre gesellschaftlichen Folgen bietet.

Mythen mit Wissenschaft aufdecken – mit Hilfe eines offenen Kursformats

Ein hochkarätiges Expert*innenteam widmet sich kritisch einer Vielzahl von urban legends über KI, um diese zu dekonstruieren: dass KI-Algorithmen und automatisierte Entscheidungssysteme von Natur aus schlecht sind, dass sie Diskriminierung überwinden werden; dass sie die Welt regieren werden.
Die Wahrheit ist meist etwas weniger dramatisch – aber mindestens genauso interessant. 

Alle Mythen erkunden

“Why, AI?” richtet sich an Journalist*innen und Pädagog*innen, Student*innen, Politiker*innen und an die Zivilgesellschaft gleichermaßen – für mehr Kenntnis darüber, wie Algorithmen funktionieren und wie Künstliche Intelligenz für die Zukunft gestaltet werden kann, anstatt ihr zu erlauben, die Zukunft zu gestalten. 

Hans Jonas, ein deutscher Technikphilosoph, erinnert uns, so zu handeln, dass die Konsequenzen unseres Handelns mit dem Bestehen echten und nachhaltigen menschlichen Lebens vereinbar sind. Es ist keinesfalls übertrieben zu sagen, dass wir uns in Bezug auf KI in einer Schlüsselphase der technologischen Entwicklung befinden. Wir als Gesellschaft müssen auf den Fortschritt mit und durch KI reagieren, Risiken (an)erkennen und Lösungen entwickeln. Wir hoffen, dass Sie mit “Why, AI” ein wenig mehr darüber lernen, wie KI die Welt beeinflusst und wie wir KI verändern müssen, bevor KI uns (zu sehr) verändert.

Kuratiert wird das Projekt von von Matthias C. Kettemann – Leiter der Forschungsgruppe Globaler Konstitutionalismus und das Internet, in der er die Regeln der Macht und die Macht der Regeln in hypervernetzten Online-Räumen untersucht – und Daniela Dicks, Co-Leiterin des AI & Society Lab, einem interdisziplinären Raum, der neue Perspektiven auf KI erforscht und zwischen verschiedenen gesellschaftlichen Akteuren vermittelt, die mit KI interagieren.

Ihr habt Feedback für uns, oder Ideen für einen Mythos, mit dem aufgeräumt werden sollte? Meldet euch unter whyai@hiig.de.

 


Das Team hinter diesem Projekt: Frederik Efferenn, Lukas Fox, Christian Grauvogel, Katharina Mosene, Marie-Therese Sekwenz, Katrin Werner, Larissa Wunderlich.

Es wird vom HIIG in Kooperation mit dem Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Junges Forum: Technikwissenschaften (JF:TEC), dem Sustainable Computing Lab der Wirtschaftsuniversität Wien (SCL) und dem Max-Planck-Institut für ausländisches öffentliches Recht und Völkerrecht (MPIL) (Sektion Völkerrecht des Internets) & OESA e.V. gehostet.


Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Daniela Dicks

Ehem. Co-Leitung und Sprecherin: AI & Society Lab

Matthias C. Kettemann, Prof. Dr. LL.M. (Harvard)

Forschungsgruppenleiter und Assoziierter Forscher: Globaler Konstitutionalismus und das Internet

Aktuelle HIIG-Aktivitäten entdecken

Forschungsthemen im Fokus

Das HIIG beschäftigt sich mit spannenden Themen. Erfahren Sie mehr über unsere interdisziplinäre Pionierarbeit im öffentlichen Diskurs.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Weitere Artikel

Das Foto zeigt Hände nebeneinander. Das symbolisiert die Integration von Geschlecht und Inklusivität in digitale Kulturpolitiken.

Geschlecht und Inklusivität in digitalen Kulturpolitiken: Erkenntnisse aus Berlin und Barcelona

Können Berlins und Barcelonas integrativer Umgang mit der Digitalisierung als Blaupause für eine neue europäische Kulturpolitik im digitalen Zeitalter dienen?

Das Bild zeigt bunte Puzzleteile. Sie repräsentieren, dass KI für den Umweltschutz nur ein kleiner Teil von vielen sein kann, um unseren Planeten zu schützen.

Ein kleiner Teil von vielen – KI für den Umweltschutz

Welche Rolle spielt KI in Anwendungen für den Umweltschutz? Dieser Blogbeitrag wirft einen Blick auf deutsche Projekte, die KI zu diesem Zweck einsetzen.

Eine Hand hält eine digitale Karte auf einem Smartphone. Dies repräsentiert GIS-Technologie und Geodaten.

Wege durch das Großstadtlabyrinth: GIS-Technologie und die Grenzen zwischen digitaler und physischer Infrastruktur

Mit der Entwicklung von GIS-Technologie stellt sich die Frage, ob digitale Karten wie physische öffentliche Infrastrukturen behandelt werden sollten.