Zum Inhalt springen
PIAI – Titelbild

Public Interest AI

 

Die Nutzung von künstlicher Intelligenz für das Gemeinwohl wird sowohl in politischen KI-Strategien, internationalen Richtlinien und staatlichen Fördermaßnahmen als auch in Projekten von wirtschaftlichen Unternehmen immer wieder als zentrales Ziel formuliert. Doch ob und vor allem wie die Gemeinwohlorientierung von KI-Anwendungen realisiert und überprüft werden kann, ist bislang unklar. Die Forschungsgruppe „Public Interest AI“ entwickelt ein operationalisierbares Verständnis von gemeinwohlorientierter KI, das es ermöglicht, Gemeinwohlorientierung KI-spezifisch zu definieren und in technischen Prototypen zu erproben. Mit diesem praxisnahen Forschungsansatz entwickelt das Forschungsteam ein beispielhaftes und auf andere KI-Anwendungen übertragbares Verständnis zur Beurteilung der Gemeinwohlorientierung. Dieses kann im Ergebnis sowohl als wichtiger Diskursbeitrag zur KI-Entwicklung in Europa fungieren sowie auch als praktische Umsetzungshilfe für KI-Entwickler*innen.

Promotionsprojekte

In drei Promotionsprojekten werden jeweils unterschiedliche Aspekte des Konzeptes von gemeinwohlorientierter KI erprobt.

In der ersten Doktorarbeit wird sich auf Prozesse für die Validierung gemeinwohlorientierter KI-Systeme durch öffentliche Akteur*innen und damit verbundener deliberativer Designprozesse konzentriert. Für das Projekt ist das Format der Design Patterns zentral, welches es ermöglicht, übertragbare Muster für gemeinwohlorientierte KI-Anwendungen zu erfassen und zur Verfügung zu stellen. Zur inhaltlichen Ausgestaltung der Design Patterns werden qualitative Fallstudien durchgeführt.

Das zweite Projekt untersucht die Rolle von Faktenchecks im öffentlichen Diskurs und, wie diese mit computergestützten Methoden unterstützt werden können. Dazu soll ein Theorierahmen über Behauptungen, die potentiell Desinformation enthalten, und ein Machine Learning Modell, das diese Art von Behauptungen automatisch klassifiziert, entwickelt werden. Zudem ist geplant, die Rezeption und Wirkung von Faktenchecks empirisch zu untersuchen.

Ein drittes PhD Projekt beschäftigt sich mit der automatisierten Vereinfachung von deutschsprachigen Texten. Ziel des Projektes ist neben dem rein wissenschaftlichen Impact, den Exklusionsfaktor für geringer literarisierte Bürger*innen zu minimieren. Der Fokus der technischen Arbeit liegt auf individuellen Teilkomponenten, die zu dem Ziel der Vollautomatisierung beitragen sollen. Die erste Teilkomponente im Projekt bezieht sich auf das Verhältnis zwischen Zusammenfassungen und Vereinfachungen.

 

 

LaufzeitOktober 2020 – September 2024
FinanzierungBundesministerium für Bildung und Forschung  | FKZ 01IS20058

Kontakt

Theresa Züger, Dr.

Forschungsgruppenleiterin Public Interest AI | AI & Society Lab

Teil der Forschungsgruppe

Neues Open Talk Format

In unserer "Open Talk“ Reihe laden wir Expert*innen aus dem Bereich der gemeinwohlorientierten KI ein. Mit ihren unterschiedlichen Perspektiven aus Forschung und Praxis helfen sie uns, ganzheitliche Antworten auf den Einsatz von Künstlicher Intelligenz für das Gemeinwohl zu entwickeln.

Ehemalige MitarbeiterInnen

Zeitschriftenartikel und Konferenzbeiträge

Asghari, H., Stolberg-Larsen, J., & Züger, T. (2022). Approximating Accessibility of Regions from Incomplete Volunteered Data. CHI EA '22: CHI Conference on Human Factors in Computing Systems Extended Abstracts, 1-6. DOI: 10.1145/3491101.3519706 Weitere Informationen

Asghari, H., van Biemen, Thomas, & Warnier, Martijn (2021). Amplifying Privacy: Scaling Up Transparency Research Through Delegated Access Requests. 5th Workshop on Technology and Consumer Protection (ConPro ’21). Weitere Informationen

Mahieu, R., Asghari, H., Parsons, C., van Hoboken, J., Crete-Nishihata, M., Hilts, A., & Anstis, S. (2021). Measuring the Brussels Effect through Access Requests: Has the European General Data Protection Regulation Influenced the Data Protection Rights of Canadian Citizens? Journal of Information Policy, 11, 301-349. DOI: 10.5325/jinfopoli.11.2021.0301 Weitere Informationen

Hewett, F., & Stede, M. (2021). Automatically evaluating the conceptual complexity of German texts. Proceedings of the 17th Conference on Natural Language Processing (KONVENS 2021), 228–234. Weitere Informationen

Buchbeiträge und Kapitel

Züger, T. (2021). The world we think is the world we get. In T. Bazzichelli, Whistleblowing for Change. Exposing Systems of Power & Injustice. Berlin, Germany: transcript. Weitere Informationen

Arbeitspapiere

Asghari, H., Birner, N., Burchardt, A., Dicks, D., Fassbender, J., Feldhus, N., Hewett, F., Hofmann, V., Kettemann, M. C., Schulz, W., Simon, J., Stolberg-Larsen, J., & Züger, T. (2022). What to explain when explaining is difficult. An interdisciplinary primer on XAI and meaningful information in automated decision-making. Alexander von Humboldt Institute for Internet and Society. DOI: 10.5281/zenodo.6375784 Weitere Informationen

Andere Publikationen

Fassbender, J. (2022). Why explainable AI needs such a thing as Society. Digital society blog. Weitere Informationen

Nenno, S. (2021). Siri’s evil sister. When the Dutch public service steals your data. Digital society blog. Weitere Informationen

Hewett, F., & Stede, M. (2021). Lexica corpus, . Weitere Informationen

Hewett, F., & Nenno, S. (2021). How to identify bias in Natural Language Processing. Digital society blog. Weitere Informationen

Nenno, S. (2021). How to find the right survey tool:problems and proposals. Elephant in the Lab. Weitere Informationen

Vorträge

Seminar: Programmatische Autonomie: Künstliche Intelligenz und selbstfahrende Autos (Session: Lecture: Künstliche Intelligenz?). University of Potsdam: Prof. Dr. Jan Distelmeyer. Potsdam University, Potsdam, Germany: 03.05.2022

Theresa Züger

PhD Workshop on Artificial Intelligence and Machine Learning research and Democracy
PhD Workshop on Artificial Intelligence and Machine Learning research and Democracy. University of Tübingen. University of Tübingen, Tübingen, Germany: 02.04.2022 Weitere Informationen

Judith Fassbender

AI in the public interest: What does this mean and how can be build it?
Gesellschaft für Informatik: #KICamp21. Gesellschaft für Informatik e.V.. online, Berlin, Germany: 24.02.2022 Weitere Informationen

Theresa Züger, Hadi Asghari, Freya Hewett, Judith Fassbender, Jakob Stolberg-Larsen

Particles of a whole: design patterns for transparent and auditable AI-systems
UbiComp '21: The 2021 ACM International Joint Conference on Pervasive and Ubiquitous Computing (Session: Particles of a whole: design patterns for transparent and auditable AI-systems). UbiComp. Online, New York, USA: 25.09.2021 Weitere Informationen

Judith Faßbender

Automatically evaluating the conceptual complexity of German texts
KONVENS 2021 (Session: Automatically evaluating the conceptual complexity of German texts). German Society for Computational Linguistics and Language Technology, the Special Interest Group on Computational Linguistics of the German Linguistic Society and the Austrian Society for Artificial Intelligence. Heinrich-Heine-Universität Düsseldorf, Düsseldorf, Germany: 09.09.2021 Weitere Informationen

Freya Hewett

AI with Volunteering Communities
The 3rd Workshop on Artificial Intelligence for Social Good (Session: AI with Volunteering Communities). International Joint Conferences on Artificial Intelligence, Montreal, Canada: 21.08.2021 Weitere Informationen

Stolberg-Larsen, J.

Amplifying Privacy: Scaling Up Transparency Research Through Delegated Access Requests
5th Workshop on Technology and Consumer Protection (ConPro ’21) (Session: Amplifying Privacy: Scaling Up Transparency Research Through Delegated Access Requests). ConPro ’21. Online, San Francisco, USA: 27.05.2021 Weitere Informationen

Hadi Asghari

Panels

The Future of War: Drone Surveillance, Killer Robots & Lethal AI Weapons
DNL26: The Kill Cloud: Networked Warfare, Drone & AI. Disruption Network Lab. Kunstquartier Bethanien, Berlin, Germany: 25.03.2022 Weitere Informationen

Theresa Züger

Wie vermitteln wir Wissen über KI an die Bevölkerung?
Auftaktveranstaltung: Zentrum für vertrauenswürdige Künstliche Intelligenz. iRights.Lab, Berlin, Germany: 07.12.2021 Weitere Informationen

Theresa Züger

Young activists & human rights in a digital age
Fundamental Rights Forum. Online, Fundamental Rights Forum, Warsaw, Poland: 11.10.2021 Weitere Informationen

Theresa Züger

Gemeinwohlorientiert = Gemeinnützig? Unternehmen und gemeinwohlorientierte KI
re:publica 21. Im Internet, Berlin, Germany: 21.05.2021 Weitere Informationen

Theresa Züger

Organisation von Veranstaltungen

AI & Society Lab
Lecture in the course of the study week of the ZHAW: "Der Mensch im digitalen Zeitalter". 05.05.2022. Alexander von Humboldt Institute for Internet and Society, Berlin, Germany. Co-Organised by: ZHAW (International)

Sami Nenno, Judith Faßbender, Theresa Züger

Sustainable AI
with attending Vip: Friederike Rohde. 29.04.2022. Alexander von Humboldt Institute for Internet and Society, Berlin, Germany (National)

Sami Nenno, Theresa Züger

Open Talk with Alex C. Engler: Algorithmic Services in the German Government
Open Talk. with attending Vip: Alex C. Engler. 01.04.2022. online, Berlin, Germany (International) Weitere Informationen

Open Talk with Anna Mätzener: Automatic Decision Making Systems
Open Talk Series. with attending Vip: Anna Mätzener. 20.03.2022. online, Berlin, Germany (International) Weitere Informationen

Open Talk with Dr. Stephan Dreyer: Public Service media & Public Value
Open Talk Series. with attending Vip: Dr. Stephan Dreyer. 11.03.2022. online, Berlin, Germany (International) Weitere Informationen

Open Talk with Julia Gundlach: Algorithms for the common good
Open Talk Series. with attending Vip: Julia Gundlach. 10.02.2022. online, Berlin, Germany (International) Weitere Informationen

Research Clinic: Explainable AI
From 08.09.2021 to 12.09.2021. Alexander von Humboldt Institute for Internet and Society, Berlin, Germany (National) Weitere Informationen

Digitaler Salon: KI – Die Letzte räumt das Internet auf
31.03.2021. Livestream, Berlin, Deutschland (National) Weitere Informationen

Natasha Vukajlovic, Philip Meier, Christian Grauvogel