Zum Inhalt springen

Digital Society Blog

Unsere vernetzte Welt verstehen

Christoph Sorge
Professor, Saarland University (Chair of Legal Informatics), Saarbrücken, Germany

Mythos: Bei KI-Modellen handelt es sich um Abstraktionen, die keine personenbezogenen Daten benötigen

30 August 2021| doi: 10.5281/zenodo.5243288

Beim überwachten maschinellen Lernen sind die eingesetzten Modelle Abstraktionen der Trainingsdaten. Während diese Modelle strukturelle Informationen enthalten müssen, sollten sie jedoch nicht zu genau an die Trainingsdaten angepasst werden. Es wäre demnach folgerichtig, sie im Wesentlichen als anonyme Modelle zu betrachten. Allerdings hat die Forschung gezeigt, dass diese Annahme in einigen Fällen falsch ist. Daher müssen auch bei der Entwicklung und dem Einsatz von KI-Modellen datenschutzrechtliche Überlegungen eine Rolle spielen.

Mythos

KI-Modelle sind Abstraktionen, die keine personenbezogenen Daten benötigen.

 

KI-Modelle sind Abstraktionen, die personenbezogene Daten beinhalten können – aber nicht müssen. Deswegen muss das Datenschutzrecht hierbei immer berücksichtigt werden.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Shokri, R., Stronati, M., Song, C. & Shmatikov, V. (2016). Membership Inference Attacks Against Machine Learning Models.

Al-Rubaie, M. & Chang, J. M. (2019). Privacy-Preserving Machine Learning: Threats and Solutions. EEE Security & Privacy, 17(2), 49-58.

Liu, B., Ding, M., Shaham, S., Rahayu, W., Farokhi, F. & Lin, Z. (2021). When Machine Learning Meets Privacy: A Survey and Outlook. ACM Computing Surveys, 54(2), 1-36.

Über die Autorinnen

Foto: Oliver Dietze

Christoph Sorge

Professor, Universität des Saarlandes (Lehrstuhl für Rechtsinformatik), Saarbrücken, Deutschland

Christoph Sorge promovierte in Informatik am Karlsruher Institut für Technologie. Anschließend arbeitete er als Forscher bei NEC Laboratories Europe, in der Network Research Division. Ab 2010 war Christoph Sorge als Juniorprofessor für Netzwerksicherheit an der Universität Paderborn tätig. Im Jahr 2014 wechselte er an die Universität des Saarlandes, wo er nun eine ordentliche Professur für Rechtsinformatik innehat. Während er in erster Linie der juristischen Fakultät angehört, ist er auch kooptierter Professor für Informatik. Er ist assoziiertes Mitglied des CISPA – Helmholtz-Zentrums für Informationssicherheit, Senior Fellow des Deutschen Forschungsinstituts für öffentliche Verwaltung und Vorstandsmitglied der Deutschen Gesellschaft für Informatik in der Justiz. Sein Forschungsgebiet ist die Schnittstelle zwischen Informatik und Recht, mit einem Schwerpunkt auf dem Datenschutz.

@legalinf

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Titelbild European Platform Alternatives. Ein Schwimmbad mit zwei Sprungtürmen von oben.

European Platform Alternatives

Im Jahr 2020 begann das Platform Alternatives Projekt mit der Erforschung der europäischen Plattformökonomie, um die strukturellen Auswirkungen der großen amerikanischen Plattformen und die Strategien ihrer europäischen Wettbewerber zu verstehen. Das Team fand hier eine äußerst vielfältige und aktive Landschaft digitaler Plattformen vor, in der häufig andere Motivationen als Wachstum und Marktherrschaft im Zentrum stehen. Zwei Jahre später bieten die hier versammelten Beiträge nun eine Alternative zu den aktuellen öffentlichen und politischen Debatten, die sich oft nur um die Fragen der Regulierung großer Plattformen drehen. Neben vielfältigen organisatorischen Lösungen und Regulierungsfragen geht es vor allem die Frage, wie sie europäische Plattformen zu echten Alternativen im globalen Markt entwickeln können.

Discover all 5 articles

Weitere Artikel

Titelbild Blogbeitrag: Deep Fakes

Deep Fakes: die bisher unheimlichste Variante manipulierter Medieninhalte

Deep Fakes sind nicht die ersten manipulierten Medieninhalte. Was also löst dieses außergewöhnliche Gefühl der Unheimlichkeit aus, das wir mit ihnen verbinden?

Wieso entsteht Bias in unseren Sprachtechnologien?

Warum enthalten Übersetzungsprogramme oft diskriminierende Tendenzen gegenüber Geschlecht oder Herkunft? Hier ist ein einfacher Leitfaden um Bias in der Verarbeitung natürlicher Sprache zu verstehen.

Titelbild für den Blogbeitrag. Zu sehen ist ein Publikum von hinten fotografiert. Sie hören einem Vortrag zu.

Ethik der Digitalisierung: Dialog, Teilhabe & Visionen

Welche Visionen müssen wir umsetzen, damit eine ethikgeleitete Digitaliserung unserer Gesellschaft für alle funktioniert? Wir ziehen eine Bilanz.