Skip to content
Christoph Sorge
Professor, Saarland University (Chair of Legal Informatics), Saarbrücken, Germany
30 August 2021| doi: 10.5281/zenodo.5243288

Mythos: Bei KI-Modellen handelt es sich um Abstraktionen, die keine personenbezogenen Daten benötigen

Beim überwachten maschinellen Lernen sind die eingesetzten Modelle Abstraktionen der Trainingsdaten. Während diese Modelle strukturelle Informationen enthalten müssen, sollten sie jedoch nicht zu genau an die Trainingsdaten angepasst werden. Es wäre demnach folgerichtig, sie im Wesentlichen als anonyme Modelle zu betrachten. Allerdings hat die Forschung gezeigt, dass diese Annahme in einigen Fällen falsch ist. Daher müssen auch bei der Entwicklung und dem Einsatz von KI-Modellen datenschutzrechtliche Überlegungen eine Rolle spielen.

Mythos

KI-Modelle sind Abstraktionen, die keine personenbezogenen Daten benötigen.

 

KI-Modelle sind Abstraktionen, die personenbezogene Daten beinhalten können – aber nicht müssen. Deswegen muss das Datenschutzrecht hierbei immer berücksichtigt werden.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Shokri, R., Stronati, M., Song, C. & Shmatikov, V. (2016). Membership Inference Attacks Against Machine Learning Models.

Al-Rubaie, M. & Chang, J. M. (2019). Privacy-Preserving Machine Learning: Threats and Solutions. EEE Security & Privacy, 17(2), 49-58.

Liu, B., Ding, M., Shaham, S., Rahayu, W., Farokhi, F. & Lin, Z. (2021). When Machine Learning Meets Privacy: A Survey and Outlook. ACM Computing Surveys, 54(2), 1-36.

Über die Autorinnen

Foto: Oliver Dietze

Christoph Sorge

Professor, Universität des Saarlandes (Lehrstuhl für Rechtsinformatik), Saarbrücken, Deutschland

Christoph Sorge promovierte in Informatik am Karlsruher Institut für Technologie. Anschließend arbeitete er als Forscher bei NEC Laboratories Europe, in der Network Research Division. Ab 2010 war Christoph Sorge als Juniorprofessor für Netzwerksicherheit an der Universität Paderborn tätig. Im Jahr 2014 wechselte er an die Universität des Saarlandes, wo er nun eine ordentliche Professur für Rechtsinformatik innehat. Während er in erster Linie der juristischen Fakultät angehört, ist er auch kooptierter Professor für Informatik. Er ist assoziiertes Mitglied des CISPA – Helmholtz-Zentrums für Informationssicherheit, Senior Fellow des Deutschen Forschungsinstituts für öffentliche Verwaltung und Vorstandsmitglied der Deutschen Gesellschaft für Informatik in der Justiz. Sein Forschungsgebiet ist die Schnittstelle zwischen Informatik und Recht, mit einem Schwerpunkt auf dem Datenschutz.

@legalinf

Dieser Beitrag spiegelt die Meinung der Autor*innen und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Ein Vulkanausbruch mit gewaltiger Aschewolke, der die Metapher der KI als mächtiger "Todesmaschine" symbolisieren soll.

Von wegen „Todesmaschine”: Warum KI eine Verantwortungsfrage ist, keine Apokalypse

Die Autoren setzen der weitverbreiteten Metapher von KI als mächtiger „Todesmaschine”, die ihre Schöpfer*innen eines Tages übertrumpft, eine andere, wissenschaftliche Lesart entgegen.

Unscharfes rotes Gesicht auf schwarzem Hintergrund, das symbolisiert, wie KI-Agenten digitale Identität konstruieren können.

Wenn Bots zurückschlagen: KI-Agenten, Verleumdung und die Konstruktion digitaler Identität

Der Fall Shambaugh zeigt, wie ein KI-Agent den Ruf einer Person schädigen kann, und wirft damit neue rechtliche Fragen auf.

Das Bild zeigt den orangenen Ring eines Basketballkorbs vor blauem Himmel, symbolisch für den Human in the Loop in der Kreditvergabe.

Der Human in the Loop bei der automatisierten Kreditvergabe – Menschliche Expertise für größere Fairness

Wie fair sind automatisierte Kreditentscheidungen? Wann ist menschliche Expertise unverzichtbar?