Zum Inhalt springen
Christoph Sorge
Professor, Saarland University (Chair of Legal Informatics), Saarbrücken, Germany
30 August 2021| doi: 10.5281/zenodo.5243288

Mythos: Bei KI-Modellen handelt es sich um Abstraktionen, die keine personenbezogenen Daten benötigen

Beim überwachten maschinellen Lernen sind die eingesetzten Modelle Abstraktionen der Trainingsdaten. Während diese Modelle strukturelle Informationen enthalten müssen, sollten sie jedoch nicht zu genau an die Trainingsdaten angepasst werden. Es wäre demnach folgerichtig, sie im Wesentlichen als anonyme Modelle zu betrachten. Allerdings hat die Forschung gezeigt, dass diese Annahme in einigen Fällen falsch ist. Daher müssen auch bei der Entwicklung und dem Einsatz von KI-Modellen datenschutzrechtliche Überlegungen eine Rolle spielen.

Mythos

KI-Modelle sind Abstraktionen, die keine personenbezogenen Daten benötigen.

 

KI-Modelle sind Abstraktionen, die personenbezogene Daten beinhalten können – aber nicht müssen. Deswegen muss das Datenschutzrecht hierbei immer berücksichtigt werden.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Shokri, R., Stronati, M., Song, C. & Shmatikov, V. (2016). Membership Inference Attacks Against Machine Learning Models.

Al-Rubaie, M. & Chang, J. M. (2019). Privacy-Preserving Machine Learning: Threats and Solutions. EEE Security & Privacy, 17(2), 49-58.

Liu, B., Ding, M., Shaham, S., Rahayu, W., Farokhi, F. & Lin, Z. (2021). When Machine Learning Meets Privacy: A Survey and Outlook. ACM Computing Surveys, 54(2), 1-36.

Über die Autorinnen

Foto: Oliver Dietze

Christoph Sorge

Professor, Universität des Saarlandes (Lehrstuhl für Rechtsinformatik), Saarbrücken, Deutschland

Christoph Sorge promovierte in Informatik am Karlsruher Institut für Technologie. Anschließend arbeitete er als Forscher bei NEC Laboratories Europe, in der Network Research Division. Ab 2010 war Christoph Sorge als Juniorprofessor für Netzwerksicherheit an der Universität Paderborn tätig. Im Jahr 2014 wechselte er an die Universität des Saarlandes, wo er nun eine ordentliche Professur für Rechtsinformatik innehat. Während er in erster Linie der juristischen Fakultät angehört, ist er auch kooptierter Professor für Informatik. Er ist assoziiertes Mitglied des CISPA – Helmholtz-Zentrums für Informationssicherheit, Senior Fellow des Deutschen Forschungsinstituts für öffentliche Verwaltung und Vorstandsmitglied der Deutschen Gesellschaft für Informatik in der Justiz. Sein Forschungsgebiet ist die Schnittstelle zwischen Informatik und Recht, mit einem Schwerpunkt auf dem Datenschutz.

@legalinf

Dieser Beitrag spiegelt die Meinung der Autor*innen und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Eine farbenfrohe digitale Collage zeigt eine pixelige, fragmentierte menschliche Figur, verteilt über mehrere Bildschirme. Sie steht symbolisch für die unsichtbare Arbeit und globalen Ungleichheiten hinter der Content Moderation.

Inside Content Moderation: Mensch, Maschine und unsichtbare Arbeit

Wie lässt sich die Arbeitsteilung zwischen Algorithmen und menschlichen Moderator*innen bei der Inhaltemoderation auf Plattformen kritisch analysieren?

Das Foto zeigt einen Schaffner mit Warnweste und orangenem Irokesenhaarschnitt, der den Zugverkehr regelt. Er steht sinnbildlich für nationale Strategien für Plattformalternativen.

Jenseits von Big Tech: Nationale Strategien für Plattformalternativen

Länder wie China, Russland und Indien entwickeln Plattformalternativen, um ihre digitale Unabhängigkeit zu stärken. Was kann Europa von ihnen lernen?

Das Foto zeigt einen halbtransparenten Glasboden, auf dem nur Fußabdrücke zu sehen sind. Das symbolisiert teilweise Einsicht wie die DSA-Transparenzberichte, die Spuren zeigen, aber nicht das vollständige Bild.

Rechnen ohne Rechenschaft? Eine Analyse der DSA-Transparenzberichte

Halten die DSA-Transparenzberichte, was sie versprechen? Eine Analyse der EU-Berichte großer Plattformen deckt Schwachstellen auf.