Zum Inhalt springen
Datensparsamkeit
16 Februar 2015

Von der Tugend der Datensparsamkeit

Im deutschen Datenschutzrecht ist festgelegt, dass es „an dem Ziel auszurichten [ist], so wenig personenbezogene Daten wie möglich zu erheben, zu verarbeiten oder zu nutzen“ (§ 3a S. 1 BDSG). Dieser rechtliche Programmsatz ist Ausfluss des Grundsatzes der Datensparsamkeit.

Die Vorschrift bezweckt, dass nur die für die jeweilige Aufgabe nötigsten personenbezogenen Daten verarbeitet werden dürfen. Zum Telos der Norm gehört auch, Gefahren eines Missbrauchs von Daten dadurch zu begegnen, dass präventiv auf Datenvermeidung gesetzt wird. Dieses Gebot der Datenminimierung fand auch Niederschlag in der geplanten europäischen Datenschutz-Grundverordnung.1

Ist dieses Prinzip im Allgemeinen noch sinnvoll? Ja und nein. Denn es kann natürlich zum einen vor den Gefahren durch informationellen Machtmissbrauch schützen. Zum anderen kann es mit der Big Data-Brille betrachtet auch schädlich sein, mit Daten sparsam zu sein. Daten sind ein wichtiger Rohstoff für Fortschritt in der Informations- und Wissensgesellschaft. Big Data lebt gerade davon, dass nicht mit den Daten gespart wird. Je größer die Menge der Daten, desto größer das Analysepotential.

Eine neue Regulierung muss vielmehr ansetzen beim Schutz vor dem Missbrauch von Daten. Diskutiert werden müssen etwa Fragen, wie sich Daten besser pseudonymisieren lassen, wie vor Diskriminierung auf Grundlage von Daten geschützt werden kann und wie damit umzugehen ist, wenn Daten zweckwidrig verwendet werden.

Zwar bedeutet die Datenflut nicht immer ein Mehr an Wissen. Vielmehr bedingt ein Mehr an Wissen gleichzeitig ein Mehr an Nichtwissen und Ungewissheit. Der Umgang mit Daten in der digitalen Gesellschaft sollte aber nicht auf dem Grundgedanken von Datensparsamkeit beruhen. Wichtiger ist es in einer digitalen Gesellschaft, bei der Komplexität des Menschen mit seinen Motiven und seinem Kontext anzusetzen.

Big data calls for big judgement, not for Datensparsamkeit.


1 Entwurf eines Berichts über dem Vorschlag für eine Datenschutz-Grundverordnung, Ausschuss für bürgerliche Freiheiten, Justiz und Inneres, 2012/0011 (COD) v. 17.12.2012, Änderungsantrag 93, Seite 73.

Foto: data.path von r2hox, CC BY-SA 2.0

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Hannfried Leisterer, Dr.

Former associate doctoral Researcher: Global Constitutionalism and the Internet

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Plattform Governance

In unserer Forschung zur Plattform Governance untersuchen wir, wie unternehmerische Ziele und gesellschaftliche Werte auf Online-Plattformen miteinander in Einklang gebracht werden können.

Weitere Artikel

Das Foto zeigt einen Arbeiter, der eine blaue Glasfassade reinigt. Es steht symbolisch für Transparenz und das Hinterfragen von Annahmen über Desinformation.

Annahmen über Desinformation: Was wir zu wissen glauben und was wir wirklich wissen

Was steckt hinter Annahmen über Desinformation? Dieser Artikel räumt mit Missverständnissen auf und zeigt, warum es mehr Forschung braucht.

Das Foto zeigt eine Nahaufnahme eines leuchtenden roten „STOP“-Signals vor unscharfem Stadthintergrund. Das ist ein visuelles Zeichen für „Nein zu KI“ und die wachsende Resistenz gegen undemokratische Machtstrukturen in der Entwicklung Künstlicher Intelligenz.

Nein zu KI: Wer widersetzt sich und warum?

Dieser Artikel zeigt: „Nein" zu KI sagen, heißt nicht, Technologie grundsätzlich abzulehnen. Es ist ein Weg, Macht zu hinterfragen und demokratische Teilhabe einzufordern.

Das Foto zeigt stark vergrößert das innere Gewinde eines Schneckenhauses. Es symbolisiert die Herausforderungen bei der Bemessung der Ökobilanz von KI über den gesamten Lebenszyklus.

Blindspot Nachhaltigkeit: Die Ökobilanz von KI messbar machen

Die Ökobilanz von KI bleibt ein blinder Fleck: Entlang des gesamten Lebenszyklus fehlen belastbare Daten und Transparenz. Wie kann sich das ändern?