Zum Inhalt springen
Privatheit | HIIG Science Blog
26 August 2019

Gefährdete Privatheit in der digitalen Gesellschaft


In seinem neuen Buch unternimmt Armin Nassehi den Versuch, die Digitaltechnik in der Struktur der modernen Gesellschaft selbst zu fundieren. Er entwickelt die These, dass bestimmte gesellschaftliche Regelmäßigkeiten, Strukturen und Muster das Material bilden, aus dem die Digitalisierung erst ihr ökonomisches, politisches und wissenschaftliches Potenzial schöpft. Infolge der Digitalisierung wird die Gesellschaft heute also regelrecht neu entdeckt. Im vorliegenden Auszug diskutiert Nassehi den Privatheitsbegriff im Bezug auf Big Data und informelle Selbstbestimmung.


Wenn es stimmt, dass soziale Medien nur ein Anlass für das Detektieren, Speichern, Rekombinieren und Auswerten von individuell erzeugten Daten sind, und wenn es weiterhin stimmt, dass sich aufgrund der Registrierung der meisten Alltagspraktiken in unterschiedlichsten Datensätzen tatsächlich ein weltweites Netz von Daten herausbildet, dann hat das erhebliche Konsequenzen für die Frage nach dem Schutz der individuellen Daten. Man kann mit Fug und Recht sagen, dass die Bundesrepublik zu den sensibelsten Ländern gehört, was das Recht auf informationelle Selbstbestimmung angeht. Das weltweit erste Datenschutzgesetz ist tatsächlich 1970 in Hessen erlassen worden. Der Impetus rechtlichen Datenschutzes stammt aus der klassischen Diskussion um die Schutzrechte des Individuums dem Staat gegenüber. Datenschutz soll staatliche Instanzen daran hindern, personenbezogene Daten zu unangemessenen Zwecken zu verwenden. Es ist gewissermaßen ein Derivat des Grundsatzes der Unverletzlichkeit der Wohnung, der Meinungsfreiheit und des Rechts auf Privatsphäre. [1]

Unter Bedingungen der Digitalisierung stellt sich die Frage des Datenschutzes neu und anders, denn es sind nun nicht mehr nur staatliche Akteure, die von personenbezogenen Daten profitieren, sondern Akteure ganz unterschiedlichen Typs. Schon der Anwender eines handelsüblichen Textverarbeitungsprogramms, das seine Dateien in einer Cloud verwaltet, lagert personenbezogene Daten / Dateien aus und darf diese nicht verwenden. Mobilfunkanbieter verfügen über fast flächendeckende Informationen über den Sprach- und Datenverkehr, und jedes handelsübliche Smartphone mit GPS-Technik ist technisch gesehen etwas Ähnliches wie eine elektronische Fußfessel und Detektor für Bewegungsprofile – und mit entsprechenden Zusatzgeräten womöglich sogar für die Herzfrequenz und das Blutzuckerprofil seines Anwenders, von Zahlungsverkehr, Detektieren von maschinenlesbaren Autonummern oder Gesichtserkennung auf öffentlichen Plätzen ganz zu schweigen. Selbstverständlich bedeutet das keineswegs, dass diese anfallenden Daten für jedermann zu jedem Zweck verfügbar sind. Das ist in der Tat rechtlich beschränkt und Gegenstand politischer Debatten, wobei die Varianz in der Frage der Zugriffsmöglichkeiten international enorm variiert. Üblicherweise wird an dieser Stelle der Diskussion etwa auf das chinesische Punktemodell hingewiesen, das geradezu eine Totalkontrolle der Privatperson durch staatliche Tugendwächter erlaubt. [2]
Es ist freilich kein Zufall, dass dies in einem eher autoritären Politikmodell wie dem chinesischen eher erwartbar ist als in liberalen Demokratien. Aber prinzipiell sind die Möglichkeiten gegeben.

Nassehi zur Frage, für welches Problem Digitalisierung die Lösung ist.

Die Unwahrscheinlichkeit informationeller Selbstbestimmung

Hier soll nun nicht die rechtliche und die politische Frage des Datenschutzes diskutiert werden – die Literatur dazu ist Legion. Hingewiesen sei auf etwas anderes: auf den Zielkonfl ikt zwischen privacy
policies und der Abhängigkeit vieler Geschäftsmodelle von der Verfügung über entsprechende Datensätze, die sich eben nicht nur für den statistischen homme moyen interessieren, sondern für den ansprechbaren Fall, dessen Ansprache sich aus der Mustererkennung aggregierter Daten vieler Fälle ergibt.

Der Zielkonflikt besteht auch darin, dass manche Technik nur funktioniert, wenn personenbezogene Daten zur Verfügung stehen – selbst wenn das konkrete Individuum etwa als potentieller Kunde, als Nutzer sozialer Netzwerke oder als Wählerin oder Wähler gar nicht in persona ermittelt wird, sondern als Element eines Clusters. Das Individuum ist dann zumeist gar nicht Mitglied einer sozialen Gruppe, sondern nur einer statistischen Gruppe – darin aber im Zweifels- (und im Wissens-)Fall individuell ansprechbar und identifizierbar. Damit lässt sich vieles machen, auch Illegales und im Hinblick aufKontrollmöglichkeiten Bedenkliches. Die schöne Formel von Dirk Baecker, die Buchwelt der Lesepublika habe an einem Kritiküberschuss laboriert, während die digitale Welt an einem Kontrollüberschuss laboriere, findet hier einen beredten Ausdruck. [3] Es ergeben sich hier Möglichkeiten, was den Blick auf Selektivitäten verändert. Wenn man sich daran erinnert, welche Proteste Volkszählungen in Deutschland in den 1980er Jahren noch ausgelöst haben, wird daran die Veränderung der Ausgangslage deutlich. Das eigene Smartphone anzuschalten, erzeugt mehr personenbezogene Daten, als es die Volkszählung vermochte. Man stelle sich vor, die Zähler hätten damals solche Dinge abgefragt, die nun gewissermaßen von selbst anfallen.

Ich diskutiere das hier nicht weiter, nicht weil es nicht legitime und notwendige Fragestellungen wären, sondern weil es nicht mein Thema ist. Was mich eher interessiert, ist der epistemologische und der soziologische Aspekt der Frage nach privacy. Zunächst lohnt es sich, dem Begriff der informationellen Selbstbestimmung einige Aufmerksamkeit zu widmen. Der Begriff enthält eine contradictio in adiecto, denn eine Selbstbestimmung gerade im Hinblick auf Informationen kann es schon aus kategorialen Gründen nicht geben. Information ist ein Beobachtungskorrelat. Ob etwas als Information taugt oder registriert wird, liegt im Auge des Rezipienten, nicht in dem Beobachteten. Wenn man es so formulieren will: Informationen über die Umwelt werden im System gebildet. Oder so: Das Beobachtete wird durch den Beobachter erzeugt. Ich verweise auf meine Ausführungen über die Verdoppelung der Welt. Informationelle Selbstbestimmung ist also eine Zielgröße, die gerade unter Bedingungen komplexer Beobachtungsverhältnisse nachgerade unmöglich ist.

Epistemologisch ist privacy also letztlich ausgeschlossen – diskutieren könnte man eher so etwas wie eine Kontrolle über die eigenen Daten. Aber auch hier stellen sich kategoriale Fragen, denn Daten fallen in einem modernen vernetzten Alltag ohnehin an. Die Frage ist dann wiederum, für wen diese welchen Unterschied machen, vulgo: worüber sie informieren. Denkt man an die breit diskutierte Datenschutzgrundverordnung (DSGVO), die 2018 europäisches Recht in der Bundesrepublik umgesetzt hat, so changiert sowohl die Diskussion dazu als auch die operative Frage selbst zwischen einer tatsächlichen Kontrolle der Daten und der rechtlichen Figur der Zustimmung. Die DSGVO sowie das gesamte Datenschutzrecht versuchen sich tatsächlich an einer rechtlichen Regulierung von Datenflüssen, können aber genau besehen eben nur das, was das Recht vermag: normative Erwartungssicherheit herstellen. Etwa Dienste von Anbietern als Kunde in Anspruch zu nehmen, wird nun durch eine mehr oder weniger generelle Zustimmung mit einer kurzen Handlungshemmung versehen, wobei die Zustimmung selbst dann umso deutlicher dafür sorgt, dass Daten legale Mittel der Beförderung von Wertschöpfungsketten nicht nur geldwerter Natur sind. Handlungshemmungen, so formulierte es der amerikanische Soziologe George Herbert Mead in seiner Handlungstheorie schon vor einhundert Jahren, sind diejenigen Stellen im Handlungsprozess, an denen sich eine konkrete Praxis nicht einfach entfaltet, sondern gehemmt wird. Eine Handlungshemmung tritt nur dort auf, wo es zu Anpassungs-, Entscheidungs- oder Justierungsfragen kommt. Der größte Teil unseres Alltagshandelns kommt ohne Handlungshemmungen aus – es geschieht sehr routiniert, was geschieht. In der Soziologie nennt sich solches Handeln Praxis. [4] Erst wo die Praxis unterbrochen wird, kommt es zur expliziten Beteiligung des Bewusstseins, besser müsste man sagen: der Bewusstheit. Dann wird es nötig, dass man sich Handlungsfolgen vorstellt, dass man explizit einschätzt, wie Alter Ego reagiert, oder dass man räsonieren muss, was zu tun sei. Bewusstsein ist, so Meads wunderbare Formulierung, nicht die Voraussetzung, sondern die Folge des Handelns. [5]


Dieser Beitrag ist ein Auszug aus Armin Nassehis neuem Buch “Muster. Theorie der digitalen Gesellschaft” und wurde mit freundlicher Genehmigung des C.H. Beck Verlages veröffentlicht. Das Buch erscheint am 28. August 2019. Unter dem Link ist eine umfangreichere Leseprobe zu finden.


Armin Nassehi ist Inhaber des Lehrstuhls für Allgemeine Soziologie und Gesellschaftstheorie an der Ludwig-Maximilians-Universität München und seit 2012 Herausgeber der Kulturzeitschrift Kursbuch. 2018 wurde er von der Deutschen Gesellschaft für Soziologie mit dem Preis für „Herausragende Leistungen auf dem Gebiet der öffentlichen Wirksamkeit der Soziologie“ ausgezeichnet.


Quellen- und Literaturnachweis

[1] Vgl. Ronald Petrlic und Christoph Sorge: Datenschutz: Einführung in technischen Datenschutz, Datenschutzrecht und angewandte Kryptographie, Wiesbaden: Springer Vieweg 2017, S. 139 ff.
[2] Andreas Landwehr: China schafft digitales Punktesystem für den «besseren» Menschen, in: heise online 93 /2018. URL: https://www.heise.de/newsticker/meldung/China-schafft-digitales-Punktesystem-fuer-den-besseren-Menschen-3983746.html
[3] Vgl. Dirk Baecker: Studien zur nächsten Gesellschaft, Frankfurt/M.: Suhrkamp 2007, S. 140
[4] Vgl. Dazu Armin Nassehi: Der soziologische Diskurs der Moderne, Frankfurt/M.: 2009, S. 133 ff . Der locus classicus für die praxistheoretische Grundlegung der Handlungstheorie ist Theodore Schatzki: The Site of the Social. A Philosophical Account of the Constitution of Social Life and Change, University Park: The Pennsylvania State UP 2002.
[5] Vgl. George Herbert Mead: Geist, Identität und Gesellschaft. Aus der Sicht des Sozialbehaviorismus, 7. Aufl ., Frankfurt/M.: Suhrkamp 1988, S. 56.

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Armin Nassehi

Aktuelle HIIG-Aktivitäten entdecken

Forschungsthemen im Fokus

Das HIIG beschäftigt sich mit spannenden Themen. Erfahren Sie mehr über unsere interdisziplinäre Pionierarbeit im öffentlichen Diskurs.

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Weitere Artikel

2 Quechuas, die auf einer grünen Wiese sitzen und im Sonnenlicht auf ihre Smartphones schauen, was folgendes symbolisiert: Was sind indigene Perspektiven der Digitalisierung? Die Quechuas in Peru zeigen Offenheit für die Anforderungen an das Wachstum ihrer digitalen Wirtschaft.

Digitalisierung erkunden: Indigene Perspektiven aus Puno, Peru

Was sind indigene Perspektiven der Digitalisierung? Die Quechuas in Peru zeigen Offenheit für die Anforderungen an das Wachstum ihrer digitalen Wirtschaft.

eine mehrfarbige Baumlandschaft von oben, die eine bunte digitale Publikationslandschaft symbolisiert

Diamond OA: Für eine bunte, digitale Publikationslandschaft

Der Blogpost macht auf neue finanzielle Fallstricke in der Open-Access-Transformation aufmerksam und schlägt eine gemeinschaftliche Finanzierungsstruktur für Diamond OA in Deutschland vor.

ein Haufen zusammengeknüllter Zeitungen, die Desinformation im Netz repräsentieren

Desinformation: Überschätzen wir uns wirklich selbst?

Wie bewusst sind wir im Umgang mit Desinformation im Internet und vermittelt der öffentliche Diskurs ein ausgewogenes Bild der Reichweite von Desinformationen?