Zum Inhalt springen
Presseräte

Plattformräte: Können sie digitale Plattformen zur Verantwortung drängen?

29 September 2022

Wie können Entscheidungen und Anordnungen digitaler Plattformen wie Meta, Twitter und Co. gegenüber ihren Nutzer*innen und dem öffentlichen Interesse rechenschaftspflichtig gemacht werden? Ein aktueller Vorschlag lautet: durch mehr Partizipation. Eine Reihe von Plattformen haben begonnen, mit Plattformräten (eng: Social Media Council/SMC) zu experimentieren, um zivilgesellschaftlichen Input für die Anpassung von Plattformregeln an Menschenrechte zu erhalten. Aber funktionieren diese Räte? Und sind sie wirklich so neu? Dieser Beitrag zeigt auf, wie Plattformräte entstanden sind und welche Anreize für verantwortungsvollere Plattformregeln entscheidend sind.

Einleitung

In den letzten Jahren haben sich Plattformräte als Modell oder Ergänzung zur (Selbst-)Regulierung von Plattformen entwickelt. SMCs sind in der Regel darauf ausgelegt, die Blackbox der Unternehmensplattformen zivilgesellschaftlichen Beiträgen und öffentliche Werten zu öffnen.

Die Politik hat soziale Medien und ihren Einfluss auf die Gesellschaft lange unterschätzt (Douek, 775-6). Da Menschen, vor allem jüngere, immer mehr Zeit online verbringen, spielt die plattformbasierte Kommunikation eine immer größere Rolle bei der Gestaltung gesellschaftlicher Diskurse (Hölig/Behre/Schulz, 5-7). #metoo und #blacklivesmatter haben es ermöglicht, den Diskurs über anhaltende sexistische und rassistische Gewalt in das allgemeine öffentliche Bewusstsein zu tragen; im Gegensatz dazu untergräbt die Verbreitung von Desinformationen (wie im russisch-ukrainischen Krieg oder im US-Wahlkampf) das öffentliche Vertrauen und kann sogar in so bedrohlichen Ereignissen wie dem Angriff auf das US-Kapitol gipfeln. Zu solchen Ergebnissen tragen zusätzlich Empfehlungsalgorithmen in Social Media bei, welche beeinflussen, welche Informationen und Inhalte Menschen online sehen und welche nicht. 

Indem sie Online-Partizipation ermöglichen, haben diese Kommunikationsstrukturen zwar durchaus das Potenzial, integrative gesellschaftliche Diskurse zu unterstützen und zu erweitern. Allerdings können sie ebenso soziale Spannungen verschärfen. Im Extremfall kann Kommunikation auf Plattformen zu Menschenrechtsverletzungen führen: Verletzung der Privatsphäre durch Datenextraktion, Verstärkung von Diskriminierungstendenzen durch undurchsichtige Algorithmen, Bedrohung der körperlichen Integrität durch Hassreden. Herausforderungen für die demokratische Resilienz und den gesellschaftlichen Zusammenhalt schaffen Desinformation und Polarisierungstendenzen (z.B. Balkin, 1151 ff.; Rau/Simon). 

Wie lassen sich Plattformen besser gestalten? Sind SMCs eine wirksame Alternative zur Top-down, Command-and-Control Governance? Wie die Forschung zu Plattformräten zeigt, müssen die Anreize sorgfältig berücksichtigt werden: Warum sollte sich das Social-Media-Unternehmen an die Empfehlungen und Wertungen des Rates gebunden fühlen und in welchem Maße, angesichts seines naturgemäß primär wirtschaftlichen Interesses?

Der Aufstieg der Social Media Councils

Bei den SMCs handelt es sich um “externe Governance-Strukturen, die entweder die Aufgabe haben, Regeln zu formulieren und/oder anzuwenden oder die Auffindbarkeit oder Sichtbarkeit von Inhalten in sozialen Netzwerken zusätzlich zu den Plattformen oder an deren Stelle zu bestimmen; oder sie haben die Aufgabe, die diesbezüglichen Aktivitäten der Plattform zu überwachen” (Kettemann/Fertmann, 7). Beispiele für entsprechende Selbstregulierung in der Branche sind das bekannte Meta Oversight Board, der Twitter Trust and Safety Council, der TikTok Content Advisory Council, der European Safety Advisory Council und der Diversity and Inclusion Council, der Spotify Safety Advisory Council und der Twitch Safety Advisory Council. Dem Oversight Board von Meta wird neben seinen beratenden Funktionen eine quasi-judikative Natur zugeschrieben, indem es über ausgewählte Fälle der Inhaltsmoderation mit bindender Wirkung für Meta entscheidet (Cowls et al.). Die anderen Räte haben ausschließlich beratenden Charakter. Bislang setzen sich die Mitglieder der SMCs hauptsächlich aus Fachleuten zusammen, z. B. aus Menschenrechtsexpert*innen und Personen mit Fachkenntnissen im Plattform/Plattform-Governance-Bereich, aber auch aus Nutzer*innen wie im TikTok Creator Council.

Presseräte sind keine Neuheit

Einige Lehren lassen sich aus der Geschichte der Presseräte ziehen. Seit den 1950er Jahren sind sie auf der ganzen Welt wie Pilze aus dem Boden geschossen (Blum, 77). Diese auf Ethik ausgerichteten Institutionen bestehen aus Journalist*innen und Verleger*innen und wurden eingerichtet, um die Medien- und Pressefreiheit gegen äußere Einflüsse zu schützen und nach innen Verantwortung, Qualität und Unabhängigkeit zu sichern (Puppis, 65-6).

Der Beschwerdemechanismus des Deutschen Presserats beispielsweise ermöglicht es den Bürger*innen, bedenkliche journalistische Praktiken zu kritisieren (Puppis, 213, 215, 245-6). Seine Wirksamkeit ist jedoch zumindest fraglich: ein Beispiel ist die deutsche “Bild”-Zeitung, die bekanntlich schon viele Rügen des Presserats ignoriert hat (Klausa). Während viele Journalist*innen und Zeitschriften sich mit ihrer Arbeit dem öffentlichen Informationsinteresse verschrieben haben, ist die Textproduktion in der Presse immer noch ein wirtschaftliches Unterfangen – und damit wirtschaftlichen Interessen unterworfen: Wie lassen sich Meldungen mit möglichst geringem Aufwand für die jeweilige Zielgruppe möglichst attraktiv gestalten? Diese Anreize können naturgemäß mit öffentlichen Interessen in Konflikt geraten (McManus). Boulevardzeitungen – wie die Bild-Zeitung – werden von vielen eben nicht wegen ihrer journalistischen Sorgfalt gelesen, sondern eher zur Unterhaltung. Ein weiterer Grund sind anschließende soziale Aktivitäten des Austauschs von Geschichten und Meinungen (Johansson). Der negative Anreiz einer Rüge des Presserats ist einfach nicht stark genug, um die Einhaltung der Vorschriften zu sichern.

Mehr als Ethics-Washing?

Presseräte sind zwar selbstregulativ im Kontext der Industrie als Ganzes, aber aus Sicht der individuellen Magazine wird die Regulierung immer noch von außen auferlegt. Wäre die Wirksamkeit anders, wenn die Medien-Akteur*innen sich freiwillig verpflichten würden?

Meta hat sich öffentlich dazu verpflichtet, sich an die Entscheidungen des Oversight Board (OB) zu halten. Das Board ist dabei unabhängig und stützt seine Entscheidungen nicht nur auf die Gemeinschaftsstandards, sondern auch auf Menschenrechtsgrundsätze (Oversight Board, 5-6). Vaidhyanathan kritisiert, dass sich das OB nur mit einem kleinen Teil der Beschwerden und nicht mit den systemischen Belangen der Plattform befasst. Dennoch decken die ersten OB-Entscheidungen wichtige Aspekte ab, wie z.B. Satire vs. freie Meinungsäußerung und algorithmische Moderationspraktiken, Informationen über Löschungen und die Klarheit von Sanktionen (der berühmte Trump-Fall). Bietti (276) gibt zu bedenken, dass das OB durch seine Fokussierung auf die Moderation von Inhalten von anderen sensiblen Praktiken, wie der lukrativen Algorithmisierung des Newsfeeds, ablenkt.

In einem anderen Selbstregulierungsunterfagen machte das IT-Unternehmen IBM Transparenzzugeständnisse.  Es veröffentlichte Anti-Bias-Datensätze seiner Gesichtserkennungstechnologie (FRT) mit dem Ziel, racial profiling zu bekämpfen. Zalnieriute (143-4) bemängelt, dass über die gleichzeitig mit der Veröffentlichung verbundenen Privatsphäreverletzungen geschwiegen wurde. Selbiges Schweigen herrschte seitens IBM über deren vorangegangene essentielle Rolle bei der Entwicklung von racial profiling Technologien.

Regulierung ist chaotisch. Vor allem bei Selbstregulierung in wirtschaftlichen Kontexten treffen oft vielfältige Interessen aufeinander. Sie alle vereint ein übergeordnetes Ziel: die optimale Kosten-Nutzen-Rechnung. Unternehmensethik kollidiert mit Nutzer*innen- und kurzfristigen finanziellen Interessen. Bei Unachtsamkeit kann Ethik leicht zu “ethics-washing” werden.

Anreize sind wichtig

Plattformräte sind zwar eine recht neue Erfindung, aber die zugrunde liegende Idee ist es nicht. Selbstregulierungsvorhaben der Vergangenheit und Gegenwart, wie Presseräte, das Oversight Board und die Transparenzinitiativen von IBM, dienen als Beispiele, beim Design von SMCs präzise vorzugehen. Es gilt, oberflächliche Lösungen und ethics-washing bei der Rückbindung öffentlichen Werte in der Plattform-Governance zu vermeiden. Hierfür kann die Linse einer Kosten-Nutzen-Analyse ein geeignetes Instrument sein, um die wirtschaftlichen Anreize für die Einhaltung von Selbst- oder Ko-Regulierungsübereinkommen einschätzen zu können. Gleiches gilt für das Level an Integrität in regulativer Zusammenarbeit.

Tatsächlich ist ein solcher starker wirtschaftlicher Anreiz das Vertrauens der Öffentlichkeit. Ohne Vertrauen verlieren die Plattformen ihre Nutzer*innen und die Marktsektion breche zusammen (Cusumano et al., 1277). SMCs müssen daher so aufgebaut sein, dass sie das öffentliche Vertrauen fördern – zum Beispiel durch die Betonung rückkopplungsfähiger Designs und radikaler Transparenz.

Auch aggressive Gesetze können Wirkung zeigen

Ein anderer negativer Anreiz ist die Drohung mit aggressiver staatlicher Regulierung (id., 1278-9). Das künftige EU-Gesetz über digitale Dienste sieht bereits mehrere Koregulierungsmechanismen vor, wie vertrauenswürdige Hinweisgeber (Art. 19), Digital Services Coordinators (Art. 38) und außergerichtliche Streitbeilegungsstellen (Art. 18), aber auch harte Geldbußen von bis zu 6 % des gesamten weltweiten Jahresumsatzes (Art. 42, 59). Auch wenn dies nicht der einzige Faktor hierfür ist, korreliert die Initiierung mehrerer SMCs mit der Verschärfung der gesetzlichen Regelungen. Die Androhung strenger Durchsetzungsmaßnahmen (Geldbußen oder sogar Verbote) kann die Social Media Unternehmen dazu veranlassen, die Wirksamkeit der selbst-regulativen SMCs eigenständig zu gewährleisten.

Mit den Worten von Vaidhyanathan: “Selbstregulierung ist ein hervorragendes Mittel, um bestimmte Werte zu fördern und Kontrolle und Regulierung auf ein Minimum zu beschränken. Wenn die Selbstregulierung die Bedingungen für Verbraucher*innen, Bürger*innen oder Arbeitnehmer*innen erfolgreich verbessert, dann geschieht dies durch die Einrichtung von deliberativen Körpern, die schnell und entschlossen handeln und klare, durchsetzbare Verhaltenskodizes aufstellen können.” Um Online-Kommunikation gut zu regeln, ist es also unerlässlich, dass Unternehmen, Zivilgesellschaft und staatliche Strukturen an einem Strang ziehen.

Dieser Blogpost ist Teil des Projekts Plattform://Demokratie, in dem untersucht wird, ob und wie Plattformräte das Potenzial haben, öffentliche Werte und private Online-Organisationsstrukturen effektiv in Einklang zu bringen.

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Josefa Francke

Assoziierte Forscherin: Globaler Konstitutionalismus und das Internet

HIIG Monthly Digest

Jetzt anmelden und  die neuesten Blogartikel gesammelt per Newsletter erhalten.

Man sieht in Leuchtschrift das Wort "Ethical"

Digitale Ethik

Ob Zivilgesellschaft, Politik oder Wissenschaft – alle scheinen sich einig, dass die Neuen Zwanziger im Zeichen der Digitalisierung stehen werden. Doch wo stehen wir aktuell beim Thema digitale Ethik? Wie schaffen wir eine digitale Transformation unter Einbindung der Gesamtgesellschaft, also auch der Menschen, die entweder nicht die finanziellen Mittel oder aber auch das nötige Know-How besitzen, um von der Digitalisierung zu profitieren?  Und was bedeuten diese umfassenden Änderungen unseres Agierens für die Demokratie? In diesem Dossier wollen wir diese Fragen behandeln und Denkanstöße bieten.

Discover all 12 articles

Weitere Artikel

Digitale Demokratie braucht die Partizipation von den Nutzer*innen

Wie soll die digitale Demokratie aussehen?

Regeln für eine digitale Demokratie zu designen ist schwierig. Aktuelle Ansätze erproben Modelle, die die User*innen von Online-Plattformen mit einbeziehen. Ist es Zeit für einen digitalen Reset?

Algorithmische Inhaltemoderation – Was kann bleiben, was muss weg?

Automatisiertes Löschen in den sozialen Netzwerken gefährdet die Meinungsfreiheit. Wie könnten Regeln für die Moderation von Online-Inhalten aussehen? Autorin A. Borchardt beleuchtet einige Vorschläge.

You can see an empty platform and tracks leading around the corner, pointing the way to the future.

Die Vielfalt der europäischen Plattformökonomie

Das Forschungsteam von Platform Alternatives blickt auf zwei Jahre Forschung in der europäischen Plattformökonomie zurück und erzählt, welche Einblicke sie bisher am meisten überrascht haben.