Zum Inhalt springen
Bild zeigt Mülltonnen
08 August 2022

Algorithmische Inhaltemoderation – Was kann bleiben, was muss weg?

Automatisiertes Löschen in den sozialen Netzwerken gefährdet die Meinungsfreiheit. Deshalb müssen für die sogenannte algorithmischen Inhaltemoderation (eng: Content Moderation) ein paar Regeln gelten. Das Forschungsprojekt “Ethik der Digitalisierung” hat erarbeitet, welche das sein könnten.

Ein Gastbeitrag von Alexandra Borchardt.

Darf Donald Trump twittern? Soll das Staatsmedium Russia Today auf Facebook, Instagram und YouTube Kriegs-Propaganda verbreiten dürfen? Lange Zeit haben sich die Verantwortlichen der großen Plattform-Konzerne wie Facebook/Meta oder Google, die soziale Netzwerke betreiben, um diese und ähnliche Fragen herumgedrückt. Das geschah nicht nur aus Ignoranz oder dem naiven Glauben, dass mehr Meinung im Netz automatisch Vielfalt garantiert. Sie wollten vor allem Geld verdienen und vertrauten auf eine einfach Gleichung: mehr Rede = mehr Geld. Außerdem wollten sie im öffentlichen Diskurs keine Polizei-Funktion übernehmen. Aber je angespannter das politische Klima wird, je lauter die Diskussion um Hass, Hetze, Gewalt und Lügen im Netz werden, desto stärker bröckelte der Widerstand. Ganz freiwillig geschah das nicht immer. Gesetze wie das deutsche Netzwerkdurchsetzungsgesetz erhöhten den Druck. Es droht Plattformen wie Facebook oder YouTube Strafen an, wenn sie bestimmte Inhalte nicht schnell entfernen und verpflichtet die Plattformen zu mehr Transparenz. Aber spätestens beim Sturm auf das US-Parlamentsgebäude am 6. Januar 2021 wurde wohl auch vielen Zweiflern in den Konzernetagen klar: Heraushalten ist bei derartigen Aufrufen zur Gewalt keine Option. Hass im Netz kann die Demokratie gefährden.  

Warum löschen Maschinen oft systematisch die falschen Inhalte?

Heute lassen die Konzerne systematisch das löschen, was gegen ihre internen Regeln verstößt und was Gesetze verletzt. Systematisch heißt, sie überlassen das Löschen und Deamplifizieren, also Verstecken, zunächst einmal Maschinen. Automatisierte Moderationsprogramme, die teils selbst dazu lernen, , entscheiden: Das kann bleiben, das muss weg. Der Fachbegriff dafür lautet Automated Content Moderation.

Doch Software ist nicht so schlau wie viele glauben, ja womöglich sogar befürchten. Sie kann Inhalte nur gegen vorher Bekanntes abgleichen, nicht aber in Zusammenhänge setzen, vor allem, wenn es um kulturelle Eigenheiten oder um Humor geht. Zum Beispiel kann ein Bild in einem Land die Kunstszene begeistern, während es in einem anderen als pornographisch gilt. Die Algorithmen der Plattformen sind nur in wenigen Sprachen wirklich gut trainiert, denn die meisten Plattform-Konzerne haben ihren Sitz in den USA. Und sie kann bestimmte Formate oft schlecht interpretieren, zum Beispiel visuelle Symbole wie Memes und GIFs. Deshalb geht das Löschen oft schief: Posts, die klar gegen Gesetze verstoßen, bleiben stehen, dafür werden harmlose oder sogar wichtige Äußerungen getilgt. Dies wiederum gefährdet die Meinungsfreiheit. Was muss geschehen, damit die sozialen Netzwerke weiterhin zentrale Foren für öffentliche Debatten und Informationsvermittlung bleiben können, ohne Propagandist*innen eine Plattform zu bieten?

Wissenschaftliche Auseinandersetzung mit Inhaltemoderation

Mit dieser Frage beschäftigen sich zivilgesellschaftliche Organisationen, die die Santa Clara Prinzipien zur Content Moderation herausgearbeitet haben und in besonderem Maße die EU mit ihrem Rechtsakt über digitale Dienste.. Um gut regulieren zu können, ist aber auch die Wissenschaft gefragt. Im Forschungsprojekt „Ethik der Digitalisierung“, das unter der Schirmherrschaft von Bundespräsident Frank-Walter Steinmeier von Internet-Instituten weltweit unterstützt und der Mercator-Stiftung finanziert wird, haben sich 13 Forscher*innen verschiedener Disziplinen aus neun Ländern in sieben Zeitzonen intensiv mit dem Thema „Automated Content Moderation“ beschäftigt. Im Zeitraum von August bis Oktober 2020 analysierten sie – beraten von Mentor*innen – die Lage in so genannten Research Sprints. Federführend war bei diesem Projekt das Humboldt Institut für Internet und Gesellschaft in Berlin. Herausgekommen sind Empfehlungen an die Politik.

Ohne Menschen als Kontrollinstanz geht nichts

Die Forscher*innen gingen von mehreren Annahmen aus. Erstens, in den Kommunikationskanälen des Internets übernehmen Algorithmen das Sichten und Entfernen von Inhalten. Das wird so bleiben, denn allein wegen des hohen Volumens ist alles andere undenkbar. Zweitens, es bestehen große Wissenslücken bei allen Beteiligten darüber, wie diese Algorithmen arbeiten und lernen. Dies macht es besonders schwer, eine geeignete und wirksame Regulierung zu entwickeln. Drittens, bislang ist häufig unklar, wer in der Welt der digitalen Informationskanäle die Verantwortung trägt und im Zweifel nicht nur handeln muss sondern auch haftet. Und viertens, Software wird Inhalte niemals perfekt sortieren können. Damit sind Grundrechte bedroht, vor allem die Meinungsäußerungsfreiheit. Die Politik wird darauf keine perfekten Antworten finden können, denn bei Inhalten kommt es in den allermeisten Fällen auf den Zusammenhang an. Ein Zitat, ein Filmausschnitt, ein Bild können sehr verschieden interpretiert werden, je nachdem, von wem und unter welcher Überschrift sie wo gepostet werden.

Expert*innen raten zur Vorsicht, wenn Staaten beginnen, neben illegalen Inhalten auch  solche entfernen zu lassen, die als „problematisch“ oder „schädlich“ eingestuft werden können. Denn solche vagen Kategorien öffnen die Tore für Zensur weit. Allerdings wird es kaum eine Software geben, die jederzeit und überall die Gesetzeslage richtig einordnet. Ohne Menschen als Kontrollinstanz geht deshalb gar nichts. In ihren Vorschlägen haben die Wissenschaftler*innen des Ethik-Projekts ein paar Grundsätze entwickelt, die allen Beteiligten Richtschnur sein könnten, also nicht nur Regierungen und Parlamentarier*innen, sondern auch den Plattform-Konzernen.

Wir brauchen Fakten und die Möglichkeit, uns zur Wehr zu setzen

Zunächst einmal geht es um weitreichende Transparenz. Diese Forderung richtet sich an die Plattform-Konzerne einerseits und die Regulierer andererseits. Google, Facebook und Co. sollten dazu verpflichtet werden offenzulegen, wie ihre Systeme funktionieren und regelmäßig nachzuweisen, dass sie Grundrechte wie Meinungsfreiheit und Privatsphäre wahren. Diese Forderung wird vom Rechtsakt über digitale Dienste weitgehend aufgenommen. Die Gesetzgeber*innen hingegen sollten vor allem ihre Absichten offenlegen, sie begründen und Verlässlichkeit bieten. Wenn reguliert wird, dann sollte jeder wissen wie, mit welchem Ziel und mit welchen Ergebnissen. Regeln sollten auf Erkenntnissen aus der Forschung basieren und flexibel an neue technische Entwicklungen angepasst werden können. Dafür ist eine breite gesellschaftliche Debatte darüber nötig, wie Inhalte sortiert und automatisch gefiltert werden sollten.

Derzeit optimieren die Algorithmen der Plattform-Konzerne Inhalte weitgehend nach deren Chancen, damit Aufmerksamkeit zu erregen. Dahinter steckt ein von Anzeigen getriebenes Geschäftsmodell, das auf Blicke angewiesen ist – die sogenannte „battle for the eyeballs“. Damit laden die Unternehmen automatisch dazu ein, dass allerlei Unfug prominent verbreitet wird, den man dann nach illegalen Inhalten durchsuchen muss. Möglich wäre aber auch eine Positiv-Auswahl: Algorithmen könnten solche Beiträge und Informationen bevorzugt behandeln, die auf Faktentreue geprüft wurden oder von als seriös zertifizierten Quellen stammen. Für so etwas macht sich zum Beispiel die Journalism Trust Initiative der Organisation Reporter ohne Grenzen stark, die damit dem Qualitätsjournalismus zu mehr Sichtbarkeit verhelfen will. Anderes, was einer konstruktiven Debatte weniger dienlich ist, wandert dann automatisch weiter nach unten und wird kaum noch sichtbar.

Weil Maschinen und Menschen aber zwangsläufig Fehler machen, reicht es nicht, Inhalte nach dem Ausstoß zu sortieren. Bürger*innen und Institutionen müssen auch einfache, schnelle und unbürokratische Möglichkeiten bekommen, zu ihrem Recht zu kommen, wenn sie sich ungerecht behandelt fühlen, also ohne erkennbaren Grund geblockt oder zensiert wurden. Plattform-Konzerne sollten dazu verpflichtet werden, solche Strukturen zu schaffen, zum Beispiel Einspruchsmöglichkeiten mit ein paar Klicks. Die Forscher*innen empfehlen, als letzte Instanz eine unabhängige Ombudsperson, oder einen Plattformbeirat, zu berufen, die in Streitfragen schlichtet und für alle Parteien bindend entscheiden kann. Darüber hinaus steht natürlich immer der Gang zu den nationalen und internationalen Gerichten offen.

Wer kontrolliert eigentlich die Algorithmen, die mich kontrollieren?

Darüber hinaus schlugen die Wissenschaftler*innen vor, die Algorithmen selbst einer regelmäßigen Kontrolle zu unterziehen und dazu Audits zu etablieren, also eine Art Algorithmen-TÜV. Diese Audits sollen unter anderem sicherstellen, dass die Rechenformeln gesetzeskonform sind, also zum Beispiel nicht diskriminieren. Das passiert schnell, denn Künstliche Intelligenz „lernt“, was sich am besten durchsetzt. Wenn man diese Algorithmen nicht im Blick behält und regelmäßigen Prüfungen unterzieht, werden Stereotype nicht nur fortgeführt, sondern unter Umständen auch verstärkt. In den vergangenen Jahren hat es eine wachsende gesellschaftliche Debatte darüber gegeben, was Algorithmen können müssen und wozu sie eingesetzt werden. Ging es zunächst vor allem darum, Aufgaben mit größtmöglicher Effizienz zu lösen – zum Beispiel bei der Vergabe von Krediten, Auswahl von Bewerbern oder Personalisierung von Inhalten – spielen jetzt Werte eine zunehmend wichtige Rolle. Es wird mittlerweile als zentral angesehen, von Beginn an zu definieren, welche Ziele automatisierte Selektionen erreichen sollen und zu überprüfen, ob sie auch erreicht werden.     

Einen solchen „TÜV“ durchzusetzen, wird allerdings eine Herausforderung, denn Algorithmen sind die modernen Coca-Cola-Formeln: Die Plattform-Konzerne betrachten sie als Geschäftsgeheimnisse, sie wollen sich beim Optimieren ihrer Sortier-Software weder in die Karten schauen lassen noch deren Steuerung aus der Hand geben. Dies finden Kritiker*innen inakzeptabel. Handelt es sich doch um mächtige Instrumente, die öffentliche Debatten beeinflussen und womöglich lebensentscheidende Information nicht ausreichend breit verteilen. Die Forscher*innen haben deshalb vier Grundprinzipien für solche Audits aufgestellt: Unabhängigkeit der Prüfenden, Zugang zu Daten, Öffentlichkeit der Ergebnisse und ausreichende Ressourcen.

Wer kümmert sich jetzt um meine eigene Meinungsfreiheit: Staat, Industrie oder Zivilgesellschaft? 

Ganz neu wären Audits nicht. Im europäischen Recht gibt es das Instrument schon, zum Beispiel im Datenschutz-Paket GDPR, wo „data protection audits“ als eine Kontrollmöglichkeit festgeschrieben sind. Eine weitere Möglichkeit wären öffentliche Register für Algorithmen, mit denen offengelegt werden soll, auf welcher Grundlage automatisierte Entscheidungen getroffen werden. In Europa wird dieses Instrument derzeit von Behörden in Amsterdam, Helsinki und Nantes getestet. Es ist auch vorstellbar, solche Register für die Privatwirtschaft einzurichten.

Die Forscher*innen räumen aber ein, dass solche eine Regulierung auch Türen für Missbrauch öffnen kann. Regierungen können sie als Vorwand nutzen, Privatsphäre einzuschränken, abweichende Meinungen zu unterdrücken oder Menschen an der Ausübung anderer Grundrechte zu hindern, wie dies zum Beispiel in Russland geschehe. „Wie jede Regulierung müssten Audits umsichtig etabliert werden, um vor Missbrauch, falscher Nutzung, Politisierung und unverhältnismäßigen Eingriffen zu schützen“, schreibt das Team. Die entsprechenden Prozesse müssten also so eingerichtet werden, dass sich weder allein die Staaten noch die Industrie ihrer bemächtigen können, entweder, weil beide gleiche Stimmrechte haben, oder Akteure der Zivilgesellschaft mit einbezogen werden.

Unternehmen sollten Daten zur Verfügung stellen

In einer Welt, die sich – nicht nur, aber auch durch technologische Entwicklungen – rasant wandelt, ist es ohnehin wichtig, alle Akteur*innen und Gruppen in politische Prozesse einzubeziehen, die Wissen und Erfahrungen beisteuern können. Langwierige, hierarchisch gesteuerte Entscheidungsprozesse werden dynamischen Entwicklungen nicht gerecht. Gebraucht werden Flexibilität und Anpassungsfähigkeit. Politische Entscheidungen über algorithmische Inhaltemoderation zu machen, ähnelt zunehmend Operationen am offenen Herzen. Mehr denn je kommt es darauf an, die Wege zwischen Aktion und Wirkung durch praxisorientierte Forschung zu verkürzen. Dazu brauchen Wissenschaftler*innen aber Zugang zu Daten. An diesen mangelt es wahrlich nicht, wohl aber an der Bereitschaft einflussreicher Unternehmen, diese auch zur Verfügung zu stellen. In einer auf Wissen und Fakten bauenden Gesellschaft kann man Erkenntnisse gar nicht schnell genug teilen. Alle sind aufgerufen, dazu beizutragen.

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Aktuelle HIIG-Aktivitäten entdecken

Forschungsthemen im Fokus

Das HIIG beschäftigt sich mit spannenden Themen. Erfahren Sie mehr über unsere interdisziplinäre Pionierarbeit im öffentlichen Diskurs.

Weitere Artikel

Ein moderner U-Bahnhof mit Rolltreppen, die zu den Plattformen führen – ein Sinnbild für den geregelten Zugang zu Daten, wie ihn Zugangsrechte im NetzDG und DSA ermöglichen.

Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?

Neue Digitalgesetze gewähren Forschenden Zugangsrechte zu Plattformdaten, doch strikte Vorgaben werfen Fragen zur Wissenschaftsfreiheit auf.

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.