Unsere vernetzte Welt verstehen
Von der Schwierigkeit, „fake news“ zu regulieren
Anfang 2018 kündigte Präsident Macron ein Gesetz gegen „fake news“ an. Auslöser war die Verbreitung falscher Informationen während des Wahlkampfs und die generelle Befürchtung, das Verbreiten von Falschinformationen im Netz könnte eine zunehmende Verfälschung des politischen Diskurses vorantreiben. Seit Mai 2018 liegt der Entwurf der Regierung vor und es handelt sich nun um ein Gesetz gegen „Informationsmanipulation“. Damit versucht der französische Gesetzgeber, das weiterhin diffuse Phänomen rund um den Begriff „fake news“ zu vermeiden und stattdessen an der Verbreitung von Falschinformationen anzusetzen. Amélie Heldt schafft einen Überblick zum Gesetzesvorhaben.
Die Idee hinter dem Gesetzesvorhaben
Seit seiner Wahl zum Präsidenten 2017 macht sich Emmanuel Macron für effektivere Maßnahmen gegen sogenannte „fake news“ stark. Wie bereits im Januar erläutert soll sich das neue Gesetz gegen Falschmeldungen im Netz richten, indem ein neues Eilverfahren und deutlichere Transparenzpflichten zu Wahlkampfzeiten eingeführt werden. Ähnlich wie beim deutschen Netzwerkdurchsetzungsgesetz (NetzDG) soll das neue Gesetz vor allem der Durchsetzung bereits vorhandener Gesetze dienen; in Deutschland gegen rechtswidrige Inhalte und in Frankreich gegen Falschinformationen in Wahlkampfperioden. Dort richten sich bereits zwei Gesetze gegen die Manipulation der öffentlichen Meinung durch Falschinformationen. Gemäß Art. 27 des französischen Gesetzes über die Pressefreiheit von 1881 ist „die Veröffentlichung, die Verbreitung oder die Vervielfältigung von falschen Nachrichten, von fabrizierten, verfälschten oder wahrheitswidrig Dritten zugeschriebenen Stücken, um aus unaufrichtigen Gründen den öffentlichen Frieden zu stören, oder Störpotenzial zu entwickeln“, verboten. Demjenigen, der „mithilfe von falschen Nachrichten, verleumderischen Gerüchten oder anderen betrügerischen Manövern, Wahlergebnisse durcheinanderbringt oder verfälscht, oder einen oder mehrere Wähler davon abhält zu wählen“, droht gemäß Art. 97 des französischen Wahlgesetzes eine Freiheitsstrafe von bis zu einem Jahr oder eine Geldstrafe bis zu 15.000€. Diese beiden Regelungen wurden in der Vergangenheit kaum durchgesetzt, wogegen das neue Gesetz in Zeiten digitaler Mediennutzung Abhilfe schaffen soll, indem die Verbreitung und Finanzierung von Falschinformationen via digitaler Dienste verhindert werden.
„Informationsmanipulation“ greifbarer als „fake news“?
Bisher lautete die Überschrift des Gesetzesentwurfes „loi sur les fausses informations“ also „Gesetz gegen Falschinformationen“ und bei der ersten Ankündigung Anfang 2018 fehlte der subjektive Tatbestand aus dem Gesetz über die Pressefreiheit von 1881. Dieser erste Eindruck löste Mutmaßungen über eine Erweiterung des Anwendungsbereichs auf wahrheitswidrige Inhalte („fake news“), ohne dabei auf die vorsätzliche Verbreitung von Falschinformationen abzustellen, aus. Seit den ersten Lesungen in der Assemblée Nationale im Juni ist von einer „loi contre les manipulations de l’information“ die Rede, also einem Gesetz gegen Informationsmanipulationen. Damit wurde der Entwurf konkreter und löste sich vom Phänomenbegriff „fake news“ , welcher weiterhin inflationär und ohne klare Umrisse genutzt und politisiert wird. Zudem impliziert die Handlung der Informationsmanipulation das bisher vermisste subjektive Merkmal: die Absicht, unrichtige Tatsachenbehauptungen zu verbreiten.
Laut aktuellem Entwurf werden Falschinformationen wie folgt definiert: „jede Tatsachenbehauptung oder -beschuldigung, bar jeder Grundlage, die dem Beweis zugänglich wäre und jene Tatsache belegen würde“ («toute allégation ou imputation d’un fait dépourvue d’éléments vérifiables de nature à la rendre vraisemblable»). Das Definieren der Falschinformation soll vorrangig der Rechtssicherheit dienen und dem Vorwurf der Zensur entgegentreten. Dieser Entwurf sieht auf der Grundlage der o.g. Definition folgende Hauptmaßnahmen vor: an erster Stelle die Einführung eines Eilverfahrens, anhand dessen im einstweiligen Rechtsschutz die automatisierte Massenverbreitung solcher Falschinformationen verhindert werden soll. Antragsberechtigt wären die Staatsanwaltschaft und jedermann, der/die ein berechtigtes Interesse an einer gerichtlichen Überprüfung hat. Über dieses rechtliche Mittel könnte das Landgericht in Paris (welches ausschließlich für dieses Verfahren zuständig wäre) die Löschung oder Blockierung von Inhalten anordnen (Art. 1). Zusätzlich zu diesem Eilverfahren soll das political micro-targeting auf sozialen Netzwerken reguliert werden, indem den Diensteanbietern mehr Transparenzpflichten im Hinblick auf die Finanzierung von gesponsorten Beiträgen auferlegt werden. Schließlich sollen die Rechte der französischen Medienaufsicht CSA (Conseil Supérieur de l’Audiovisuel) insoweit gestärkt werden, als dass sie ausländische Medien strenger kontrollieren könnte (Art. 4-8).
Neues Eilverfahren gegen die Verbreitung von Falschinformationen: umsetzbar?
Im Mittelpunkt steht das oben angesprochene Eilverfahren. Kritiker weisen eindringlich darauf hin, dass die Frist von 48 Stunden, innerhalb derer die Richter im Rahmen des neuen Eilverfahrens entscheiden sollen, nicht ausreichend ist. Doch das Element der Zügigkeit ist vor Gericht nicht per se unüblich. Ob eine Tatsachenbehauptung verbreitet werden darf, bedarf auch im Presserecht einer schnellen Entscheidung – das sollte für Richter im einstweiligen Rechtsschutz nicht außergewöhnlich sein. Berechtigt erscheint allerdings die Frage, ob eine ausreichende Sachverhaltsermittlung möglich sein wird. Der Richter müsste laut aktuellem Entwurf prüfen, ob die Falschinformation (s. Definition oben) „geeignet ist, die Wahrhaftigkeit des zukünftigen Wahlergebnisses zu verfälschen“, und „auf nicht-menschliche oder automatisierte und massive Art und Weise über einen digitalen Kommunikationsdienst verbreitet“ wird. Diese Voraussetzungen müssten kumulativ erfüllt sein: eine einstweilige Verfügung könnte nur erlassen werden, wenn eine Prüfung dessen möglich ist. Hierin liegt die größte Herausforderung – welche zu der Spekulation führt, dass die Prüfung des technischen Merkmals letztlich nur auf Verdachtsmomenten beruhen könnte und damit der Maßstab im Ergebnis gesenkt werden würde.
Wie beim deutschen NetzDG wird auch in Frankreich vor der Gefahr des Overblockings gewarnt, obwohl die Bedenken anders zu bewerten sind. Als Overblocking bezeichnet man, wenn Inhalte – wie sich erst im Nachhinein herausstellt unberechtigt – gelöscht oder geblockt werden, weil der Anreiz entsteht, die Löschung einer grundlegenderen Prüfung vorzuziehen. Der Pflicht zur Löschung von offensichtlich rechtswidrigen Inhalten müssen soziale Netzwerke in Deutschland gemäß § 3 Abs. 2 NetzDG innerhalb von 24 Stunden nachkommen. Zwar liegen die ersten Berichte der sozialen Netzwerke zu Beschwerden über rechtswidrige Inhalte auf ihren Plattformen gemäß § 2 Abs. 1 NetzDG noch nicht vor (Fristende: 31. Juli 2018), aber, um das hohe Bußgeld (§ 4 Abs. 2 NetzDG) zu vermeiden, ist es für Anbieter einfacher, die Inhalte im Zweifel zu löschen. Damit weichen Rechtswidrigkeitsüberlegungen dem Druck der finanziellen Einbußen.
Diese Sorge ist – übertragen auf die französische Situation – als solche jedoch unberechtigt, da die Entscheidung von Richtern, nicht von sozialen Netzwerken getroffen wird. Beim französischen Gesetzesvorhaben könnte ein Risiko für die Meinungsvielfalt in der technischen Einschätzbarkeit bestehen. Laut Forschern ist es sehr schwierig, das Merkmal der „nicht-menschlichen oder automatisierten Verbreitung in massiver Art und Weise über einen digitalen Kommunikationsdienst“ in kurzer Zeit zu überprüfen. Fälle des „deep fake“ also einer Mischung von „fake news“ und deep learning seien höchst komplex und kaum zu „entlarven“. Nur sehr offensichtliche Informationsfälschungen wie Spam-Mail oder massive Verbreitung in extrem kurzer Zeit durch Social Bots seien auf die Schnelle als solche zu erkennen. Andere Falschinformationen sind in ihrer Tarnung, ähnlich wie das gefälschte Video von Ex-Präsident Obama, weit fortgeschrittener. Dank künstlicher Intelligenz kann man jemandem etwas in den Mund legen, bspw. weil es technisch möglich ist, die Redeart einer Person exakt nachzuahmen. Das ist nur ein Beispiel von vielen, bei denen die Sachlage schwer einzuschätzen ist, wodurch der Eindruck entsteht, dass der Gesetzesentwurf von einer nicht der Realität entsprechenden Sachlage ausgeht. Aufgrund einer möglichen Überforderung bei der technischen Bewertung sind zwei Szenarien denkbar: die Richter vernachlässigen dieses Merkmal und stellen vordergründig auf den Wahrheitsgehalt der Tatsachenbehauptung ab oder das neue Verfahren verkommt zum zahnlosen Tiger, weil innerhalb der vorgegebenen Zeit nicht zu entscheiden ist. Es bleibt also abzuwarten, ob das französische Parlament diese Bedenken berücksichtigen wird und den Fehler einer voreiligen Verabschiedung des Gesetzes nicht (auch) begeht.
Dieser Beitrag erschien zuerst bei Junge Wissenschaft im Öffentlichen Recht
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International Lizenz.
Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de
Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.
Forschungsthemen im Fokus
Zwischen Zeitersparnis und Zusatzaufwand: Generative KI in der Arbeitswelt
Generative KI am Arbeitsplatz steigert die Produktivität, doch die Erfahrungen sind gemischt. Dieser Beitrag beleuchtet die paradoxen Effekte von Chatbots.
Widerstände gegen Veränderung: Herausforderungen und Chancen in der digitalen Hochschullehre
Widerstände gegen Veränderung an Hochschulen sind unvermeidlich. Doch richtig verstanden, können sie helfen, den digitalen Wandel konstruktiv zu gestalten.
Von der Theorie zur Praxis und zurück: Eine Reise durch Public Interest AI
In diesem Blogbeitrag reflektieren wir unsere anfänglichen Überlegungen zur Public Interest AI anhand der Erfahrungen bei der Entwicklung von Simba.