Zum Inhalt springen
Das Foto zeigt einen halbtransparenten Glasboden, auf dem nur Fußabdrücke zu sehen sind. Das symbolisiert teilweise Einsicht wie die DSA-Transparenzberichte, die Spuren zeigen, aber nicht das vollständige Bild.
25 September 2025| doi: 10.5281/zenodo.17201618

Rechnen ohne Rechenschaft? Eine Analyse der DSA-Transparenzberichte

Der Digital Services Act (DSA) soll Plattformen stärker in die Pflicht nehmen, wenn es um den Umgang mit illegalen Inhalten geht, und fordert von ihnen mehr Transparenz. Plattformen wie Facebook, Instagram, Tiktok oder X müssen nun detaillierte Berichte veröffentlichen, aus denen beispielsweise hervorgeht, wie viele Beiträge sie entfernt haben und wie schnell. Diese Berichte sollen Regulierungsbehörden, Forscher*innen und Zivilgesellschaft einen Einblick geben, wie gut Plattformen gegen potenziell schädliche Inhalte vorgehen. Aber halten die Berichte wirklich, was sie versprechen? Oder ist diese Maßnahme nur eine neue, aber letztlich nutzlose Ergänzung der Flut von EU-Berichten, die in der Praxis wenig verbessert?

Online-Plattformen wie Instagram, TikTok oder X sind aus dem Alltag nicht mehr wegzudenken. Trotz ihrer gesellschaftlichen Relevanz bleibt das tatsächliche Vorgehen und die Funktionsweise dieser privaten Unternehmen jedoch weitgehend undurchsichtig. Sie erklären selten, wie sie entscheiden, welche Inhalte weiterverbreitet, entfernt oder in Feed heruntergestuft werden, obwohl genau diese Entscheidungen bestimmen, was wir online zu sehen bekommen.

Plattformen zur Rechenschaft ziehen

Eines der Kernziele des neuen EU-Digitalregelwerks, einschließlich des Gesetzes über digitale Dienste (Digital Services Act, DSA), besteht darin, den Umgang von Plattformen mit illegalen Inhalten zu regulieren und wirksamere Maßnahmen gegen diese Inhalte zu ermöglichen. Was als illegaler Inhalt gilt, ist im DSA nicht ausdrücklich kodifiziert, sondern hängt letztlich davon ab, was nach dem Recht der EU oder der Mitgliedstaaten illegal ist. Dazu gehören häufig Material sexuellen Kindesmissbrauchs, Aufstachelung zum Terrorismus, illegale Hassrede oder Verstöße gegen das Urheberrecht. 

Plattformen müssen zwar nicht jeden Inhalt proaktiv auf Illegalität prüfen, sie sind aber für ihren Umgang mit illegalen Inhalten verantwortlich, sobald sie darauf aufmerksam gemacht werden. Wenn beispielsweise eine Nutzerin einen Beitrag oder ein Video meldet, das ihrer Meinung nach illegale Hassrede enthält, muss die Plattform die Meldung prüfen und über Maßnahmen wie das Löschen oder Einschränken des Inhalts entscheiden. Später muss die Plattform in einem Transparenzbericht dann auch offenlegen, wie viele solcher Fälle innerhalb eines bestimmten Zeitraums bearbeitet wurden und wie mit den gemeldeten Inhalten umgegangen worden ist.

Eines der Hauptziele des DSA ist es, Plattformen durch Transparenz zur Rechenschaft zu ziehen. Eine zentrale Annahme, die dem DSA zugrunde liegt, ist, dass digitale Dienste systemische Risiken für die Gesellschaft darstellen können. Beispiele für solche befürchteten Risiken sind weit verbreitete Desinformation oder die Manipulation von Wahlen. Um diese Risiken frühzeitig zu erkennen und zu begrenzen, ist ein möglichst hohes Maß an Transparenz über die Funktionsweise und das Wirken von Plattformen erforderlich. Dies soll Regulierungsbehörden, Forscher*innen und der Zivilgesellschaft ermöglichen, potenzielle systemische Risiken zu erkennen, und einzelne Nutzer*innen befähigen, ihre Rechte zu verstehen und geltend zu machen.

Die DSA-Transparenzberichte

Transparenzberichte sind daher eine wichtige Maßnahme im Rahmen des DSA. Gemäß den Artikeln 15, 24 und 42 müssen Plattformen verständliche Berichte über ihre Aktivitäten zur Moderation von Inhalten veröffentlichen. Diese Berichte müssen Informationen über die Arten der Moderation illegaler Inhalte und die ergriffenen Maßnahmen enthalten. Maßnahmen zur Moderation von Inhalten können das Löschen, Einschränken oder Geoblocking von Inhalten in einem bestimmten Land umfassen. Die Transparenzberichte müssen in einem maschinenlesbaren Format öffentlich zugänglich sein (Art. 15 Abs. 1 DSA). Die meisten Plattformen stellen sie als PDF-Dokumente oder HTML-Seiten auf ihren Websites zur Verfügung. Sie werden auch auf einer EU-Website gesammelt und verlinkt. 

Doch für wie viel Transparenz sorgen diese Berichte tatsächlich? Sind sie wirklich geeignet, um die Rechenschaftspflicht großer Plattformen zu erhöhen? Die Analyse der Transparenzberichte von sieben ausgewählten Online-Plattformen ergab, dass die aktuellen Transparenzberichte keine echte Transparenz und Rechenschaftspflicht in Bezug auf die Moderation illegaler Inhalte gewährleisten. Auch die kürzlich eingeführte standardisierte Vorlage für Berichte, von der sich viele eine Verbesserung der Qualität der Berichte erhoffen, kann nur einige der Unzulänglichkeiten der aktuellen Berichte beheben, während sie gleichzeitig möglicherweise neue Probleme schafft.

Transparenzberichte in der Praxis: Drei Beobachtungen

Was sagen die Transparenzberichte tatsächlich darüber aus, wie Plattformen mit illegalen Inhalten umgehen? Ich habe die zwei bisherigen Runden der 2024 veröffentlichten DSA-Transparenzberichte von sieben sehr großen Online-Plattformen (VLOPs, Plattformen mit mehr als 45 Millionen Nutzer*innen im Monatsdurchschnitt) untersucht, um zu prüfen, wie diese VLOPs ihre Transparenzanforderungen erfüllen: Instagram, Facebook, LinkedIn, Pinterest, Snapchat, TikTok und X. Die Analyse wurde mit MAXQDA durchgeführt, einer Software für qualitative Inhaltsanalyse. 

Die Europäische Kommission gibt zwar grobe Anforderungen zum Inhalt der Transparenzberichte vor, legt jedoch weder deren Struktur fest, noch wie detailliert die Berichte sein müssen. Der Grundgedanke scheint einerseits darin zu bestehen, den Plattformen einen gewissen Spielraum zu lassen, und andererseits zu prüfen, ob es möglich ist, die Vorgaben später aufbauend auf bewährten Verfahren, sogenannten Best Practices, zu verfeinern.

Seit Juli 2025 gilt nun ein neues, verbindliches Template, das Form, Inhalt und Detailtiefe der Berichte klarer regeln soll (Europäische Kommission, 2024). In der Praxis wurde es jedoch noch nicht angewendet. Die bisher verfügbaren Berichte interpretieren die DSA-Vorgaben jeweils auf eigene Weise. Daraus ergaben sich drei zentrale Beobachtungen, die zeigen, wie unterschiedlich und wenig einheitlich Plattformen ihre Transparenzpflichten umsetzen und wo das aktuelle Format an seine Grenzen stößt.

Beobachtung 1: Mangelnde Verbindung von Datenpunkten

Ein großes Problem ist die fehlende Verbindung zwischen verschiedenen Datenpunkten innerhalb der einzelnen Berichte. Zahlen zu Moderationsentscheidungen, Nutzer*innenbeschwerden oder automatischen Löschungen stehen oft isoliert nebeneinander, ohne dass ein Bezug zueinander hergestellt wird. Das bedeutet, dass es schwierig ist, eine Beziehung zwischen Daten herzustellen, was es für Forscher*innen schwieriger macht, sie zu interpretieren oder in aussagekräftige Analysen zu integrieren. 

Ein Beispiel ist die Berichterstattung über behördliche Anordnungen gemäß Artikel 9 des DSA, die es nationalen Behörden der EU-Mitgliedstaaten wie Gerichten oder den Digital Services Coordinators (in Deutschland: Bundesnetzagentur) ermöglichen, Maßnahmen gegen illegale Inhalte anzufordern. Der Begriff „Anordnung“ kann jedoch irreführend sein, da Plattformen nicht verpflichtet sind, Inhalte zu löschen, die ihnen von einer Behörde eines Mitgliedstaats gemeldet werden. Stattdessen prüfen sie die Inhalte unabhängig und entscheiden dann, ob sie Maßnahmen ergreifen.

In seinen Transparenzberichten für 2024 stellt Facebook zwei separate Tabellen zur Verfügung: Eine listet die Anzahl der pro Mitgliedstaat erhaltenen Anordnungen auf, die andere die Anzahl der Anordnungen nach Art des Inhalts, wie z. B. terroristische Inhalte, illegale Äußerungen usw. (Facebook, 2024, S. 3-5; Facebook, 2025, S. 4-6). Diese beiden Tabellen sind jedoch nicht miteinander verknüpft. Es wäre daher beispielsweise unmöglich herauszufinden, wie viele Anordnungen zur Bekämpfung terroristischer Aktivitäten Italien gegen Facebook erlassen hat. Dieses Fehlen von Querverweisen schränkt den analytischen Wert der Daten erheblich ein. 

Beobachtung 2: Willkürliche und inkonsistente Kategorien

Es gibt keine einheitliche Kategorisierung illegaler Inhalte über Plattformen hinweg, manchmal nicht einmal innerhalb der einzelnen Berichte. Jede Plattform hat ihre eigenen Kategorien entwickelt, die sich grob an EU- oder Mitgliedstaatenrecht orientieren, letztlich jedoch inkonsistent und oft willkürlich sind.

LinkedIn verwendet beispielsweise die Bezeichnung „Illegal or harmful speech” (LinkedIn, 2024, S. 17), während Facebook Begriffe wie „Hate speech” und „Misinformation” verwendet (Facebook, 2024, S. 4). Pinterest verfolgt einen anderen Ansatz und verweist direkt auf die spezifischen Gesetze, gegen die ein Inhalt angeblich verstößt.

Die meisten Plattformen enthalten auch eine vage Sammelkategorie wie „Sonstige illegale Inhalte“. So heißt es beispielsweise im Transparenzbericht von Instagram für den Zeitraum April bis September 2024, dass die Plattform 91 Anordnungen von Behörden erhalten habe, gegen „sonstige“ Arten illegaler Inhalte vorzugehen, was fast einem Drittel aller Fälle entspricht (Instagram, 2024, S. 4). Facebook erhielt 113.638 Nutzer*innenhinweise zu „sonstigen illegalen Inhalten“, was etwa 45 % der insgesamt 248.748 eingegangenen Hinweise entspricht. 

Darüber hinaus führt die Tatsache, dass einige Plattformen unterschiedliche Kategorien für behördliche Anordnungen und von Nutzern gemeldete illegale Inhalte verwenden, zu unnötiger Komplexität. Dies erschwert den Vergleich verschiedener Plattformen und verkompliziert das Bild davon, wie mit illegalen Inhalten umgegangen wird.

Beobachtung 3: Intransparente Entscheidungsprozesse 

Besonders gravierend ist die Unklarheit darüber, was passiert, nachdem eine Plattform eine Meldung einer Nutzerin oder eine behördliche Anordnung erhalten hat. In vielen Berichten bleibt unklar, welche Maßnahmen auf welcher Grundlage ergriffen wurden oder ob überhaupt Maßnahmen ergriffen wurden. Die meisten Plattformen geben zwar an, wie viele Anordnungen sie von Behörden erhalten haben, aber sie geben nicht an, ob sie darauf reagiert haben, indem sie den gemeldeten Beitrag gelöscht, das Konto gelöscht, den Inhalt in einem bestimmten Land geografisch gesperrt oder die Sichtbarkeit eines Beitrags eingeschränkt haben. 

LinkedIn deutet lediglich an, dass als Reaktion auf eine behördliche Anordnung „zumindest einige Maßnahmen ergriffen wurden” (LinkedIn, 2025, S. 16-17) , gibt jedoch keine weiteren Details bekannt. Pinterest ist hier die Ausnahme: Die Plattform gibt klar an, ob sie Inhalte deaktiviert, geografisch eingeschränkt oder deren Verbreitung begrenzt hat (Pinterest, 2025).

Ein weiteres Problem ist die erhebliche Verwirrung hinsichtlich der beiden Arten von Meldemechanismen: dem spezifischen Mechanismus zur Meldung illegaler Inhalte gemäß Artikel 16 des DSA und den allgemeinen Kanälen, über die Plattformen verfügen, um jede Art von Regelverstoß zu melden (z. B. Inhalte, die gegen die Werberichtlinien einer Plattform verstoßen, aber nicht gegen Gesetze). Artikel 16 verpflichtet Plattformen dazu, einen Meldemechanismus einzurichten, über den Nutzer potenziell illegale Inhalte präzise und begründet melden können. Wenn ein Nutzer beispielsweise der Meinung ist, dass ein Beitrag zu Terrorismus aufruft, muss er dies der Plattform in einer Weise melden können, die deutlich macht, dass es sich um potenziell illegale Inhalte handelt.  

In der Praxis werden alle Nutzer*innenmeldungen, unabhängig vom angegebenen Grund für die Meldung, zunächst auf Verstöße gegen die eigenen Regeln der Plattformen, wie Community-Richtlinien oder Werberichtlinien, überprüft. Daher ist es zu Beginn des Überprüfungsprozesses irrelevant, ob es sich um eine Meldung gemäß Artikel 16 oder um eine andere Art von Nutzer*innenmeldung handelt. Wenn eine Meldung gemäß Artikel 16 gegen eine Plattformregel verstößt und dies zur weltweiten Löschung des gemeldeten Inhalts führt, wird niemals geprüft, ob dieser gegen das Gesetz verstößt, selbst wenn er ursprünglich aus diesem Grund gemeldet wurde. Wenn also der terrorismusverherrlichende Beitrag in unserem Beispiel auch gegen die Werberichtlinien einer Plattform verstößt, würde er niemals auf Verstöße gegen Anti-Terror-Gesetze überprüft werden. Das bedeutet: Der Inhalt würde weltweit verschwinden, nicht nur in dem Land, in dem er möglicherweise rechtswidrig ist. 

Dieser Ansatz ist zwar eindeutig effizient – warum sollte man einen Beitrag nur in einem Land sperren, wenn er gegen eine Plattformregel verstößt und ohnehin weltweit gelöscht würde? –, wirft jedoch Fragen darüber auf, wer entscheidet, wie die öffentliche Debatte stattfindet und auf welcher Grundlage.

Weder LinkedIn noch Snapchat unterscheiden ausdrücklich zwischen Maßnahmen, die aufgrund einer Nutzeranzeige auf Grundlage des Gesetzes ergriffen werden, und solchen, die auf internen Richtlinien beruhen. Snapchat argumentiert sogar, dass Verstöße gegen das Gesetz automatisch durch die eigenen Regeln abgedeckt sind, da ein Verstoß gegen die Community-Richtlinien „Gründe der Rechtswidrigkeit” umfasst (Snapchat, 2024). Dies scheint gegen Artikel 15 des DSA zu verstoßen, der eindeutig festlegt, dass Anbieter angeben müssen, ob eine Maßnahme auf der Grundlage des Gesetzes oder ihrer eigenen Geschäftsbedingungen ergriffen wurde.

Zusammenfassend lassen die hier analysierten Berichte erhebliche Unstimmigkeiten und blinde Flecken erkennen. Von unzusammenhängenden Datenpunkten und willkürlichen Kategorien bis hin zu undurchsichtigen Begründungen für Entscheidungen zur Inhaltsmoderation bieten die Berichte derzeit keine echte Transparenz. Vor diesem Hintergrund werden im folgenden Abschnitt drei wesentliche Kritikpunkte am aktuellen Berichtssystem dargelegt und Überlegungen angestellt, ob die neue Vorlage einige dieser Mängel beheben könnte.

Drei Kritikpunkte an Transparenzberichten

  1. Die bereitgestellten Daten sind nahezu unbrauchbar. Die großen Unterschiede hinsichtlich Umfang, Detailgenauigkeit, Operationalisierung und Darstellung der Daten in den einzelnen Berichten machen es sehr schwierig, die Plattformen zu vergleichen und zu beurteilen, welche Maßnahmen zur Bekämpfung illegaler Inhalte am wirksamsten sind. In vielen Fällen ist es nicht einmal möglich, Verbindungen zwischen Datenpunkten innerhalb einzelner Berichte herzustellen, was eine aussagekräftige Bewertung zusätzlich erschwert. Die neue Vorlage, bei der es sich um eine Excel-Tabelle handelt, in die die Plattformen ihre Daten eingeben können, dürfte dazu beitragen, einige dieser Probleme zu beheben. Zum einen dürfte sich die Vergleichbarkeit verbessern, wenn alle Plattformen ihre Informationen im gleichen Format bereitstellen. Die Vorlage führt auch feste Kategorien illegaler Inhalte ein und verlangt eine Beschreibung der Kategorie „Sonstiges“. Allerdings werden die Plattformen in der Vorlage nur aufgefordert, die „Anzahl der moderierten Elemente“ (Europäische Kommission, 2025) anzugeben, ohne dass angegeben wird, welche Art von Maßnahmen zur Moderation von Inhalten ergriffen wurden. Dies ist überraschend, da Artikel 15 des DSA von den Plattformen verlangt, dass sie melden, wie viele Meldungen sie gemäß Artikel 16 erhalten haben, und diese nach „gemäß den Meldungen ergriffenen Maßnahmen“ zu kategorisieren (Art. 15(1b) DSA). Die neue Vorlage scheint diese Anforderung jedoch nicht zu enthalten. 
  2. Der Prozess der Moderation illegaler Inhalte bleibt weitgehend undurchsichtig. Selbst wenn die Daten in den Berichten zeigen, welche Maßnahmen auf welche Meldungen oder Berichte folgten, bleibt der zugrunde liegende Prozess eine Black Box. Fragen wie „Nach welchen Kriterien werden Fälle entschieden?“ und „Über welche juristischen Fachkenntnisse verfügen die Content-Moderatoren?“ bleiben unbeantwortet. Snapchat beispielsweise hat im Berichtszeitraum zwischen Januar und Juni 2024 82.011 Meldungen gemäß Artikel 16 für Inhalte erhalten, die möglicherweise gegen die Regeln gegen Falschinformationen verstoßen. Davon wurden 106 Inhalte gelöscht, 255 Konten erhielten Verwarnungen und 12 Konten wurden gesperrt. Abgesehen von der absurd geringen Zahl tatsächlicher Maßnahmen ist es uns unmöglich zu wissen, warum Snapchat in einigen Fällen Inhalte gelöscht und in anderen nicht, oder warum es in einigen Fällen Konten gesperrt und in anderen lediglich Verwarnungen ausgesprochen hat. Die neue Vorlage fragt solche Informationen nicht ab. Es ist daher unwahrscheinlich, dass wir in dieser Hinsicht eine Verbesserung sehen werden.
  3. Die Plattformregeln bleiben der Goldstandard. Auch wenn dies aus Effizienzgründen sinnvoll ist und vollständig im Einklang mit dem DSA steht, überprüfen Plattformen nach wie vor in erster Linie, ob Inhalte gegen ihre eigenen Regeln verstoßen, anstatt gegen EU- oder nationales Recht. Dadurch wird der separate Mechanismus zur Meldung illegaler Inhalte etwas obsolet. Es wirft auch die Frage auf, welche Regeln als wichtiger angesehen werden: die von einem privaten Plattformunternehmen festgelegten oder demokratisch legitimierte Gesetze. Die neue Vorlage kann diese Hierarchie weder grundlegend in Frage stellen, noch macht sie die Regeln und Kriterien, nach denen Plattformen Entscheidungen zur Moderation von Inhalten treffen, sichtbarer. Stattdessen verfestigt die Vorlage die ohnehin schon begrenzten Informationen, die Plattformen zur Verfügung stellen.

Das Template ist kein Allheilmittel

Die Analyse der Transparenzberichte 2024 von sieben sehr großen Online-Plattformen (VLOPs) (Instagram, Facebook, LinkedIn, Pinterest, Snapchat, TikTok und X) zeigt erhebliche Mängel in der Art und Weise, wie diese Unternehmen über die Moderation illegaler Inhalte berichten. Wichtige Datenpunkte sind nicht miteinander verknüpft, Kategorien illegaler Inhalte werden uneinheitlich und willkürlich angewendet, und die Gründe für die Moderation von Inhalten bleiben weitgehend undurchsichtig. 

Diese Lücken machen es schwierig zu beurteilen, wie Plattformen tatsächlich auf illegale Inhalte reagieren, und die Wirksamkeit ihrer Reaktion zu messen. Die neu eingeführte EU-Vorlage für Transparenzberichte ist ein Schritt in Richtung größerer Vergleichbarkeit und Klarheit, da sie die Berichtsformate und -kategorien standardisiert. Damit kann sie dazu beitragen, die bisher beobachteten Unstimmigkeiten zu verringern. Allerdings lässt die Vorlage wichtige blinde Flecken unberücksichtigt. Vor allem verlangt sie von den Plattformen nicht, ihre Gründe für Moderationsentscheidungen zu erläutern oder klar zwischen der Durchsetzung auf der Grundlage von Gesetzen und internen Regeln zu unterscheiden. Es könnte auch zu Problemen kommen, wenn Plattformen sich nur an die Mindestanforderungen der Vorlage halten, was bestehende Mängel verstärken und die Verfügbarkeit aussagekräftiger Informationen weiter einschränken könnte. Somit erreichen derzeit weder die Transparenzberichte noch die neue Vorlage eine Rechenschaftspflicht durch Transparenz. 

Referenzen

Transparenzberichte 

Facebook. (2024). Regulation (EU) 2022/2065 Digital Services Act Transparency Report for Facebook. April—September 2024. Facebook.

Facebook. (2025). Regulation (EU) 2022/2065 Digital Services Act Transparency Report for Facebook. October—December 2024. Facebook.

Instagram. (2024). Regulation (EU) 2022/2065 Digital Services Act Transparency Report for Instagram. April—September 2024. Instagram.

Instagram. (2025). Regulation (EU) 2022/2065 Digital Services Act Transparency Report for Instagram. October—December 2024. Instagram.

LinkedIn. (2024). Digital Services Act Transparency Report. January—June 2024. LinkedIn. https://www.linkedin.com/help/linkedin/answer/a1678508

LinkedIn. (2025). Digital Services Act Transparency Report. July—December 2024. LinkedIn. https://content.linkedin.com/content/dam/help/tns/en/February-2025-DSA-Transparency-Report.pdf

Pinterest. (2024). Digital Services Act Transparency Report. January—June 2024. Pinterest. https://policy.pinterest.com/en/transparency-report-h1-2024

Pinterest. (2025). Digital Services Act Transparency Report. July—December 2024. Pinterest. https://policy.pinterest.com/en/digital-services-act-transparency-report-jul-2024-dec-2024

Snapchat. (2024). European Union Transparency | Snapchat Transparency. January—June 2024. Snapchat. https://values.snap.com/privacy/transparency/european-union

TikTok. (2024). TikTok’s DSA Transparency report. January—June 2024. TikTok. https://sf16-va.tiktokcdn.com/obj/eden-va2/zayvwlY_fjulyhwzuhy[/ljhwZthlaukjlkulzlp/DSA_H2_2024/TikTok-DSA-Transparency-Report-Jan-to-Jun-2024.pdf

TikTok. (2025). TikTok’s DSA Transparency report. July—December 2024. TikTok. https://sf16-va.tiktokcdn.com/obj/eden-va2/zayvwlY_fjulyhwzuhy[/ljhwZthlaukjlkulzlp/DSA_H2_2024/Corrected%20Data/TikTok%20-%20DSA%20Transparency%20report%20-%20July%20-%20December%202024%20-21.03.2025.pdf

X. (2024). DSA Transparency Report. April—September 2024. X. https://transparency.x.com/dsa-transparency-report.html

X. (2025). DSA Transparency Report. October 2024—March 2025. X. https://transparency.x.com/assets/dsa/transparency-report/dsa-transparency-report-april-2025.pdf

EU-Richtlinien und Vorlagen

European Commission. (2022). Regulation (EU) 2022/2065 of the European Parliament and of the European Council of 19 October 2022 on a Single Market For Digital Services and Amending Directive 2000/31/EC (DSA).

European Commission. (2024). Commission Implementing Regulation (EU) laying down templates concerning the transparency reporting obligations of providers of intermediary services and of providers of online platforms under Regulation (EU) 2022/2065 of the European Parliament and the Council.

European Commission. (2025). Annex I – Transparency reports template [Microsoft Excel file]. Publications Office of the European Union. 

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Jella Ohnesorge

Studentische Mitarbeiterin: DSA-Forschungsnetzwerk

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Plattform Governance

In unserer Forschung zur Plattform Governance untersuchen wir, wie unternehmerische Ziele und gesellschaftliche Werte auf Online-Plattformen miteinander in Einklang gebracht werden können.

Weitere Artikel

Ein einzelner Hai im blauen Ozean symbolisiert ein Haifischbecken: eine unsichtbare Bedrohung und gefühlslose Konkurrenz am Arbeitsplatz, die Vertrauen in KI schwinden lässt.

Gefühllose Konkurrenz am Arbeitsplatz: Wenn Vertrauen in KI ins Wanken gerät

Gefühlslose Konkurrenz am Arbeitsplatz schwächt Vertrauen in KI. Fühlen sich Mitarbeitende von KI übertroffen, sinkt ihre Bereitschaft zur Zusammenarbeit.

Das Foto zeigt eine Reihe von Rudernden, die sich aneinander festhalten, sodass ihre Boote eine Reihe bilden. Das ist ein Sinnbild dafür, dass es eine vereinte Strategie braucht, um Desinformationsforschende in Europa vor koordinierten Angriffen zu schützen.

Europas Desinformationsforschende verteidigen

Immer häufiger werden Desinformationsforschende in Europa verklagt und diffamiert. Was steckt hinter diesen Angriffen? Und wie kann die EU sie schützen?

Das Foto zeigt einen Arbeiter, der eine blaue Glasfassade reinigt. Es steht symbolisch für Transparenz und das Hinterfragen von Annahmen über Desinformation.

Annahmen über Desinformation: Was wir zu wissen glauben und was wir wirklich wissen

Was steckt hinter Annahmen über Desinformation? Dieser Artikel räumt mit Missverständnissen auf und zeigt, warum es mehr Forschung braucht.