Soap bubbles

„Das könnte Dich interessieren“ – Wie die Filter Bubble unsere Wahrnehmung bestimmt

11 Oktober 2018| doi: 10.5281/zenodo.1457215

Die Filter Bubble – eines der meist diskutierten Phänomene des Internets. Sie steht im Verdacht, uns das Internet nur noch durch Filter wahrnehmen zu lassen. Alle sprechen davon und doch wissen die wenigsten, um was es sich eigentlich handelt. Wie manipuliert die Filter Bubble unsere Wahrnehmung? Und kann sie sogar unsere Demokratie gefährden? HIIG-Mitarbeiterin Nadine Lahn und ihre Kommilitonin Laura Jörger haben sich mit diesem geheimnisvollen Begriff und den Herausforderungen beschäftigt, die mit Filter Bubbles aufkommen.  

„Ich bin ein Algorithmus. Mein Programmierer hat mich geschrieben, um Nutzerverhalten vorherzusehen und dementsprechend zu reagieren. Meine Aufgabe ist es, jeder Person zur richtigen Zeit das richtige Produkt vorzuschlagen. Oh, da interessiert sich jemand für Sommerschuhe! Dann schlage ich sofort noch ein paar andere in dunklen Farben vor. Jackpot – die schwarzen Lederschuhe sind im Einkaufswagen! Mein Erschaffer wird stolz auf mich sein!“

Wenn unser Verhalten vorhergesagt wird

Der Begriff Filter Bubble (dt. Filterblase) wurde von Eli Pariser, einem US-amerikanischen Internetaktivisten, geprägt. Sie entsteht, da Internetseiten mithilfe von Algorithmen versuchen, Voraussagen über die jeweiligen NutzerInnen und ihre Interessen zu treffen. Durch diese Personalisierung werden die NutzerInnen von Informationen isoliert, die nicht ihrer Meinung entsprechen.

Algorithmen kennen die meisten aus der Informatik: „Irgendetwas mit 0 und 1“ würden viele wohl sagen. Doch wie Algorithmen genau arbeiten, ist uns als einfache NutzerInnen des Internets so unbekannt wie das Geheimrezept von Coca-Cola. Das Prinzip kann man sich aber wie ein Kuchenrezept vorstellen: Es ist eine Schritt-für-Schritt-Anleitung, bei der nach Eingabe eines Inputs (die Zutaten) ein Output (der Kuchen) folgt. Doch die einzelnen Prozesse dazwischen sind für die NutzerInnen nicht nachvollziehbar. Algorithmen sind oft selbstlernend. Sie wissen, was uns interessiert, welche Produkte wir eventuell kaufen würden und welche Nachrichten wir lesen möchten.

Wie wirkt die Filter Bubble auf uns?

Während wir nur sehen was uns interessiert und unsere Meinung bestätigt wird, erfahren wir gleichzeitig auch keine Gegenmeinungen oder unterschiedliche Weltanschauungen. Für die meisten scheint es um einiges bequemer zu sein, die eigene Meinung bestätigt zu bekommen, anstatt sich selbst aktiv mit anderen Standpunkten und Weltbildern auseinanderzusetzen. Sicherlich scheinen uns passende Kaufempfehlungen und interessante Nachrichten im Newsfeed äußerst praktisch, doch beruht dies immer auch auf der Speicherung einer beträchtlichen Menge persönlicher Daten.

„Wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen.”

So bringt die deutsche Kommunikationswissenschaftlerin Miriam Meckel das Problem auf den Punkt. Eli Pariser nennt in seinem TED-Talk unter anderem folgendes Beispiel: Freunde sind aus seiner Facebook-Timeline verschwunden, weil sie eine konträre Meinung zu seiner eigenen vertreten.

„It will be very hard for people to watch or consume something that has not in some sense been tailored for them.“
Eric Schmidt, ehemaliger Google-Vorstandsvorsitzender

Trotz der Auswirkungen der Filterblase nehmen wir ihren Einfluss auf unser alltägliches Leben kaum wahr. Wir werden manipuliert, ohne dass wir es überhaupt mitbekommen. ExpertInnen fordern mehr Transparenz und die Möglichkeit für die NutzerInnen, selbst zu entscheiden, welche Inhalte sie sehen möchten. Sie plädieren dafür, die NutzerInnen zu stärken und dadurch einen kritisch-reflexiven Umgang mit Algorithmen zu erreichen. Die Algorithmen sollen als Gatekeeper nicht nur für uns relevante und angenehme Informationen zeigen, sondern auch solche, die unseren eigenen Anschauungen widersprechen.

Wenn der öffentliche Diskurs verschwindet…

Eli Pariser sieht in der Verbreitung der Algorithmen und der damit einhergehenden Filter Bubble ein noch größeres Problem: Seiner Meinung nach können diese die sogenannte  „deliberative Demokratie“ bedrohen. Dieser Begriff wurde durch den deutschen Philosophen Jürgen Habermas geprägt und beschreibt eine Form der Demokratie, in der der rationale Diskurs der Öffentlichkeit im Mittelpunkt steht. Verschiedene Meinungen werden vorgetragen, diskutiert und einander gegenübergestellt, wodurch die bestmögliche Lösung gefunden werden soll. Die Basis dieser Diskurse sind widersprüchliche Meinungen. Die Filter Bubble verhindert diese Form der Demokratie. Die Menschen werden nur in ihrer eigenen Sichtweise bestärkt und erhalten keinen Zugang zu konträren Meinungen.

In Zukunft werden uns wahrscheinlich immer mehr personalisierte Suchergebnisse vorgesetzt. Noch ausgeprägter als heute werden alle in ihrem „eigenen“ Internet unterwegs sein. Liest eine Person immer nur kurze Meldungen und Kommentare, werden ihr auch nur noch kurze Artikel vorgeschlagen – genau das, was sie am liebsten mag. Wenn alle nur noch personalisierte Nachrichten erhält, werden Massenmedien, die ein möglichst breites Spektrum an Informationen und Ansichten verbreiten möchten, bald überflüssig sein? Individuell Zugeschnittenes erreicht uns mit Sicherheit öfter und leichter als Informationen, die für die Allgemeinheit bestimmt sind. Das Phänomen der Filterblase kann sich auch maßgeblich auf die politische Willensbildung des Einzelnen auswirken. Politiker könnten auf ihre AdressatInnen abgestimmte Videobotschaften aufnehmen, in denen den UmweltschützerInnen versprochen wird, dass sich die Partei gegen den Ausbau der Autobahnen ausspricht, den Autofans allerdings wird das Gegenteil versprochen. So kommt es zu einer gezielten Manipulation, um mehr Stimmen zu generieren.

Auch in der analogen Welt leben wir in Blasen

Für die Entstehung der Filterblase im Internet gibt es bislang jedoch kaum empirische Belege. Bisher ist es nur eine Theorie, um die Auswirkungen der Personalisierung durch Algorithmen zu erklären.

Auch jenseits des Internets nehmen wir Informationen, die unsere Meinung bestätigen, eher an als solche, die ihr widersprechen. Diese lehnen wir teilweise sogar ab, weil sie nicht in unser eigenes Weltbild passen. In der Wissenschaft nennt man dies „soziale Homophilie“. Das, was uns ähnlich ist, ist uns sympathisch. Das bedeutet, wir erschaffen uns unsere eigene Filterblase, auch außerhalb des Internets. Allerdings entscheiden wir offline frei, mit welchen Menschen wir uns umgeben möchten. Der Algorithmus fragt uns nicht.

Die Filterblase zum Platzen bringen

Ob wir nun wirklich in Filterblasen leben oder nicht – eins steht fest: Man sollte immer im Hinterkopf behalten, dass uns im Internet vorgefilterte Informationen vorgesetzt werden. Wenn wir uns dessen nicht bewusst sind, ist es unmöglich, die Blase zum Platzen zu bringen.

Es sollte nicht vergessen werden, auch mal offline zu gehen und sich die Welt draußen anzuschauen. Auf welche Meinungen und Ansichten trifft man hier? Diese werden sich sicherlich von denen im Netz unterscheiden. Zusätzlich gibt es bei Google die Möglichkeit, die personalisierten Suchergebnisse auszuschalten. Das Hinzuziehen von anderen Suchmaschinen, wie z.B. DuckDuckGo und auch unbubble.eu ist auch eine Option. Doch das nützt alles nichts, wenn wir nicht kritisch mit den Inhalten, mit denen wir im Internet konfrontiert werden, umgehen.


Laura Jörger und Nadine Lahn sind im 5. Bachelor-Semester des interdisziplinären Studiengangs Wissenschaft-Medien-Kommunikation am Karlsruher Institut für TechnologieDer Originalartikel erschien in der 53. Ausgabe des Studierendenmagazins Karlsruher Transfer, herausgegeben von der Hochschulgruppe fuks am Karlsruher Institut für Technologie

Dieser Beitrag spiegelt die Meinung des Autors und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Weitere Artikel

Eine afrikanische Perspektive auf künstliche Intelligenz

Während alle Augen auf westliche Industrienationen gerichtet sind, sorgt sich der nigerianische Menschenrechtsanwalt Olumide Babalola um die KI-Regulierung innerhalb Afrikas. Er befürchtet, dass einige Länder die repressiven Gesetzgebungen ihrer Nachbarn...

Der Wettlauf der Staaten um künstliche Intelligenz

Kaum ein Schlagwort beflügelt die Phantasie der Technikbranche so sehr wie „künstliche Intelligenz“ (KI). Aber nicht nur Giganten wie Google, Facebook, Baidu oder Alibaba versuchen, sich gegenseitig mit neuen Anwendungen...

Mehr Energie für die Energie

Was, wenn der gesamte Fortschritt der Gesellschaft vom zukünftigen Energiesystem abhängt? Zumindest argumentieren so Vordenker wie Jeremy Rifkin. Die Liste der Herausforderungen, welche die Energiewende mit sich bringt, ist umfangreich...