Kenne Deine Rechte

Wann platzt die Blase?


Es gibt sie schon lange, richtig bewusst sind wir uns ihrer aber erst seit kurzem: die Filterblasen. Damit gemeint sind die durch Algorithmen persönlich zugeschnittenen Informationen, die man mittlerweile fast überall im Netz bekommt. Klingt ja an sich nicht schlecht: Man bekommt nur Informationen, die einen auch wirklich interessieren. Das Ergebnis ist jedoch oft alles andere als wünschenswert: Es entsteht ein falsches Weltbild.

“If 50 million people say something foolish, it is still foolish.” – W. Somerset Maugham

Um den Effekt der Filterblase zu erfahren, braucht man nur seinem*seiner Nebenmann*frau vorschlagen, am Smartphone das gleiche zu googlen wie man selbst – es wird kaum einen Suchbegriff geben, der zwei gleiche Ergebnisse liefert. Das kann natürlich durchaus praktisch sein, wenn man dadurch schneller findet, wonach man wirklich sucht, kann aber auch nach hinten losgehen, wenn einem wichtige Informationen vorenthalten werden. Auch auf Facebook werden je nach (politischen) Ansichten Posts gefiltert, und oft vieles, das nicht der eigenen Position entspricht, ausgeblendet. Dass dabei auch kein Unterschied zwischen wahren und “alternativen” Fakten gemacht wird, verschlimmert die Situation, und es entstehen schon fast Parallelwelten, aus denen man kaum herausfindet.

“It turned out to be more of a problem than I, or many others, would have expected.” – Bill Gates

Der Aufstieg der Populisten, allen voran Donald Trump, hat jetzt erstmals viele wachgerüttelt. Die großen Player beginnen, Verantwortung zu übernehmen, und so haben sowohl Facebook als auch Twitter oder BuzzFeed der Filterblase mit unterschiedlichen Methoden den Kampf angesagt. BuzzFeed hat beispielsweise ein Feature namens “Outside Your Bubble” eingeführt, bei dem mehrere verschiedene Perspektiven zu einem Artikel aufgelistet werden, jeweils mit einem Link zur Herkunft der Perspektive, wie etwa ein Tweet oder Reddit Post. Fühlt man sich nicht repräsentiert, kann man dem*der Verwalter*in des Artikels schreiben, damit die eigene Position hinzugefügt wird. Twitter hingegen setzt auf Prüfalgorithmen, die Tweets mit anstößigem Inhalt finden und den*die User*in kurzzeitig in seiner Reichweite einschränken. Dass dies dann teilweise sogar weiter zur Entstehung von Filterblasen beitragen kann, ist nicht einmal die größte Sorge der Internetgemeinde, vielmehr wirft es einmal mehr die Frage auf, wo die Grenze zwischen Zensur und Meinungsfreiheit liegt.

Diese Gratwanderung versucht auch Facebook mit seinen Bemühungen, Fake News einzudämmen. Das soll vor allem durch ein einfacheres Als-Fake-News-Markieren und durch unabhängige Faktenchecker passieren. Doch auch hier stellt sich die Frage, von wem genau und nach welchen Kriterien gefiltert wird. Eine Markierung, dass ein Beitrag potentiell unwahr ist und überprüft werden sollte, dürfte aber durchaus sinnvoll sein. Der beste Schutz vor Fake News ist ja bekanntlich immer noch die eigene Recherche und das kritische Hinterfragen von Informationen*.

*Hilfe dabei findet man unter anderem auf Mimikama.


Das könnte dich auch interessieren