Gefangen in der Filterblase

Medien beeinflussen die Meinungsbildung maßgeblich. Aber was, wenn wir gar nicht mehr selbst bestimmen, was wir lesen, sondern ein Algorithmus? Das kann gravierende Folgen haben. Tobias Bayer und Sabrina Winter sind der Sache auf die Spur gegangen. 

Foto: Jonas Walzberg
Miriam Meckel, Chefredakteurin der Wirtschaftswoche, spricht auf dem BDZV-Zeitungskongress zum Thema Medienwirklichkeit.  Foto: Jonas Walzberg

Der Chatbot Tay ist eine fröhliche Teenagerin gewesen. Sie twitterte „Hallo Welt“ und fand Menschen „supercool“. Doch das änderte sich schnell. Innerhalb kurzer Zeit wurde sie zu einer rassistischen, sexistischen, selbstgerechten Fanatikerin, die ihre Verrücktheit in die Welt hinaus tweetete. Unter anderem schrieb sie auf Twitter: „bush did 9/11 and Hitler would have done a better job than the monkey we have now. Donald trump is the only hope we`ve got “. Tay lebte keine 24 Stunden. Microsoft schaltete sie aus, als sie sich antisemitisch äußerte. Denn Tay war ein Chatbot, der sich auf Twitter mit Menschen unterhalten hat. So wurde sie im Internet zur Rassistin sozialisiert.

Im Tunnel der Bestätigung

Bei Tay hat die Technik ihren Meinungsbildungsprozess unglaublich beschleunigt. Doch der Chatbot zeigt, was passiert, wenn man sich immer mit den gleichen Meinungen umgibt. Dann schafft sich jeder seine Wirklichkeit selbst. Miriam Meckel, Chefredakteurin der Wirtschaftswoche, referierte auf dem BDZV-Zeitungskongress zum Thema „Medienwirklichkeiten – Wie entstehen politische Weltbilder?“. Sie sagte: „Im Internet ist es nicht selbstverständlich, dass man sich mit Gegenargumenten auseinandersetzen muss.“ Das führe zu einem Tunnel der selbstverstärkenden Bestätigung.

Natürlich ist es angenehmer Artikel zu lesen, in denen die eigene Meinung bestätigt wird. Wer hat sich beim Stöbern in Facebook nicht schon mal gedacht: „Das ist ja wie für mich geschrieben. Was für ein Zufall, dass das ganz oben steht.“ Aber Zufall ist das nicht. Denn es wurde speziell für den jeweiligen Nutzer ausgewählt. Mithilfe von Algorithmen ist das für Unternehmen ein Kinderspiel. Dabei gibt es unterschiedliche Systeme. Etwa die Filterblase, bekannt und geprägt durch den US-amerikanischen Journalisten und Schriftsteller Eli Pariser. Dieses Konzept führt dazu, dass man immer wieder sehr ähnliche Informationen angezeigt bekommt, die man vorher geliked, geteilt hat. So ist eine Horizonterweiterung nahezu unmöglich.

Eine andere Möglichkeit ist die Unterteilung in Kästen, in denen Nutzer gruppiert werden. Meist überschneiden sich die Interessen der User inhaltlich. Dann kommen sie in den gleichen Kasten. Bei dieser Einteilung sind nicht alle an erster Stelle angezeigten Informationen für den Nutzer zwangsläufig interessant – auch wenn es im Idealfall so sein sollte. Unternehmen nutzen unterschiedliche Konzepte, um ihre Nutzer einzuordnen. Problematisch ist, dass kaum ein Unternehmen sein Konzept komplett durchleuchtbar machen möchte.

Die Mechanismen im Internet verstehen

Algorithmen verändern also die Meinungsbildung und damit die Entstehung politischer Weltbilder. Miriam Meckel sieht das kritisch: „Gerade jüngere Leute, die ihre Nachrichten zum großen Teil aus Facebook ziehen, erliegen dem Mechanismus, dass die eigene Meinung weiter gestärkt wird. Das führt zu Konsequenzen, mit denen wir uns auseinandersetzen müssen.“ Sie hält es für wichtig, dass Medien die Mechanismen des Internets verstehen und damit umgehen können. Denn die Verzerrungen im Internet können leicht falsche Mehrheiten widerspiegeln, so Meckel.

Das Gefährliche an der Filterblase ist: Wer einmal drin sitzt, will nicht mehr raus und lässt andere Meinungen kaum zu. Auch Nikolaus Blome, stellvertretender Chefredakteur bei Bild und Bild.de, findet den Trend problematisch: „Das Mediennutzungsverhalten mancher Gruppen der Bevölkerung ist so gepolt, sich nur noch im eigenen Silo zu unterhalten, zu informieren und informieren zu lassen. Das trägt zu einer inzestuösen Binnenkommunikation bei, die bestimmt keine breite Informiertheit produziert.“

Werden also alle mal wie Tay? Nicht unbedingt. Denn welche Nachrichten man konsumiert, kann am Ende jeder selbst steuern. Niemand muss sich etwas von einem Algorithmus vorschreiben lassen. Wichtig ist nur, sich dessen bewusst zu sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte gib eine gültige E-Mail-Adresse ein.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.