Die Sozialen Medien sind ein Ort für rechtsextreme Propaganda geworden. Das Ziel: Junge Anhänger*innen anwerben.
„Nazis töten“ steht auf der Skimaske des schwarz gekleideten Aktivisten. Er sagt, es habe sich in letzter Zeit gezeigt, dass viele Aktivist*innen von Neonazis angegriffen wurden. Ein eingeblendeter Schriftzug beschreibt linke Aktivist*innen als „schw@ch“ (Zensur übernommen), „@gressiv“, „eins@m“. Später ertönt imposante Musik, während sporttreibende Männer ihre muskulösen Arme in die Kamera halten. Ein Mann hat das Erkennungszeichen der Hitlerjugend auf der Skimaske. Der „rightwing“ sei „sportlich“, „gesund“, „eine Gemeinschaft“ und „naturverbunden“.
38,8 Tausend Menschen haben das auf TikTok veröffentlichte Video geklickt, 4.424 (Stand 30.10.2022) davon gefällt es. In den Kommentaren ist viel Zustimmung zu finden. Eine Person schreibt: „So muss das“, eine andere stimmt zu, dass man keine Schwäche zeigen sollte. Einige Deutschlandfahnen-Emojis sind zu finden. Was hier stattfindet, ist die Verbreitung von rechter Propaganda auf Social Media.
Ob auf TikTok, Instagram, Twitter oder anderen Sozialen Netzwerken: Rechtsextremistische Inhalte häufen sich. Gegründet 2016, gilt TikTok als junges Netzwerk und gerät derzeit vermehrt in Kritik wegen rechter Inhalte, die auf der Plattform kursieren.
Es scheint, als hätten besonders rechtspopulistische und rechtsextremistische Creator*innen die Medienkompetenz, die es benötigt, um erfolgreich auf der Plattform zu werden. So ist die AfD die erfolgreichste Partei auf TikTok, wie Recherchen des funk-Formats DIE DA OBEN! und des Politikberaters Martin Fuchs ergaben.
Doch woher kommt das Interesse der rechten Szene an TikTok? Auf der Plattform sind laut Statista (Stand April 2022) monatlich allein circa 19,51 Millionen aktive Nutzer*innen in Deutschland, international erreichen sie nach einem Bericht des Mobile-Analytics-Unternehmens App Annie etwa 1,5 Milliarden Menschen. Theresa Lehmann arbeitet bei der Amadeu Antonio Stiftung zu den Themen Medienkompetenz gegen Desinformation und Hate Speech. Sie erklärt: „Rechtsextreme sind aus dem gleichen Grund auf TikTok, wie auch öffentlich-rechtliche Akteur*innen. Sie möchten Jugendliche erreichen und ihre Narrative verbreiten.“ Dabei setzen sie vor allem auf sogenannte Politfluencer*innen. „Kommunikation mit der Community, Nahbarkeit und persönliche Ansprache“ beinhaltet das Konzept. Jugendliche würden auf diese Weise abgeholt und fühlten sich durch die parasoziale Beziehung wertgeschätzt.
Strategisch würden sie zudem auf ihren Profilen eine Inszenierung ihres eigenen Lifestyles durch beispielsweise Vlogs nutzen. Aus genau dieser Inszenierung besteht ihr Content. Geld, Macht und Beliebtheit. Sie zeichnen ein erstrebenswertes Bild, das Jugendliche anlockt. Durch den direkten Austausch auf der Plattform wird das Gefühl vermittelt, die Creator*innen seien „ungefiltert und echt“, meint Theresa. Frauen filmen sich beim Backen und „träufeln nebenbei ein bisschen menschenfeindliche Propaganda in den Teig“, erzählt sie beispielhaft von Tradwives, die als „traditionelle Frauen“ die Stereotypen der Fünfzigerjahre in den sozialen Medien verbreiten.
Rabbit Hole – radikalisierender Kaninchenbau
Der Algorithmus sozialer Netzwerke wird stets gefüttert. Durch Liken, Speichern oder Kommentieren – die Plattform sammelt Daten, um schließlich Inhalte anzuzeigen, die den/die User*in ansprechen. Soziale Medien sind gewinnorientiert und somit interessiert daran, Nutzer*innen möglichst lange auf den Plattformen zu halten. Insbesondere emotional aufgeladenen Inhalte regen zum weiteren Konsumieren an. Zum einen sind es positive Emotionen, zum anderen aber auch Hass und Angst, die die Aufmerksamkeit der scrollenden Nutzer*innen auf sich ziehen. Durch audiovisuelle Effekte, wie Musik, aber auch spannende Edits verstärken sich die Emotionen. Der Algorithmus sorge für eine klare Radikalisierung. „Ein Sog ins ,Rabbithole’“, so beschreibt es Theresa. Sieht man sich beispielsweise ein Video mit frauenfeindlichem Inhalt an, ist der Weg nicht weit zu queer-feindlichen Inhalten. Wer sich einmal in den Kaninchenbau begibt, gräbt sich tiefer und tiefer in die Radikalisierung.
Der Untergang des herrschenden Systems sei oft Thema rechter Propaganda, so Theresa. Dabei werde ein Handlungsdrang vermittelt, der zu realen Taten anstiftet.
Konstantin Flemig, Journalist und Regisseur, beschäftigte sich im Rahmen seiner Recherche zur islamistischen Terrorgruppe ISIS genauer mit Gewaltdarstellungen auf Social Media. Eine Differenzierung der beiden Gruppen ist wichtig, jedoch lassen sich Parallelen erkennen. Beim Betrachten der Inhalte fällt auf: Ironie und Humor werden hier zur Fassade. Mit Hashtags wie „#joke“ und „#humor“ halten sie den Fuß in die Hintertür, sich stets bei ihrer Aussage auf Ironie berufen zu können. Hinter der Doppeldeutigkeit verstecken sich aber gewaltverharmlosende Inhalte. „Unterschwelliges ist gefährlich“, meint Konstantin zu dieser indirekten Art von Propaganda.
Jugendliche durch Socia-Media-Inhalte gefährdet
Laut einer Auswertung des Statistischen Bundesamtes im Jahr 2021 nutzen 78% der 16 bis 24 Jährigen die Sozialen Medien. Im Vergleich zu anderen Altersgruppen, beispielsweise den zu 36% vertretenen 45 bis 64-Jährigen, ist das eine Menge.
Allerdings sind auch Jüngere im Internet unterwegs: Ein Bericht der New York Times legt offen, dass 2020 knapp ein Drittel der gesamten Nutzer*innen auf TikTok unter 14 Jahre alt waren. Da stellt sich eine essentielle Frage: Wie werden diese vor rechtsextremen, gewaltverherrlichenden Inhalten geschützt? Konstantin und Theresa sind sich einig: Es müsse mehr und vor allem schneller gehandelt werden. Grundsätzlich können von mehreren Instanzen Schutzmaßnahmen veranlasst werden. Dazu gehören die Plattformen, die Landesmedienanstalten, aber auch demokratische Akteur*innen, die durch sogenanntes „Debunking“ Falschnachrichten als solche entlarven.
Bodil Diederichsen ist Rechtsreferentin bei der Medienanstalt Hamburg/Schleswig-Holstein (MA HSH) und befasst sich dort im Schwerpunkt mit dem Jugendmedienschutz. Sie erklärt: „Plattformen haben alle eigene Richtlinien, die weltweit gelten und bei Verstößen vor einer rechtlichen Überprüfung angewendet werden.“ Jede Plattform setze ihre Richtlinien nach einem unterschiedlichen Maßstab z.B. in Bezug auf den Tatbestand der Verharmlosung von nationalsozialistischen Handlungen. Das sei zum Teil dem Herkunftsland der jeweiligen Plattform geschuldet – so kenne das amerikanische Gesetz den deutschen Tatbestand der Holocaustleugnung nicht. Demnach seien bei den unterschiedlichen Plattformen die Hausregeln unterschiedlich formuliert und einige der rechtsextremen Inhalte würden nicht aufgrund der eigenen Richtlinien herausgefiltert. Rechtlich seien die Plattformen, in ihrer Rolle als “Hostprovider” nicht verpflichtet, alle Inhalte selbstständig stets auf ihre Rechtskonformität hin zu kontrollieren, sondern müssten nur ab Kenntnis, wie z.B. durch eine Meldung von Nutzer*innen, tätig werden. “Es bedürfte einer Gesetzesänderung, um die Plattformen zu einer eigenständigen Prüfung der bei ihnen hochgeladenen Inhalte zu bewegen. Gegen eine solche Entwicklung spricht jedoch, dass die Plattformanbieter dann stets proaktiv sämtliche Inhalte filtern und als Privatunternehmen ähnlich wie Richter gesetzeskonform bescheiden müssten”, ist die Rechtsreferentin der Meinung. “Gegenwärtig verdienen Netzwerke viel Geld mit neben den Inhalten auf ihren Plattformen geschalteter Werbung, sie sollten daher nach Meldungen rechtswidriger Inhalte zumindest schnell und umfassend ihrer Verpflichtung zum Löschen nachkommen”.
Auch Konstantin findet: „Wenn Druck von der Politik kommt, teure Klagen im Raum stehen oder ein Verbot von solchen Apps, dann könnten sie denken: ,Es ist günstiger, wenn da reguliert wird.’ Sie denken eben wirtschaftlich.“
Eine Hauptaufgabe der MA HSH ist das Aufspüren von rechtswidrigen Inhalten in privatem Rundfunk und Telemedien wie in sozialen Netzwerken und auf Websites. Das konkrete Ziel, so erklärt Bodil Diederichsen: Beiträge, die gegen den (Jugend-)Medienschutzstaatsvertrag verstoßen, zu löschen und deren Urheber zur Verantwortlichkeit ziehen. Als Hilfestellung gäbe es inzwischen ein KI-Tool, das mehrere tausend Websites pro Tag durchkämme. Im Anschluss müssten die Funde zwar noch durch Mitarbeiter der Medienanstalten überprüft werden, doch nehme die Software Arbeitsaufwand bei der Durchsuchung von Inhalten ab. „Im Jahr 2020 hat das KI-Tool 20.000 Fundstellen aufgespürt, davon waren 700 nach erneuter Kontrolle als volksverhetzend einzustufen”, berichtet sie. Bei Verstößen müsste die Telemedienaufsicht ein „Stufensystem der Verantwortlichkeit” ablaufen. Zunächst müsse gegen den „Contentprovider” vorgegangen und dieser zur jugendschutzkonformen Nachbesserung aufgefordert werden. Sei dieser nicht identifizierbar oder seien gegen den Contentprovider alle möglichen Verfahrensschritte erfolglos durchgeführt worden, werde die Plattform selbst als „Hostprovider” zum Löschen aufgefordert. Im letzten Schritt bestehe die Möglichkeit, Sperrungen von Webseiten über den „Accessprovider” also die Zugangsanbieter zum Internet, wie beispielsweise Vodafone und Telekom, durchzusetzen.“ Bis es zu einer Sperre kommt, dauert es also manchmal sehr lange”, so die Referentin.
Um Propaganda entgegenzuwirken, betreiben einige Akteur*innen bereits „Debunking“. Hier werden Falschnachrichten anhand von fundierter Recherche als solche entlarvt. Auch Theresa möchte mit ihrem Projekt „demo:create“ aufklären, wie man mit Hassrede und Desinformation auf TikTok umgeht. Und mit diesem Projekt ist sie nicht allein. Mittlerweile gibt es schon einige, die Gegenrede leisten. „Diese müssen gestärkt werden“, findet Theresa.
Zudem müssen die Maßnahmen über die Plattform bis hin in die Klassenräume reichen. „Datenschutz, Jugendschutz, Privatsphäre; Wie bewege ich mich sicher im Internet? Es wäre total wichtig, dass das jede Person in ihrer Schullaufbahn vermittelt bekommt“, meint Theresa. Der Wunsch nach einem Schulfach „Medienkompetenz“ sei schon sehr alt und mittlerweile ist sie leider pessimistisch geworden, dass dieses Fach zeitnah eingeführt wird. Dennoch ist es von immenser Bedeutung, präventiv aufzuklären und die Schüler*innen auf die Medienwelt vorzubereiten: „Manche Schulen holen sich bereits Medienpädagog*innen an die Schule”, erzählt Theresa. Allerdings könne dies auf lange Sicht nicht reichen und jede Schule müsse sich dem Thema Medien annehmen.
Ob konsequentes Entgegenwirken auf der Plattform oder die Medienkompetenz außerhalb der Plattform stärken – getan werden kann noch einiges. Social-Media-Inhalte wie das TikTok vom Anfang zeigen, wie notwendig das ist.