Auf TikTok sind seit einiger Zeit Videos zu sehen und am trenden, in denen Frauen, gekleidet im Stil der 50er Jahre, für ihre Partner backen und kochen. Was könnte daran schon weiter problematisch sein? Die Studienergebnissen des Projektes „Unlearning Anti-Feminism on TikTok“ zeigen: einiges. Denn hinter genau solchen scheinbar harmlosen Lifestyle-Videos verstecken sich auf TikTok — aber auch auf anderen Plattformen wie Instagram oder Snapchat — zunehmend antifeministische Rhetoriken und Narrative.
Besonders Jugendliche und junge Erwachsene sind für derartige Inhalte empfänglich und könnten sich den darin verbreiteten frauenfeindlichen Idealbildern und Ideen annehmen. Deswegen hat die Universität zu Köln gemeinsam mit dem Verein für politische Medienbildung mediale pfade zwischen Juni 2024 und Mai 2025 im Rahmen von „Unlearning Anti-Feminism on TikTok“ präventive Bildungsangebote für die Zielgruppe zwischen 15 und 25 Jahren entwickelt, welche diese in ihrer Handlungsfähigkeit stärken soll.
Die aus dem Projekt hervorgehenden Bildungsmaterialien sind kostenlos und frei zugänglich und basieren auf interdisziplinärer wissenschaftlicher Forschung und explorativen Interviewstudien mit Jugendlichen und jungen Erwachsenen. Das Material beinhalten 13 Module, vielfältige und flexibel einsetzbare Methodensets, ein Glossar zu themenrelevanten Begriffen und zwei Workshop-Konzepte für einen kompletten, sechsstündigen Workshop oder einen verkürzten, dreistündigen Workshop. Dadurch kann der Workshop sowohl in formalen Kontexten wie Schulen, Berufsschulen oder Hochschulen als auch in non-formalen Bildungskontexten wie Vereinen oder Initiativen mit zeitlich beschränkten Möglichkeiten eingesetzt werden.
Neben den oben genannten Bildungsmaterialien hat das Projekt zudem 10 empirisch fundierte Handlungsempfehlungen formuliert. Diese richten sich in erster Linie an Lehr- und pädagogische Fachkräfte, können aber auch in der Elternarbeit oder bei der Medienbildung innerhalb der Familie oder des Bekanntenkreises eingesetzt werden.
Im Kern der Handlungsempfehlungen stehen drei Prinzipien: Kontextualisierung, Sensibilisierung und Mobilisierung. Danach müssen Lehrkräfte antifeministische Inhalte in den sozialen Medien erst einmal in den gesamtgesellschaftlichen Kontext einordnen. Gerade Diskurse aus dem rechten Spektrum wirken häufig polarisierend und emotionalisierend, was oft den kritischen Blick auf die realen Konsequenzen von antifeministischen Inhalten online trübt. Man muss auf die persönlichen Perspektiven und Wahrnehmungen der Schüler*innen eingehen, zur Reflexion des eigenen Verhaltens und Mediennutzungsverhalten online anregen und womöglich vorhandene problematische Sichtweisen dekonstruieren und aufarbeiten, ohne Schüler*innen persönlich dafür zu verurteilen. Bei diesem Reflexionsprozess können auch die Unterrichtseinheiten „Dein Medienalltag im Internet“ (30 Min.) und „Wie verhalte ich mich im Netz?“ (15 Min.) von Medien in die Schule helfen. Die Materialien führen Schüler*innen mit gezielten Fragen durch ihren eigenen Medienalltag und animieren zum Überdenken des eigenen Verhaltens in gängigen Risikoszenarien im Netz. Zudem können die Einheiten „Was ist gruppenbezogene Menschenfeindlichkeit?“ (35 Min.) und „Was ist Hate Speech?“ (20 Min.) Lehrkräfte bei der Erklärung dieser beiden übergeordneten Problematiken, die eng mit Antifeminismus in Wechselwirkung stehen, unterstützen und das Phänomen von Frauenfeindlichkeit weiter in das große Gesamtbild eingliedern.
Jugendliche und junge Erwachsene müssen für die Erkennungsmerkmale von antifeministischen Inhalten sensibilisiert werden. Nur so können sie tatsächliche Lifestyle-Videos von solchen mit versteckten Codes oder unterschwelliger frauenfeindlicher Rhetorik unterscheiden. So ist die 1950er-Ästhetik des zu Beginn beschriebenen Videos in Kombination mit dem starken Fokus auf die traditionelle Hausfrauenrolle beispielsweise ein klarer Indikator für das sogenannte antifeministische „Tradwife“-Genre. Neben spezifischen antifeministischen Codes kann darüber hinaus auch ein breiteres Verständnis von diskriminierenden Darstellungsformen im Internet hilfreich sein. Die Einheit „Mediale Stereotypen“ (25 Min.) geht auf eine Vielzahl solcher Stereotypen ein, während „Inszenierung von Influencer*innen“ (25 Min.) genauer auf die Rolle von Influencer*innen bei der Verbreitung von Gedankengut und Trends und deren Glaubwürdigkeit eingeht.
Darüber hinaus sollten Schüler*innen Antifeminismus nicht nur erkennen können, sondern es müssen aktiv Handlungs- und Diskursstrategien dagegen an sie vermittelt werden. Dabei ist es aber auch wichtig zu betonen, dass es durchaus legitim ist, sich von Diskussionen zu distanzieren, wenn diese keinen Raum für konstruktiven Diskurs bieten oder Grundrechte in Frage gestellt werden. Die Einheit „Wie kann ich mit Hate Speech umgehen?“ (45 Min.) befasst sich mit solchen Strategien gegen Hate Speech im Allgemeinen. Des Weiteren zeigen die Einheit „Wie kann ich demokratisch mitgestalten?“ (45 Min.) und das Modul „Ich im Netz und in der Gesellschaft“ nicht nur individuelle, sondern auch gemeinschaftliche, politische Handlungsmöglichkeiten auf und regen zur Vorstellung einer idealen Netzkultur an. Denn es ist wichtig, dass Jugendliche und junge Erwachsene wissen, dass es reell umsetzbare Alternativen zum derzeitigen Status Quo des Internets gibt, welche sie aktiv mitgestalten können.
Unter dem Hashtag #straßenumfrage finden sich bei TikTok derzeit 2,8 Billionen Beiträge und auch auf YouTube verzeichnen entsprechende Kanäle hohe Zahlen an Abonnent*innen. Während solche Formate im Fernsehen und Radio schon lange fest etabliert sind, können Straßenumfragen in den sozialen Medien laut einer Analyse von jugendschutz.net ein Einfallstor für Hate Speech und Diskriminierung sein. Abwertende Aussagen werden oftmals mit mehr Klicks „belohnt“ und somit von einigen Content-Creator*innen bevorzugt in ihre Beiträge eingebaut. Die Befragten werden somit häufig auch selbst zur Zielscheibe von Cybermobbing und Belästigung online.
Gerade auf junge Menschen können solche Formate anziehend wirken, da sie so leicht Teil der Beiträge ihrer Lieblings-Influencer*innen werden und Anerkennung in ihrer Peergroup gewinnen können. Außerdem ist es wahrscheinlicher, dass Kinder und Jugendliche Creator*innen auf der Straße erkennen als Erwachsene. Deshalb filmen manche Influencer*innen gezielt an Orten, an denen sich Kinder und Jugendliche gerne aufhalten. Sie wollen deren spontane, ungefilterte Reaktionen und unüberlegte Aussagen und Handlungen festhalten, selbst wenn diese diskriminierende oder hassschürende Bemerkungen beinhalten. Später gestalten sie ihre Videos zusätzlich durch Schnitttechniken, reißerische Thumnails, Beitragstitel und nachträglich hinzugefügte Kommentare noch „unterhaltsamer“, um ihre Klicks bzw. die Reichweite und Sichtbarkeit ihre Inhalte auf Kosten der Betroffenen zu maximieren.
Anders als in herkömmlichen Umfrage-Settings ist in den sozialen Medien jedoch im Nachhinein schwerer nachweisbar, ob die Befragten zum Interview zugestimmt haben, überhaupt alt genug zum Erteilen ihres Einverständnisses sind oder ob Inhalte im Nachgang manipuliert worden sind. Dennoch führt die bloße Teilnahme an Straßenumfragen in den Kommentarspalten unter den Videos oftmals zu Beleidigungen und diskriminierenden Bemerkungen, etwa bezogen auf den Bildungsstand, vermeintlichen Migrationsstatus oder anderweitiger Gruppenzugehörigkeit der Befragten. Da diese in einigen Videos zudem ihre persönlichen Daten preisgeben (z. B. die Profilnamen ihrer Social-Media-Accounts), können solche Kommentare zu langfristigem Cybermobbing ausarten.
Bei der Aufbereitung der Themenkomplexe „Hass im Netz“ und „Cybermobbing“ für den Unterricht können folgende Materialien helfen:
Ob in einem Zeitungsartikel, einem Social-Media-Post oder einer privaten Nachricht: Extremistische Ideen und Hassrede können sich überall „verstecken“. Aus diesem Grund hat sich jugendschutz.net — das Kompetenzzentrum für den Schutz von Kindern und Jugendlichen im Internet — im Jahr 2024 mit zwei Wegen beschäftigt, die verschiedene extremistische Gruppierungen zur Verbreitung ihrer Ideologien nutzen. Zum einen untersuchten sie, wie Rechtsextremist*innen in Discord-Communities aktiv werden. Dort streuen sie in Servern zu unverfänglichen Themen, wie dem Austausch über Hobbys oder gemeinsame Interessen, ihr Gedankengut unter Kindern und Jugendlichen. Zum anderen werteten sie die Social-Media-Posts von islamistischen Influencer*innen aus. So konnten gängige Formate identifiziert werden, welche diese zur Rekrutierung von jungen Menschen nutzen. Insgesamt war das Ziel beider Untersuchungen herauszufinden, wie sich Extremismus unter Kindern und Jugendlichen verbreitet und weswegen diese Inhalte bei jungen Menschen aktuell auf so große Resonanz stoßen.
Zuerst ist es wichtig zu verstehen, dass nicht alle Inhalte, die sich mit dem Islam befassen, extremistisch oder hassverbreitend sind. Oft wollen Muslim*innen online mit ihren Accounts nur über ihre Religion aufklären, mit Vorurteilen aufräumen, ihre persönlichen Erfahrungen mit dem Islam teilen oder junge bzw. konvertierte Muslim*innen auf nützliche Ressourcen aufmerksam machen. Doch Islamist*innen nutzen genau diese aufklärenden Kanäle als eine Art Deckmantel. Sie reihen sich vermeintlich ein, um ihre tatsächlichen Absichten zu tarnen.
Obwohl sie nur eine Minderheit unter den Muslim*innen darstellen, präsentieren sich islamistische Influencer*innen als Ansprechpersonen, Vordenker*innen und Interessenvertreter*innen aller Muslim*innen. Dabei kann in erster Linie zwischen zwei Arten von Islamist*innen unterschieden werden: den Salafist*innen, welche sich die Rückkehr zu unzeitgemäßen, strengen Sitten und Regeln der islamischen Frühzeit wünschen, und den politisch-aktivistischen Islamist*innen. Diese propagieren die Ideen der in Deutschland verbotenen radikalen Bewegung Hizb-ut Tharir und den Wunsch nach einem globalen islamistischen Kalifat. Beide Gruppen nutzen die sozialen Medien aktiv, um potenzielle neue Anhänger*innen von ihren Ansichten zu überzeugen und für sich zu gewinnen.
Die Mehrheit der islamistischen Accounts wird von Männern betrieben, die wiederum ebenso in erster Linie muslimische Jungen ansprechen. Allerdings gibt es durchaus weibliche islamistische Influencerinnen und Rezipientinnen. Diese Influencer*innen versuchen oft modern und modisch zu wirken. Sie verlosen beispielsweise Merchandise, um bei ihrer jungen Zielgruppe gut anzukommen und ihre Reichweite zu erhöhen. Anschließend nutzen sie ihren Influencer*innenstatus aus, um ihre Follower*innen dazu zu manipulieren, bedenkliche Inhalte und Hass zu verbreiten.
Jugendliche erreichen sie vor allem dadurch, dass sie konkret Themen aus deren Lebenswelt ansprechen und Orientierung ihnen bieten. In die Antworten auf Fragen Heranwachsender werden gezielt islamistische Ideen von ihnen eingewoben. So formulieren sie beispielsweise ihre frauenfeindlichen Ansichten oft als Antworten auf Fragen zu Liebe und Partnerschaft. Sie stellen etwa die Unterwerfung der Frau als eine notwendige Voraussetzung für eine langfristige Beziehung dar. Auch queere Beziehungen und Transidentitäten werden strikt von ihnen abgelehnt. Inhalte der LGBTQ+ Community und Informationen zu sexueller und geschlechtlicher Vielfalt werden als Propaganda des Westens gegen die islamischen Werte bezeichnet und abgewertet.
Generell versuchen solche Akteur*innen ein falsches, negatives Bild von Deutschland zu konstruieren und einen „Islamischen Staat“ im Kontrast als idealen Staat darzustellen. Dafür verzerren und verfälschen sie systematisch Inhalte und verbreiten gezielt Desinformation. Eine populäre Strategie ist, reale rassistische oder diskriminierende Ereignisse, die Jugendlichen Sorgen bereiten, als Teil einer fiktiven „anti-muslimischen Zwangsassimilation“ durch den deutschen Staat zu interpretieren. Dadurch soll in den Jugendlichen Misstrauen und Unsicherheit gegenüber Deutschland gesät werden.
Häufig werden auch andere Religionen konsequent abgelehnt. Besonders Juden*Jüdinnen werden als Feindbild betrachtet und sind oftmals das Ziel von Hate Speech. So missbrauchen Islamist*innen Fotos und Videos aus Gaza für ihre politischen Zwecke. Bilder von Kriegs- und Gewalthandlungen werden genutzt, um jüdischen Menschen einen allgemeinen Hass auf alle Muslim*innen zu unterstellen. Aus der Perspektive des Jugendmedienschutzes ist es zudem problematisch, wenn Kinder und Jugendliche mit diesen drastischen Bildern konfrontiert werden, weil diese traumatisierend und verstörend wirken können.
Prinzipiell ist es nicht problematisch, wenn sich Kinder und Jugendliche über soziale Medien und Messenger-Dienste untereinander vernetzen, Kontakte knüpfen und Freund*innen finden. Vor allem junge Menschen, denen dies sonst schwerfällt, können davon profitieren. Discord ist eine der Plattformen, die häufig dafür genutzt wird.
Allerdings zielen diese Communities in bestimmten Servern darauf ab, Kinder und Jugendliche gezielt für extremistische und antidemokratische Gruppierungen zu rekrutieren und zur Annahme von radikalem Gedankengut zu „groomen“. Vor allem thematisch passende Server wie zum Interessensgebiet „Geschichte“ oder zu Videospielen, die im Zweiten Weltkrieg oder zur Zeit des Nationalsozialismus angesiedelt sind, werden oft zur Verbreitung rechtsextremer Ideologien genutzt. Die Unerfahrenheit der Kinder und Jugendlichen wird dabei gezielt ausgenutzt, um sie emotional zu manipulieren. Zum einen greifen viele Rechtsextremist*innen dabei auf Komplimente und den persönlichen Austausch zurück. So soll Nähe geschaffen werden , aber auch Schuld und Scham geweckt werden, wenn Heranwachsende nicht gemeinsam mit den Rechtsextremist*innen an deren Aktionen teilnehmen oder deren Erwartungen erfüllen. Auf diese Weise werden junge Menschen langfristig zu immer extremeren Handlungen gedrängt. Oft geben sich erwachsene Extremist*innen auch als Gleichaltrige aus, um das Vertrauen von Kindern und Jugendlichen zu gewinnen.
Zum Teil findet dieses „extremistische Grooming“ im ersten Schritt in öffentlichen Communities statt, in denen gezielt nach vulnerablen Kindern und Jugendlichen gesucht wird. Wenn ein*e Nutzer*in als potenzielles neues Mitglied der Gruppierung in Betracht gezogen wird, nehmen die Extremist*innen anschließend meist über private Nachrichten Kontakt auf, statt sich öffentlich im Server dazu zu äußern. Da dieser Austausch hauptsächlich im Verborgenen stattfindet, spricht man auch von „Dark Social“. Außenstehende wie Eltern, Freund*innen und Bekannte bleiben über diese manipulative Kommunikation „im Dunkeln“. Nur in sogenannten „Fringe Communities“ bzw. „Rand-Communities“, welche ausschließlich aus Extremist*innen bestehen, werden Betroffene auch im Gruppensetting indoktriniert. Verschiedene serverspezifische Nutzer*innen-Rollen können zusätzlich verwendet werden, um Hierarchien innerhalb der Gruppe herzustellen und junge Menschen zur weiteren Radikalisierung zu animieren.
Um diesem systematischen Säen von Misstrauen und Hass entgegenzuwirken, ist es wichtig Jugendliche für diese Taktiken zu sensibilisieren. Damit extremistische Ideen nicht weiterverbreitet werden. Außerdem ist es notwendig, junge Menschen dazu zu befähigen, konstruktiv auf derartige Inhalte zu reagieren und andere auf Desinformation und Hate Speech aufmerksam zu machen. Medien in die Schule und weitklick stellen dazu einige Materialien bereit, um diese Kompetenzen im Unterricht zu erlernen und zu stärken: