Seit 1999 führt der Medienpädagogische Forschungsverbund Südwest regelmäßig die KIM-Studie durch, bei der er den Medienalltag von Kindern zwischen 6 und 13 Jahren erfasst. Im vergangen Jahr befragte der Verbund 1.219 Kinder aus ganz Deutschland, sowie deren primären Erziehungsberechtigten, zu ihrer Mediennutzung, Problemen und Gefahren beim Umgang mit Medien und zu Regelungen und Jugendschutzmaßnahmen innerhalb der Familie.
Dabei wurde auch ein Augenmerk auf den Einsatz von Medien in der Schule und zu Hause als Vorbereitung für den Unterricht, sowie auf die Bedeutung und Funktion von Bildungsinstitutionen für die medienpädagogische Entwicklung der Kinder gelegt. Obwohl sich mit 78% der Großteil der Eltern selbst ebenfalls in der Verantwortung für die Medienerziehung ihres Kindes sieht, schätzen sie die Schule mit 83% als noch wichtiger ein. 79% aller Erziehungsberechtigten fordern sogar Medienkompetenz als festes Schulfach.
Mit der steigenden Prävalenz von Smartphones und Handys im Alltag wächst auch der Anteil an Kindern mit einem eigenen Mobiltelefon stetig. Mehr als die Hälfte aller 6- bis 13-Jährigen besitzen nun entweder ein eigenes Gerät oder haben freien Zugang zu einem. Zwar werden klassische Freizeitaktivitäten wie das Treffen mit Freunden, das Spielen draußen oder Sport treiben immer noch von den meisten Kindern bevorzugt, jedoch wird ein immer größerer Teil der eigenen Zeit Medien gewidmet. Mit 71% steht das Handy damit als Lieblingsgerät weit vorne, gefolgt vom Tablet (56%) und dem Fernseher (53%). Auch digitale Spiele und das Internet gehören zu den liebsten medialen Beschäftigungen von Kindern.
Da Smartphones portabel sind, folgen sie den Kindern im Gegensatz zu Konsolen oder Fernsehern überall hin: auch in die Schule. Mit 85% ist die Schule der zweithäufigste Ort, an den Kinder ihr Handy regelmäßig mitnehmen. Auch wenn das Handy während der Pausen bei den meisten Kinder in der Tasche bleibt, nutzt es jedes Fünfte täglich auf dem Schulweg. Selbst zu Hause sind Handys und Laptops für den Schulalltag wichtig. 58% aller Kinder sind Mitglied einer Klassengruppe, in der sie sich mit Klassenkameraden austauschen und über Hausaufgaben und Neuigkeiten informieren können. Solche Gruppen sind zentral für die Schullaufbahn geworden und werden sogar von der Mehrheit der Eltern als wichtig empfunden. Die Hälfte der Erziehungsberechtigen ist sogar der Meinung, es wäre ein Nachteil für ihr Kind, wenn es kein Teil einer solchen Gruppe wäre. Zudem nutzen viele Kinder das Internet für die Recherche von Themen für den Unterricht, das Schreiben von Texten, für Lernprogramme oder das Verfolgen von Nachrichten und Berichterstattungen.
Auch in der Schule selbst wird vermehrt auf digitale Strategien gesetzt: Rund ein Fünftel der Schulen ist mit Whiteboards oder Smartboards, Computern oder Laptops, Tablets und/oder Handys ausgestattet. In höheren Klassenstufen werden auch vermehrt Schulclouds und -messenger eingesetzt, auf die oft auch von zu Hause zugegriffen werden kann. Unter anderem werden diese Medien und Geräte für Recherche oder das Gucken von Filmen oder Videos für den Unterricht verwendet.
Laut der Studie darf knapp die Hälfte der Kinder das Internet selbstständig und ohne Aufsicht nutzen. Jedoch setzen nur wenige Haushalte auf technische Jugendmedienschutzangebote wie Filtersoftwares, Schutzprogramme oder spezielle Einstellungen und Benutzerkonten für Kinder. Ein Drittel der Eltern ist ebenso der Meinung, dass ein Programm allein ausreicht, um ihr Kind im Internet zu schützen und keine weitere persönliche Betreuung mehr nötig ist.
Das führt dazu, dass Kinder beim Spielen oder bei der Recherche im Internet auf Inhalte stoßen, die nicht für sie geeignet sind. 12% der Kinder sind schon einmal auf Inhalte gestoßen, für die sie entweder zu jung waren, die ihnen Angst eingeflößt haben oder ihnen unangenehm waren. Dazu zählen z.B. Gewaltdarstellungen, Pornografie, problematische Werbungen oder extremistische Inhalte. Vor allem Mädchen begegnen häufig sexualisierten und erotischen Inhalten, die für ihr Alter unangemessen sind.
Laut Eltern sollen Kinder im Schulfach Medienkompetenz deswegen lernen, Risiken und problematische Situationen im Internet zu erkennen und mit ihnen umzugehen. Ein hilfreiches Angebot dazu ist das Modul „Jugendmedienschutz im Internet“ von Medien in die Schule, in dem Kinder mit möglichen Risikosituationen und ungeeigneten Inhalten vertraut gemacht werden.
Zu den Problemen im Internet zählen unter anderem Cybermobbing und Cybergrooming: So gab ein Viertel der Schüler*innen an, dass mindestens ein*e Mitschüler*in aus ihrer Klasse aus der Klassengruppe ausgeschlossen wurde, weil sie oder er zu unbeliebt sei. Weitere 6% sagten aus, dass sie im Internet schon einmal eine unangenehme Bekanntschaft gemacht haben, die Hälfte davon sogar mehrmals. Jedes zehnte Kind hatte auch im Freundeskreis schon einmal Probleme, weil peinliche Fotos oder Videos oder sogar Nacktfotos und Pornos verbreitet wurden. Auch Gerüchte über Personen im sozialen Umfeld beeinflussen Kinder stark negativ. Das Modul „Kommunikation im Netz“ soll bei der Orientierung im Internet und der Bewältigung schwerer Situationen helfen, sowie Kindern den korrekten Umgang mit anderem im Netz beibringen. Des Weiteren lehrt die Einheit „Hass in der Demokratie begegnen“, wie man Hate Speech und Extremismus im Internet erkennen kann und beleuchtet deren Konsequenzen, um Kinder vor negativen Nachrichten und Kommentaren und gewaltverherrlichenden und extremistischen Inhalten zu schützen.
Durch den vermehrten Gebrauch von digitalen Medien in der Schule stehen Lehrkräfte immer stärker in der Verantwortung für die mediale Sicherheit ihrer Schüler*innen. Angebote wie Medien in die Schule sollen Lehrer*innen und Pädagog*innen dabei unterstützen, die Medienbildung von Kindern in Zusammenarbeit mit den Erziehungsberechtigten zu fördern.
Im digitalen Zeitalter stellt Desinformation eine wachsende Herausforderung dar — sowohl in der Schule als auch zu Hause. In einer aktuellen Umfrage gaben 57 Prozent der Eltern in Deutschland an, besorgt zu sein, dass ihre Kinder im Internet mit Desinformation konfrontiert wird. Eine enge Zusammenarbeit zwischen Lehrkräften und Eltern ist deswegen von entscheidender Bedeutung, um die Medienkompetenz von Kindern und Jugendlichen nachhaltig zu stärken.
Das Blended-Learning-Fortbildungsprogramm weitklick unterstützt Lehr- und pädagogische Fachkräfte deswegen nicht nur dabei, das Thema Desinformation für den Unterricht aufzubereiten, sondern bietet ab sofort auch umfangreiche Ressourcen für eine engere medienpädagogische Elternarbeit an. Dazu gehören eine bundesweite Liste von Anlaufstellen, ein Materialpaket zur Durchführung eines Elternabends zum Thema Desinformation und ein Blogbeitrag von Dr. Sophie Reimers (Eltern-Medien-Beratung bei der AKJS Brandenburg) mit konkreten Praxistipps für Lehrkräfte zur Elternarbeit.
Durch die Übersicht an Anlaufstellen und medienpädagogischen Projekten sollen Lehrkräfte leichter Zugang zu professioneller Unterstützung und Expert*innen finden. Diese können unter anderem als Referent*innen zu Elternabenden eingeladen werden. Weiterhin stellt das Materialpaket alles bereit, was für einen solchen Elternabend benötigt wird, von einer Präsentation über einem Ablaufplan, Skript, Elternbrief, Handout und bis hin zu einer kurzen Videoreihe. Der Blogbeitrag „Mit den Eltern gemeinsam gegen Desinformation – 8 Tipps wie Sie Eltern erreichen“ bietet darüber hinaus einen Überblick über wichtige Punkte, die bei der Kommunikation mit Eltern für eine reibungslose Zusammenarbeit beachtet werden müssen. Des Weiteren können auch die bereits bestehenden Materialien von weitklick nach der Zielgruppe „Eltern“ gefiltert werden. All diese Ressourcen sollen gemeinsam zu einer produktiven und wirksamen Elternarbeit beitragen.
Die aktuelle forsa-Studie für 2023 liefert neue Erkenntnisse über die Prävalenz von Hate Speech im Internet. Dieses Jahr wurden für die Studie 1.006 deutschsprachige Internetnutzer*innen ab 14 Jahren in Deutschland befragt. Die Studie wurde von der Landesanstalt für Medien NRW in Auftrag gegeben und vom Meinungsforschungsinstitut forsa durchgeführt.
Die Ergebnisse der Studie zeigen, dass Hate Speech weiterhin ein drängendes Problem darstellt, das Maßnahmen erfordert. Die Ergebnisse der Umfrage verdeutlichen dies: 76% der Befragten gaben an, bereits mit Hasskommentaren konfrontiert worden zu sein. 37% gaben zudem an, sogar häufig oder sehr häufig auf Hate Speech zu stoßen und 24% sagten aus, selbst schon einmal Opfer solcher Kommentare geworden zu sein.
Die Studie identifiziert bedeutende Unterschiede in Bezug auf das Alter der Befragten. Personen unter 45 Jahren nahmen Hate Speech besonders häufig wahr, insbesondere Kinder, Jugendliche und junge Erwachsene zwischen 14 und 24 Jahren. Etwa 90% dieser Altersgruppe berichteten, schon einmal mit Hate Speech in Kontakt gekommen zu sein. Im Vergleich machten im Schnitt nur 67% der Befragten im Alter von über 45 Jahren ähnliche Angaben. 14- bis 24-Jährige sind mit 39% ebenfalls am häufigsten selbst von Hate Speech betroffen. Ein signifikanter Unterschied zwischen den Geschlechtern konnte jedoch wie in den Vorjahren nicht nachgewiesen werden.
Unabhängig vom Alter hielten 57% aller Befragten Politiker*innen für am meisten von Hasskommentaren betroffen, gefolgt von Menschen mit anderen politischen Ansichten mit 48%. An dritter Stelle standen Geflüchtete mit 42%. Unter 25-Jährige nannten außerdem noch Mitglieder der LGBTQ-Community und Frauen und Menschen, die dem gängigen Schönheitsideal nicht entsprechen, als wiederholte Ziele von Hate Speech. Die älteren Altersgruppen sind hingegen der Meinung, dass Menschen mit Migrationshintergrund besonders oft Opfer von Hasskommentaren werden.
Immer weniger Leute halten es mittlerweile für Zeitverschwendung, sich mit Hasskommentaren zu beschäftigen. 40% aller Befragten gaben an, sich schon einmal näher mit Hasskommentaren befasst zu haben — ein neuer Höchstwert. Auch ältere Menschen beschäftigen sich zusehends mit dem Thema. Des Weiteren haben 30% der Befragten bereits selbst einen Hasskommentar gemeldet, während 25% schon einmal kritisch auf einen solchen Kommentar geantwortet haben.
Als effektivste Maßnahme gegen Hate Speech nennen drei Viertel der Befragten die strafrechtliche Verfolgung von Verfasser*innen, dicht gefolgt von der Löschung von hasserfüllten Beiträgen (71%) und der Moderation von Inhalten durch professionelle Moderatoren (60%). Auch das Melden beim Seitenbetreiber oder bei einer unabhängigen Meldestelle sah die Mehrheit mit 58% als gleichermaßen sinnvoll an. Weniger wirksam erschien vielen das Erstellen einer Netiquette oder das direkte Antworten auf Hasskommentare.
Auch die Einstellung gegenüber der Effektivität verschiedener Maßnahmen unterscheidet sich leicht zwischen den Altersgruppen. Während die über 60-Jährigen mit 76% stark von der Wirksamkeit des Löschens von Inhalten überzeugt sind, sind es die unter 25-Jährigen mit 57% eher weniger. Im Gegenzug sind die älteren Altersgruppen jedoch vergleichsweise etwas weniger von der professionellen Moderation von Inhalten oder dem Melden bei Seitenbetreibern überzeugt.
Die Ergebnisse der forsa-Studie verdeutlichen, dass Hate Speech im Internet weiterhin stark verbreitet ist und immer mehr Menschen davon betroffen sind. Sie zeigen jedoch auch, dass die Sensibilisierung für das Thema zunimmt und eine wachsende Anzahl an Menschen Maßnahmen gegen Hasskommentare ergreift. Um jedoch effektiv gegen Hate Speech vorgehen zu können, ist es wichtig, ausreichend über das Thema informiert zu sein.
Der neue Online-Kurs „Desinformation & Hate Speech“ von weitklick — Das Netzwerk für digitale Medien- und Meinungsbildung erklärt, wie die beiden Phänomene Desinformation und Hate Speech im Internet zusammenhängen, sensibilisiert für die damit verbundenen individuellen und gesellschaftlichen Herausforderungen und zeigt Lehrkräften, wie sie die Themen im Unterricht einbringen können.
Die Unterrichtseinheit „Hass in der Demokratie begegnen“ von Medien in die Schule greift in vier Modulen die Erfahrungen und Begegnungen (im Netz) der Schüler*innen mit Rechtsextremismus, gruppenbezogener Menschenfeindlichkeit und Hate Speech auf, um Hintergründe und Zusammenhänge zu beleuchten sowie konkrete Reaktions- und Handlungsmöglichkeiten zu erarbeiten. Die Einheit beinhaltet Arbeitsblätter und Ideen für den Unterricht, wie z.B. für Gruppenarbeiten oder Diskussionen.
Die Initiative WAKEUP! — ein gemeinsames Projekt von Telefónica Deutschland, der FSM und weiteren Partnern hat neue Unterrichtsmaterialien zu den Themenbereichen „Digitale Gewalt“ und „Cybergrooming, Belästigung und Erpressung“ erstellt. Dieses soll Lehrkräfte dabei unterstützen, das Thema Cybermobbing und weitere Formen von digitaler Gewalt in der Schule zu behandeln. Ziel ist es nicht nur, ein größeres Verständnis für die verschiedenen Arten von Cybermobbing und deren Auswirkungen zu entwickeln. Schüler*innen sollen auch dazu ermutigt werden, sich aktiv gegen Cybermobbing einzusetzen und sich in Notsituationen Hilfe zu suchen.
Das neue Unterrichtsmaterial eignet sich für die Klassenstufen 6–9 und ist komplett kostenfrei. Es stellt eine Ergänzung zu dem bisher veröffentlichten Material von WAKEUP! dar. Sämtliche Materialien lassen sich auf der Webseite von WAKEUP! finden. Die Initiative WAKEUP! von o2 wird umgesetzt in Zusammenarbeit mit der FSM, der Bildungsagentur YAEZ und weiteren Partnern, u.a. der Cybermobbing-Hilfe e.V.
Die bereits erschienenen drei eduStories mit den Themenschwerpunkten „So erkennst du Cybermobbing“, „Cybermobbing: Mobben, Haten & Trollen“ und „Cybermobbing: So kannst du dich wehren!“ wurden durch zwei neue Einheiten ergänzt.
Die eduStory „Digitale Gewalt“ bietet eine Übersicht über die Themen der vorherigen eduStories und fasst die darin behandelten Phänomene wie Cybermobbing, Hate Speech und Trollen unter dem Überbegriff „digitale Gewalt“ zusammen. Es verschafft einen Überblick über die verschiedenen Formen, Erscheinungsweisen und Ursachen von digitaler Gewalt und liefert erste Lösungsansätze und Anlaufstellen.
Die zweite Einheit „Cybergrooming, Belästigung und Erpressung“ hingegen beschäftigt sich konkret mit drei weiteren Formen von digitaler Gewalt. Sie geht näher auf deren Besonderheiten und Risiken ein und darauf, wie man solche Situationen erkennen und sich davor schützen kann.
Des Weiteren wurde ein digitales Tafelbild entworfen, welches die Inhalte der fünf eduStories auffrischen und festigen soll. Das Tafelbild wurde als eine fertige Unterrichtsstunde von 45 Minuten konzipiert und kann ohne große Vorbereitung oder zusätzliche Ressourcen verwendet werden. Nur ein Beamer und eine Leinwand bzw. eine digitale Tafel werden zur Durchführung benötigt. Schüler*innen müssen über keine eigenen Endgeräte verfügen.
Die Unterrichtsstunde beinhaltet die Wissensanteile der eduStories, bietet jedoch zusätzlich noch die Möglichkeit zum Austausch innerhalb des Klassenverbandes. Schüler*innen können ihre Eindrücke und Gefühle zu den verschiedenen Formen von digitaler Gewalt äußern und zusammen Lösungsansätze und Handlungsmöglichkeiten diskutieren.
Zusätzlich zu den eduStories und dem digitalen Tafelbild stellt WAKEUP! noch weiteres Zusatzmaterial bereit. Unter anderem befinden sich darunter zwei weitere Entwürfe für Unterrichtsstunden, in denen Schüler*innen entweder ein Poster zum Thema „Faires Miteinander im Netz“ designen können oder sich nochmal gezielt mit der eduStory 5 über Cybergrooming & Co. auseinandersetzen können. Außerdem findet sich dort auch eine sechsteilige Webserie zum Thema Cybermobbing, welche gemeinsam anhand der vorgefertigten Aufgaben behandelt und besprochen werden kann, sowie eine Liste an Hilfs- und Beratungsstellen.
Seit sie im November 2022 von der US-amerikanischen Firma OpenAI veröffentlicht wurde, hat die Textgenerierungs-KI ChatGPT (Chat Generative Pre-trained Transformer) sowohl in den Nachrichten als auch in den sozialen Medien für viel Aufruhr gesorgt. Zwar sind das Konzept und die Technologie, die hinter ChatGPT stecken, nichts Neues — Chatbots und KI-Textgenerierung stehen der Öffentlichkeit schon seit einigen Jahren zur Verfügung — jedoch sticht ChatGPT dadurch hervor, dass sie für eine kostenfreie Anwendung weitaus ausgereifter ist als ihre Konkurrenz. Und dass, obwohl es sich bei der derzeitigen Version von ChatGPT nur um eine Testversion handelt, die kontinuierlich anhand von Nutzerbeiträgen und -interaktionen verbessert wird.
Doch wie funktioniert eigentlich künstliche Intelligenz und was steckt hinter Anwendungen wie ChatGPT? Mit unserer Unterrichtseinheit „Machine Learning. Intelligente Maschinen„ können Schüler*innen die Themen KI und Machine Learning nachvollziehen und verstehen lernen. Lehrende erhalten in flexibel einsetzbaren Unterrichtsmodulen Informationen, vielfältige Methoden und Praxisanregungen rund um KI für den Unterricht. Vorkenntnisse sind dabei nicht nötig. Ein grundlegendes Verständnis über Machine Learning Algorithmen und Anwendungen ist essentiell, damit Schüler*innen eine eigene Haltung zu dem Thema und ihrem Nutzungsverhalten entwickeln sowie sich zu verschiedenen ethischen Fragestellungen, die in diesem Zusammenhang entstehen, positionieren können. Insbesondere die Untereinheit „Machine Learning in unserem Alltag: Wertvolle Unterstützung oder bedenkliches Unterfangen? Ein Gespräch“ bietet sich für einen Dialog zwischen Schüler*innen und Lehrer*innen über das Thema Machine Learning und KI im Alltag an.
Entsprechend einer Testversion stößt ChatGPT immer wieder an seine Limits. So arbeitet die Anwendung noch immer auf Grundlage von Daten aus 2021 und kann somit keine Auskünfte über aktuelle Ereignisse geben. Außerdem ist es derzeit noch schwer nachvollziehbar, woher die Informationen, die ChatGPT ausgibt, eigentlich stammen. Auch auf eine direkte Anfrage nach deren Ursprung reagiert ChatGPT nur mäßig: Quellenangaben sind oft falsch oder nicht einheitlich zitiert und die Anwendung erfindet mitunter auch einfach Quellen, die es gar nicht gibt. Zwar gibt es Schutzmechanismen, die die Verbreitung von schädlichen, nicht jugendfreien oder falschen Informationen und Inhalten verhindern sollen, doch auch diese sind noch nicht komplett verlässlich.
Dies könnte insofern ein Problem für Schulen darstellen, als dass Schüler*innen ihren uneingeschränkten Zugang zu ChatGPT nutzen könnten, um sich Fragen von der KI beantworten lassen, auch wenn diese falsche, unsubstantiierte oder veraltete Antworten geben könnte. Es ist deswegen ausschlaggebend, dass Schulen die Existenz der Anwendung nicht einfach ignorieren oder sie gar verbieten, sondern dessen korrekte und verantwortliche Nutzung in den Unterricht integrieren. Es ist die Aufgabe von Lehrkräften, die Medienkompetenzen ihrer Schüler*innen zu stärken und ihnen nicht nur die technischen Aspekte der Nutzung zu vermitteln, sondern auch wie man die Antworten der KI kritisch hinterfragt und selbst nach Quellen sucht, die deren Antworten bestätigen oder widerlegen.
Expert*innen befürchten außerdem, dass Schüler*innen ChatGPT nutzen könnten, um bei Klausuren oder Hausarbeiten zu betrügen, da die KI selbstständig komplett kohärente Texte verfassen kann, welche zudem von Plagiatssoftwares meist nicht als solche erkannt werden können. Es gibt Bemühungen Programme zu entwickeln, die KI-Texte erkennen können, doch wegen der kontinuierlichen Verbesserung von ChatGPT fällt es Entwicklern schwer, Erkennungssoftwares zeitnah an den Wandel anzupassen. Eine definitive Abhilfe gibt es gegenwärtig also noch nicht. Als Maßnahmen gegen Betrug werden von Expert*innen die stärkere Aufsicht während schriftlicher Klausuren empfohlen, sowie das Verlangen von Prozessportfolios bei Hausarbeiten. Auch sollen sich Klausuren künftig mehr auf die Schilderung der eigenen Meinung oder die Interpretation von Texten fokussieren und weniger auf die einfache Reproduktion von Inhalten, da die KI in ihren Texten keine Position einnehmen kann, da sie keine Meinungen vertritt. Mündliche Prüfungen sollen ebenfalls häufiger eingesetzt werden, um Betrug zu verhindern.
Doch ChatGPT bringt nicht nur Nachteile für den Schulalltag mit sich, sondern eröffnet auch immer wieder neue Chancen. Die KI kann unter anderem Lehrkräften bei der Unterrichtsvorbereitung helfen, indem sie das Schreiben von Infotexten oder Lückentexten übernimmt, welche anschließend von der Lehrkraft nur noch auf deren Richtigkeit überprüft werden müssen, statt von Grund auf neu verfasst werden zu müssen. Auch kann ChatGPT auf Basis von kurzen Anmerkungen der Lehrer individuelle, vollkommen ausgeführte Rückmeldungen an Schüler*innen erstellen und auf Basis ihres Lernfortschrittes personalisiertes Lernmaterial zur Verfügung stellen. So könnten z.B. Schüler*innen mit Lernschwächen Texte erhalten, die von der KI in vereinfachte Sprache umgeschrieben wurden, ohne eine große Mehrarbeit für Lehrkräfte darzustellen.
Je individualisierter die Informationen jedoch sind, die man ChatGPT gegenüber preisgibt, desto mehr Sorgen entstehen. So ist aus datenschutzrechtlicher Sicht durchaus fraglich, ob es Lehrer*innen erlaubt sein sollte, ihre eigenen Einschätzungen und Eindrücke zum Leistungsstand ihrer Schüler*innen an den Service weiterzugeben. Zumal dieses Problem desweiteren auch noch dadurch verschärft wird, dass für ChatGPT freigegebene Daten bislang nicht lokal auf Schulservern, sondern ausschließlich in der Cloud des Anbieters verarbeitet und gespeichert werden können.
Auch Schüler*innen — insofern sie von ihren Lehrer*innen zuvor zur richtigen Nutzung angewiesen worden sind — können ChatGPT selbstständig zu ihrem Nutzen einsetzen. So kann ChatGPT ihnen komplexe Sachverhalte einfach erklären, Zusammenfassungen und Überblicke über Bücher, Theaterstücke oder Lehrbuchkapitel liefern oder zur Klausurvorbereitung dienen, indem sie individualisierte Fragen zu vorgegebenen Lernmaterialien erstellt, anhand derer Schüler*innen Klausursituationen simulieren können. Auch im Informatikunterricht kann das Tool eingesetzt werden, da es Programme debuggen und Schüler*innen in Kommentaren erklären kann, worin ihre Fehler bestanden und wie sie diese künftig verbessern und vermeiden können.
Wie viele neuartige Technologien bringt ChatGPT also Nachteile mit sich, birgt jedoch auch ebenso viele Vorteile. Aber um diese Vorteile verantwortungsbewusst nutzen zu können, benötigen Schüler*innen die entsprechenden Medienkompetenzen sowie müssen Schulen Wege finden, um Betrugsversuche vorzubeugen, sie zu erkennen und zu ahnden. Vor allem, da weitere Anbieter wie Meta und Baidu bereits zeitgleich planen, vergleichbare KI-Chatbots auf den Markt zu bringen, ist es umso wichtiger, Schüler*innen auf das wachsende Angebot an KI-Diensten vorzubereiten. Auch OpenAI selbst hat seine Dienste bereits um das KI-Bildgenerierungstool DALL-E-2 erweitert und entwickelt derzeit zudem noch KI-Stimmen- und Videogenerierungstools, die in der Zukunft ebenfalls eine Rolle im Schulalltag spielen könnten.
Soziale Medien nehmen einen immer höheren Stellenwert im Alltag junger Menschen ein und werden von ihnen sowohl für Unterhaltungs- als auch Informationszwecke genutzt. Neben traditionellen Nachrichtenanbietern ist dadurch eine zweite Akteursgruppe auf den Plan getreten, die Einfluss auf die Informationsorientierung und (politische) Meinungsbildung Jugendlicher und junger Erwachsener ausüben kann: die Social Media Content Creators (SMCCs).
Social Media Content Creators sind jedoch im Gegensatz zu Journalist*innen und anderen klassischen Medienakteur*innen zumeist nicht professionell ausgebildet, sondern sind meistens Privatpersonen mit einer großen Reichweite online. In ihrem Content wird oft keine strikte Trennung zwischen Zahlen und Fakten und der eigenen Meinung vorgenommen, weshalb es besonders Kindern und Jugendlichen schwerfallen kann, diese voneinander zu unterscheiden.
Eine Studie des Leibniz-Instituts für Medienforschung | Hans-Bredow-Institut hat sich mit dieser Problematik beschäftigt und anhand von Interviews mit 14- bis 24-Jährigen Empfehlungen herausgearbeitet, wie Lehrkräfte ihre Schüler*innen dabei unterstützen können, wichtige Medienkompetenzen zu erlernen und Meinungen von Fakten unterscheiden zu können. Dabei kann der Interviewleitfaden im Anhang der Studie als Rahmen für eigene Unterrichtseinheiten verwendet werden, den man hier kostenlos herunterladen kann.
Zusätzlich können folgende Angebote von „Medien in die Schule“ und „weitklick“ genutzt werden, um Unterrichtseinheiten zum Thema „Social Media Content Creators und ihre jungen Follower“ zu gestalten und durchzuführen.
Aktuelle Herausforderungen für den Journalismus im Superwahljahr 2021: Zu diesem Thema veranstaltet weitklick – Das Netzwerk für digitale Medien- und Meinungsbildung eine kostenlose Online-Paneldiskussion am 18.06.2021 im Rahmen des Digitaltags 2021, sie findet von 14 bis 15:30 Uhr auf weitklick.de statt.
Moderation: Jochen Spangenberg
Alle Informationen und kostenfreie Anmeldung auf weitklick.de.
Um politische Meinungen zu bilden und informierte Wahlentscheidungen treffen zu können, sind wir auf vertrauenswürdige Informationen und Nachrichten angewiesen. Allerdings steht der Nachrichtenjournalismus aktuell vor mindestens zwei großen Herausforderungen. Zum einen informiert sich ein immer größer werdender Teil des Publikums in sozialen Medien über tagesaktuelle Themen, wo nicht-professionelle Inhalte unredigiert neben professionellen Angeboten stehen. Dies führt dazu, dass immer mehr Menschen auch mit Falschnachrichten und Desinformation in Kontakt kommen. Missverständliche Darstellungen und irreführende Nachrichten aufzulösen und bei Desinformation gegenzusteuern, wird deshalb eine zunehmend wichtige Aufgabe von Journalist*innen.
Zum anderen wird die tagtägliche Arbeit von Journalist*innen erschwert, denn antidemokratische Strömungen machen auch in Deutschland die Berichterstattung immer schwieriger und mitunter gefährlich. Und das gilt zunehmend auch für den digitalen Raum. “Reporter ohne Grenzen” schätzt die Pressefreiheit wegen der zunehmenden Gewalt auf Demonstrationen nicht mehr „gut“, sondern nur noch „zufriedenstellend“ ein.
Beide Aspekte sind insbesondere mit Blick auf das Superwahljahr 2021 von besonderer Bedeutung. Zum Digitaltag fragen wir uns: Wie kann Journalismus dazu beitragen, Desinformation zu begegnen? Wie steht es um die Pressefreiheit in Deutschland? Welchen Herausforderungen begegnen Journalist*innen im digitalen und im analogen Raum? Und was bedeutet das konkret für Schulen und Bildungseinrichtungen, die junge Menschen auf das politische Geschehen im Superwahljahr vorbereiten und begleiten?
Zur aktiven Teilnahme melden Sie sich bitte hier an. Den Livestream können Sie ohne Anmeldung sehen.
In Zusammenarbeit mit weitklick – das Netzwerk für digitale Medien- und Meinungsbildung veröffentlicht „Medien in die Schule“ ein neues Modul zum Thema Desinformation online. Das Modul erweitert das bereits 2017 herausgegebene Unterrichtsmaterial Meinung im Netz gestalten zu Meinungsbildungsprozessen im Internet um die Vermittlung von Merkmalen, Motiven und Verbreitungswegen von Desinformation online sowie Möglichkeiten der Identifikation und Überprüfung im schulischen Kontext.
Modul hier kostenlos herunterladen! Möchten Sie das Modul als Druckversion kostenfrei bestellen? Melden Sie sich gern über unser Kontaktformular!
„Algorithmen, Memes, Social Bots, Trolle oder Deepfakes – mit unserem neuen Modul verstehen Lehrkräfte, was hinter diesen Begriffen steckt, wie sie unsere Medien- und Nachrichtenkompetenz herausfordern und die (politische) Meinungsbildung von Heranwachsenden erschweren. Unser Ziel ist es, das Thema Desinformation online auf den Stundenplan zu bringen und zu zeigen, wie Jugendliche Falschnachrichten im Internet erkennen und ihre negative Auswirkungen einschätzen können. Denn aufgrund der oftmals unübersichtlichen Fülle an Informationsmöglichkeiten ist ein souveräner und sachkundiger Umgang mit Informationen heute genauso wie lesen, schreiben und rechnen eine zentrale Fähigkeit, die die Schule Kindern und Jugendliche vermitteln sollte.“
Martin Drechsler, Geschäftsführer der FSM, Herausgeber von „Medien in die Schule“
Im Modul „Desinformation Online“ finden Lehrende vier neue Unterrichtseinheiten mit Aufgabenstellung, Lernziel, Ablauf, methodisch-didaktischen Hinweisen und benötigten Materialien. Dabei geht es unter anderem um Merkmale, Formen und Beispiele von Desinformation im Internet und sozialen Netzwerken sowie konkrete Möglichkeiten, Angebote und Instrumente zum Überprüfen von Informationen. Die 14 neuen Arbeits- und Materialblätter können direkt im Unterricht eingesetzt werden. So können sich Schüler*innen in Bilderrückwärtssuchen ausprobieren oder nach dem Kennenlernen verschiedener Fact Checking Initiativen auch selbst Faktenchecks umsetzen.
Ziel ist es, Jugendliche für die eigenen Meinungsbildungsprozesse und ihre Verantwortung für den Umgang mit Desinformation im Netz zu sensibilisieren. Lehrer*innen, die sich bereits mit dem weitklick Bildungsprogramm fortbilden, können mit diesem Modul das Gelernte vertiefen und direkt im Unterricht anwenden.
Das Unterrichtsmaterial „Meinung im Netz gestalten“ ist Teil des Angebots von „Medien in die Schule“, das zahlreiche Inhalte und Themen der Medienbildung für den Lernraum Schule aufbereitet. Bereits seit 2013 stellt das Gemeinschaftsprojekt der FSM und Google Zukunftswerkstatt in Kooperation mit der Freiwilligen Selbstkontrolle Fernsehen e.V. eine große Bandbreite an kostenfreien, offenen Unterrichtsmaterialien (OER) zu aktuellen medialen Erscheinungen zur Verfügung. Lehrer*innen finden dort für die Sekundarstufen I und II aufbereitete Informationen, Materialien und praxisnahe Methoden rund um Themen wie z.B. die sichere Internetnutzung, Smartphones, Machine Learning, Hate Speech oder Fake News.
„Medien in die Schule“ leistet so einen aktiven und praktischen Beitrag zur digitalen Bildung. Die Inhalte erhielten bereits mehrere positive Bewertungen durch den Materialkompass Verbraucherbildung des Verbraucherzentrale Bundesverbandes. Alle Materialien stehen unter einer Creative Commons Lizenz (CC-BY-SA). Ihre Bearbeitung, Vervielfältigung und Verbreitung ist unter Angabe der Quelle und unter gleichen Bedingungen erlaubt.