Der DsiN-Sicherheitsindex, der seit 2014 jährlich die digitale Sicherheitslage von Verbraucher*innen in Deutschland einschätzt, erreichte 2023 einen neuen Tiefstwert von 57,2 von 100 Punkten. Im Vergleich zum Vorjahr sind dies ganze 2,6 Punkte weniger. Der Wert nähert sich damit mehr dem kritischen Wert von 50 Punkten an, ab welchem eine Bedrohungslage für Internetnutzer*innen entsteht.
Der DsiN-Sicherheitsindex wird von dem Deutschland sicher im Netz e. V. durchgeführt und steht unter der Schirmherrschaft des Bundesministeriums des Innern und für Heimat. Die Studie betont, wie wichtig die Rolle des Staates und der einzelnen Anbieter, aber auch insbesondere von Schulen und Bildungsinstitutionen, bei der Gewährleistung von und Aufklärung über Sicherheit im Internet ist.
Im vergangenen Jahr verzeichnete der DsiN-Sicherheitsindex eine erheblich gestiegene Anzahl an Sicherheitsvorfällen im Internet. Wie schon im Vorjahr kam es dabei besonders häufig zu Phishing-Versuchen, die zumeist per SMS oder über Messenger stattfanden. 28,3% aller Nutzer*innen berichteten auch davon, infizierte E-Mails, Anhänge oder Weblinks erhalten zu haben. Viele wurden zudem Opfer von Betrug, besonders bei Online-Einkäufen oder -Buchungen. Auch die Anzahl an Datenlecks bei Anbietern digitaler Dienste ist mit 4,2% stark gestiegen.
Trotz der erhöhten Sicherheitsvorfälle hat sich das Versicherungsgefühl der Nutzer*innen aber um 6,9 Punkte verringert — trotz der gestiegenen Gefahr fühlen sich Nutzer*innen also dennoch immer sicherer im Internet. Nutzer*innen legten dafür zwar mehr Sicherheitswissen und ein stärker ausgeprägtes Sicherheitsverhalten an den Tag, jedoch ist der Anstieg in beiden Kategorien nicht signifikant genug, um mit den rapide zunehmenden Sicherheitsvorfällen mitzuhalten. Zudem zeigt sich eine Wissens-Verhaltens-Lücke auf: obwohl das Sicherheitswissen mit 90,5 Punkten sehr hoch ist, wird das erworbene Wissen nicht ausreichend in konkrete Verhaltensänderungen umgesetzt. Das Aneignen von Wissen allein reicht demnach nicht, um sich in der Praxis besser online zu schützen. Um dieses digitale Sicherheitsgefälle abzubauen, ist somit eine verstärkte, praxisbezogenere digitale Aufklärung erforderlich.
Die Ergebnisse des DsiN-Sicherheitsindex verdeutlichen die Bedürfnisse der Nutzer*innen in Bezug auf IT-Sicherheit. Viele wünschen sich eine stärkere Regulierung durch den Staat, zum Beispiel durch die konsequentere Verfolgung von Gesetzesverstößen, strengere Gesetze oder eine zentrale Beratungsstelle. Auch Anbieter sollten laut Nutzer*innen aktiver werden, indem sie ihre Dienste, Programme und Geräte sicherer gestalten und Sicherheitseinstellungen leichter aufzufinden und zu bedienen machen.
Doch am stärksten wurde der Wunsch nach zugänglicheren und stärker gebündelten Informationen zu möglichen IT-Risiken geäußert. Diese sollen verständlicher und unterhaltsamer gestaltet werden und einfache Anleitungen und Praxistipps beinhalten, die anhand alltagsbezogener Beispiele illustriert werden sollen. Drei Viertel aller Befragten wünschen sich zudem noch die frühzeitige Vermittlung von IT-Sicherheit in der Schule, welche später durch weitere schulische oder berufliche Aus- und Weiterbildungen, Workshops oder Informationsveranstaltungen vertieft werden soll.
Angesichts dieser Ergebnisse wird deutlich, dass viele Verbraucher*innen Schulen eine Schlüsselrolle bei der Förderung von IT-Sicherheit zuschreiben. Damit diese Kompetenzen wirksam vermitteln können, ist es jedoch wichtig, dass sie Zugang zu Informationen und Unterrichtsmaterialien haben, die leicht verständlich sind und mit für Schüler*innen relevanten Beispielen arbeiten. Ein Beispiel für solche Unterrichtsmaterialien wäre die Unterrichtseinheit „Jugendliche online“ von Medien in die Schule, welche Jugendlichen die Bedeutung von Datenschutz im Internet näherlegen soll und ihnen Verhaltensstrategien für den sicheren Umgang mit den sozialen Medien und anderen Nutzer*innen beibringen soll. Auch die Einheit „Realität und Fiktion in den Medien“ eignet sich gut, da sie sich unter anderem mit falschen Identitäten beschäftigt, die Leute im Internet zum Beispiel für Betrüge oder zum Herausfinden von persönlichen Daten nutzen können.
Zudem ist es wichtig, dass Lehrkräfte Schüler*innen dazu motivieren, im Unterricht erworbene Kompetenzen auf neue Sachverhalte zu transferieren und mit anderen Schüler*innen, Familienmitgliedern oder Bekannten darüber in den Austausch zu treten. Denn nur durch das Etablieren von nachhaltigen Transferinfrastrukturen und durch das stetige Lernen voneinander können Kompetenzen bedarfsgerecht und zukunftsträchtig vermittelt werden.
Die aktuelle forsa-Studie für 2023 liefert neue Erkenntnisse über die Prävalenz von Hate Speech im Internet. Dieses Jahr wurden für die Studie 1.006 deutschsprachige Internetnutzer*innen ab 14 Jahren in Deutschland befragt. Die Studie wurde von der Landesanstalt für Medien NRW in Auftrag gegeben und vom Meinungsforschungsinstitut forsa durchgeführt.
Die Ergebnisse der Studie zeigen, dass Hate Speech weiterhin ein drängendes Problem darstellt, das Maßnahmen erfordert. Die Ergebnisse der Umfrage verdeutlichen dies: 76% der Befragten gaben an, bereits mit Hasskommentaren konfrontiert worden zu sein. 37% gaben zudem an, sogar häufig oder sehr häufig auf Hate Speech zu stoßen und 24% sagten aus, selbst schon einmal Opfer solcher Kommentare geworden zu sein.
Die Studie identifiziert bedeutende Unterschiede in Bezug auf das Alter der Befragten. Personen unter 45 Jahren nahmen Hate Speech besonders häufig wahr, insbesondere Kinder, Jugendliche und junge Erwachsene zwischen 14 und 24 Jahren. Etwa 90% dieser Altersgruppe berichteten, schon einmal mit Hate Speech in Kontakt gekommen zu sein. Im Vergleich machten im Schnitt nur 67% der Befragten im Alter von über 45 Jahren ähnliche Angaben. 14- bis 24-Jährige sind mit 39% ebenfalls am häufigsten selbst von Hate Speech betroffen. Ein signifikanter Unterschied zwischen den Geschlechtern konnte jedoch wie in den Vorjahren nicht nachgewiesen werden.
Unabhängig vom Alter hielten 57% aller Befragten Politiker*innen für am meisten von Hasskommentaren betroffen, gefolgt von Menschen mit anderen politischen Ansichten mit 48%. An dritter Stelle standen Geflüchtete mit 42%. Unter 25-Jährige nannten außerdem noch Mitglieder der LGBTQ-Community und Frauen und Menschen, die dem gängigen Schönheitsideal nicht entsprechen, als wiederholte Ziele von Hate Speech. Die älteren Altersgruppen sind hingegen der Meinung, dass Menschen mit Migrationshintergrund besonders oft Opfer von Hasskommentaren werden.
Immer weniger Leute halten es mittlerweile für Zeitverschwendung, sich mit Hasskommentaren zu beschäftigen. 40% aller Befragten gaben an, sich schon einmal näher mit Hasskommentaren befasst zu haben — ein neuer Höchstwert. Auch ältere Menschen beschäftigen sich zusehends mit dem Thema. Des Weiteren haben 30% der Befragten bereits selbst einen Hasskommentar gemeldet, während 25% schon einmal kritisch auf einen solchen Kommentar geantwortet haben.
Als effektivste Maßnahme gegen Hate Speech nennen drei Viertel der Befragten die strafrechtliche Verfolgung von Verfasser*innen, dicht gefolgt von der Löschung von hasserfüllten Beiträgen (71%) und der Moderation von Inhalten durch professionelle Moderatoren (60%). Auch das Melden beim Seitenbetreiber oder bei einer unabhängigen Meldestelle sah die Mehrheit mit 58% als gleichermaßen sinnvoll an. Weniger wirksam erschien vielen das Erstellen einer Netiquette oder das direkte Antworten auf Hasskommentare.
Auch die Einstellung gegenüber der Effektivität verschiedener Maßnahmen unterscheidet sich leicht zwischen den Altersgruppen. Während die über 60-Jährigen mit 76% stark von der Wirksamkeit des Löschens von Inhalten überzeugt sind, sind es die unter 25-Jährigen mit 57% eher weniger. Im Gegenzug sind die älteren Altersgruppen jedoch vergleichsweise etwas weniger von der professionellen Moderation von Inhalten oder dem Melden bei Seitenbetreibern überzeugt.
Die Ergebnisse der forsa-Studie verdeutlichen, dass Hate Speech im Internet weiterhin stark verbreitet ist und immer mehr Menschen davon betroffen sind. Sie zeigen jedoch auch, dass die Sensibilisierung für das Thema zunimmt und eine wachsende Anzahl an Menschen Maßnahmen gegen Hasskommentare ergreift. Um jedoch effektiv gegen Hate Speech vorgehen zu können, ist es wichtig, ausreichend über das Thema informiert zu sein.
Der neue Online-Kurs „Desinformation & Hate Speech“ von weitklick — Das Netzwerk für digitale Medien- und Meinungsbildung erklärt, wie die beiden Phänomene Desinformation und Hate Speech im Internet zusammenhängen, sensibilisiert für die damit verbundenen individuellen und gesellschaftlichen Herausforderungen und zeigt Lehrkräften, wie sie die Themen im Unterricht einbringen können.
Die Unterrichtseinheit „Hass in der Demokratie begegnen“ von Medien in die Schule greift in vier Modulen die Erfahrungen und Begegnungen (im Netz) der Schüler*innen mit Rechtsextremismus, gruppenbezogener Menschenfeindlichkeit und Hate Speech auf, um Hintergründe und Zusammenhänge zu beleuchten sowie konkrete Reaktions- und Handlungsmöglichkeiten zu erarbeiten. Die Einheit beinhaltet Arbeitsblätter und Ideen für den Unterricht, wie z.B. für Gruppenarbeiten oder Diskussionen.
Die Initiative WAKEUP! — ein gemeinsames Projekt von Telefónica Deutschland, der FSM und weiteren Partnern hat neue Unterrichtsmaterialien zu den Themenbereichen „Digitale Gewalt“ und „Cybergrooming, Belästigung und Erpressung“ erstellt. Dieses soll Lehrkräfte dabei unterstützen, das Thema Cybermobbing und weitere Formen von digitaler Gewalt in der Schule zu behandeln. Ziel ist es nicht nur, ein größeres Verständnis für die verschiedenen Arten von Cybermobbing und deren Auswirkungen zu entwickeln. Schüler*innen sollen auch dazu ermutigt werden, sich aktiv gegen Cybermobbing einzusetzen und sich in Notsituationen Hilfe zu suchen.
Das neue Unterrichtsmaterial eignet sich für die Klassenstufen 6–9 und ist komplett kostenfrei. Es stellt eine Ergänzung zu dem bisher veröffentlichten Material von WAKEUP! dar. Sämtliche Materialien lassen sich auf der Webseite von WAKEUP! finden. Die Initiative WAKEUP! von o2 wird umgesetzt in Zusammenarbeit mit der FSM, der Bildungsagentur YAEZ und weiteren Partnern, u.a. der Cybermobbing-Hilfe e.V.
Die bereits erschienenen drei eduStories mit den Themenschwerpunkten „So erkennst du Cybermobbing“, „Cybermobbing: Mobben, Haten & Trollen“ und „Cybermobbing: So kannst du dich wehren!“ wurden durch zwei neue Einheiten ergänzt.
Die eduStory „Digitale Gewalt“ bietet eine Übersicht über die Themen der vorherigen eduStories und fasst die darin behandelten Phänomene wie Cybermobbing, Hate Speech und Trollen unter dem Überbegriff „digitale Gewalt“ zusammen. Es verschafft einen Überblick über die verschiedenen Formen, Erscheinungsweisen und Ursachen von digitaler Gewalt und liefert erste Lösungsansätze und Anlaufstellen.
Die zweite Einheit „Cybergrooming, Belästigung und Erpressung“ hingegen beschäftigt sich konkret mit drei weiteren Formen von digitaler Gewalt. Sie geht näher auf deren Besonderheiten und Risiken ein und darauf, wie man solche Situationen erkennen und sich davor schützen kann.
Des Weiteren wurde ein digitales Tafelbild entworfen, welches die Inhalte der fünf eduStories auffrischen und festigen soll. Das Tafelbild wurde als eine fertige Unterrichtsstunde von 45 Minuten konzipiert und kann ohne große Vorbereitung oder zusätzliche Ressourcen verwendet werden. Nur ein Beamer und eine Leinwand bzw. eine digitale Tafel werden zur Durchführung benötigt. Schüler*innen müssen über keine eigenen Endgeräte verfügen.
Die Unterrichtsstunde beinhaltet die Wissensanteile der eduStories, bietet jedoch zusätzlich noch die Möglichkeit zum Austausch innerhalb des Klassenverbandes. Schüler*innen können ihre Eindrücke und Gefühle zu den verschiedenen Formen von digitaler Gewalt äußern und zusammen Lösungsansätze und Handlungsmöglichkeiten diskutieren.
Zusätzlich zu den eduStories und dem digitalen Tafelbild stellt WAKEUP! noch weiteres Zusatzmaterial bereit. Unter anderem befinden sich darunter zwei weitere Entwürfe für Unterrichtsstunden, in denen Schüler*innen entweder ein Poster zum Thema „Faires Miteinander im Netz“ designen können oder sich nochmal gezielt mit der eduStory 5 über Cybergrooming & Co. auseinandersetzen können. Außerdem findet sich dort auch eine sechsteilige Webserie zum Thema Cybermobbing, welche gemeinsam anhand der vorgefertigten Aufgaben behandelt und besprochen werden kann, sowie eine Liste an Hilfs- und Beratungsstellen.
weitklick — Das Netzwerk für digitale Medien- und Meinungsbildung hat einen neuen Online-Selbstlernkurs zum Thema „Desinformation und Hate Speech“ veröffentlicht. Der Kurs umfasst zwei aufeinander aufbauende Module und soll Lehrkräfte dabei unterstützen, Hate Speech und Desinformation im Internet zu erkennen und zu verstehen, wie die beiden Phänomene im Internet zusammenhängen. Zudem erhalten Lehrkräfte Anregungen, wie sie die Themen im Unterricht mit Schüler*innen behandeln können.
Schon seit 2020 bietet weitklick Online-Fortbildungsmöglichkeiten für Lehrkräfte zum Thema Desinformation an. Der neue Kurs wurde in Kooperation mit dem Projekt „firewall — Hass im Netz begegnen“ der Amadeu Antonio Stiftung entwickelt und eignet sich für die Sekundarstufe I und II sowie für Berufsschulen.
Der Kurs „Desinformation und Hate Speech“ ist ab sofort kostenfrei unter www.weitklick.de/kurse verfügbar. Insgesamt bietet weitklick sechs Online-Kurse für Lehrende an.
Die beiden Module des neuen Online-Kurses sind interaktiv aufgebaut und bieten vielfältige Materialien. Auf Lehrkräfte warten nicht nur fundierter Input, sondern auch Übungen und Reflexionsfragen, die das Wissen zusätzlich stärken sollen. Am Ende beider Module lernen Lehrkräfte im Kursbereich “Werkstatt” Materialien und Methoden kennen, wie sie die Themen im Unterricht bearbeiten können.
Modul 1 zielt in erste Linie darauf ab, erst einmal ein grundlegendes Verständnis von Hate Speech und Desinformation zu erlangen. Im Kurs lernen Lehrkräfte Formen, Verbreitungswege und Motive für die Verbreitung von Desinformation und Hate Speech kennen.
Modul 2 beschäftigt sich daran anschließend mit konkreten Handlungsstrategien und Anlaufstellen gegen Hate Speech und Desinformation und thematisiert deren Wahrnehmung durch Jugendliche und junge Erwachsene.
Antidemokratische Gruppierungen greifen seit jeher zu Desinformation und Hate Speech als Mittel, um ihre Narrative und fraglichen Ansichten zu verbreiten. Durch das Internet und die Technologien des digitalen Zeitalters wird ihre Reichweite jedoch stetig erweitert, was besonders in Krisenzeiten problematisch ist. 65% aller Internetnutzer*innen ab 14 Jahren nehmen Hate Speech und Desinformation wahr, 12% sogar sehr häufig (Quelle: Hate Speech, Forsa-Studie 2022).
Es ist deswegen unerlässlich, dass Lehrkräfte für Desinformation und Hate Speech sensibilisiert werden und so dazu befähigt werden, Kindern und Jugendlichen die Gefahren von Desinformation und Hate Speech zu vermitteln. Eine Thematisierung im Unterricht trägt dazu bei, dass Schüler*innen ein größeres Verständnis für die Problematik entwickeln und menschenfeindliche Rhetorik erkennen und entkräften können.
Ob nun Zuhause, in der Schule oder bei der Arbeit: Digitalisierung wird in Deutschland zu einem immer wichtigeren Thema. Noch hängt Deutschland dabei jedoch hinter vielen anderen EU-Mitgliedstaaten hinterher. Besonders betroffen ist dabei unter anderem das Bildungswesen: laut der IPSOS-Befragung der Vodafone Stiftung sind über die Hälfte der deutschen Lehrkräfte der Meinung, ihre Schulen seien nicht ausreichend technisch ausgestattet, um ihren Schüler*innen nötige digitale Kompetenzen zu vermitteln. Grundlegende IT-Infrastrukturen, wie stabiles Internet oder genügend Endgeräte für die ganze Klasse, seien laut den Lehrkräften an 86 Prozent der Schulen schlichtweg nicht gegeben.
Doch allein der Ausbau der IT-Infrastrukturen reicht nicht aus: Lehrer*innen benötigen auch Unterstützung in Form von Fortbildungen, Webinaren und Workshops, um Potenziale wie Risiken digitaler Medien zu kennen, diese zu vermitteln und digitale Unterrichtsmethoden zielbringend einzusetzen. Dieser Meinung sind auch die Lehrkräfte selbst, von denen 51 Prozent Fort- und Ausbildungen als hilfreichste Maßnahme einschätzen. So sollten Lehrer*innen zwar darin geschult werden, wie sie Schüler*innen für den Umgang mit Desinformation online befähigen können und dabei nicht vergessen, deren Lese- und Schreibkompetenzen zu stärken, aber auch den Nutzen von Technik zum Zugang zu besseren Informationsquellen, zur Binnendifferenzierung im Unterricht und zur Unterstützung von Schüler*innen mit besonderem Förderbedarf erkennen. Bisher geben nämlich nur 5 Prozent aller Lehrer*innen an, technische Mittel zur Verbesserung des Unterrichts selbstsicher einsetzen zu können — ein Wert, den es zu heben gilt.
Ein Beispiel für ein Bildungsprogramm für Lehrer*innen ist das Projekt weitklick. Das Blended-Learning-Fortbildungsprogramm unterstützt Lehrende dabei, das Thema Desinformation online nachhaltig in den Unterricht zu integrieren, um die Medienkompetenz von Kindern und Jugendlichen rund um die Mediennutzung und Meinungsbildung im Internet sowie Falschinformationen und Verschwörungsmythen online zu stärken. In Onlinekursen können sich Lehrkräfte selbstständig im eigenen Tempo Inhalte und Kompetenzen aneignen und ihr Wissen vertiefen. Außerdem bietet weitklick regelmäßig Webinare und Fortbildungen mit Expert*innen aus Journalismus, Wissenschaft und Bildungspraxis an. Es besteht zudem die Möglichkeit sich ein Zertifikat für absolvierte Onlinekurse und die Teilnahme an Webinaren oder Fortbildungen ausstellen zu lassen.
Es ist wichtig, dass neben den rein technischen Kompetenzen wie dem Suchen von Informationen im Internet oder der Bedienung verschiedener Tools auch die sozialen und fachlich-methodischen Kompetenzen der Schüler*innen gefördert werden, denn diese werden laut der Studie im Schulkontext in Deutschland in rund der Hälfte aller Schulen vernachlässigt. Als Leitfaden können sich Lehrkräfte an den sogenannten „21st Century Skills“ orientieren, die als Rahmenkompetenzen für Schüler*innen des 21. Jahrhunderts gelten. Dazu zählen Kommunikation, Kollaboration, kritisches Denken, Kreativität, digitale Kompetenzen, Verantwortungsbewusstsein, Flexibilität, selbstorganisiertes Lernen, Resilienz und Empathie. Auch wenn Skills wie kritisches Denken oder selbstorganisiertes Lernen von Lehrenden als besonders wichtig eingeschätzt werden, erkennen Dreiviertel der deutschen Lehrkräfte auch die Bedeutung von emotionalen Skills wie Empathie. Denn nur in Kombination tragen die „21st Century Skills“ nicht nur zu einem angenehmeren Arbeitsklima im Klassenraum bei, sondern ermöglichen es Schüler*innen auch künftig sowohl offline als auch online selbständig und verantwortungsvoll zu handeln und Inhalte kritisch zu hinterfragen.
Digitale Tools ermöglichen es Lehrkräften idealerweise nicht nur, ihren Unterricht abwechslungsreicher und effizienter zu gestalten, sondern unterstützen sie auch dabei, dass ihre Schüler*innen sich kompetent und selbstbestimmt in ihren Onlinewelten bewegen und sie für die Zukunft und den Eintritt in die Arbeitswelt vorbereitet werden.
Um Lehrkräften bei der Orientierung und Umsetzung im Schulunterricht zu helfen, bietet Medien in die Schule umfassende OER-Materialien für die Unterstützung:
Seit sie im November 2022 von der US-amerikanischen Firma OpenAI veröffentlicht wurde, hat die Textgenerierungs-KI ChatGPT (Chat Generative Pre-trained Transformer) sowohl in den Nachrichten als auch in den sozialen Medien für viel Aufruhr gesorgt. Zwar sind das Konzept und die Technologie, die hinter ChatGPT stecken, nichts Neues — Chatbots und KI-Textgenerierung stehen der Öffentlichkeit schon seit einigen Jahren zur Verfügung — jedoch sticht ChatGPT dadurch hervor, dass sie für eine kostenfreie Anwendung weitaus ausgereifter ist als ihre Konkurrenz. Und dass, obwohl es sich bei der derzeitigen Version von ChatGPT nur um eine Testversion handelt, die kontinuierlich anhand von Nutzerbeiträgen und -interaktionen verbessert wird.
Doch wie funktioniert eigentlich künstliche Intelligenz und was steckt hinter Anwendungen wie ChatGPT? Mit unserer Unterrichtseinheit „Machine Learning. Intelligente Maschinen„ können Schüler*innen die Themen KI und Machine Learning nachvollziehen und verstehen lernen. Lehrende erhalten in flexibel einsetzbaren Unterrichtsmodulen Informationen, vielfältige Methoden und Praxisanregungen rund um KI für den Unterricht. Vorkenntnisse sind dabei nicht nötig. Ein grundlegendes Verständnis über Machine Learning Algorithmen und Anwendungen ist essentiell, damit Schüler*innen eine eigene Haltung zu dem Thema und ihrem Nutzungsverhalten entwickeln sowie sich zu verschiedenen ethischen Fragestellungen, die in diesem Zusammenhang entstehen, positionieren können. Insbesondere die Untereinheit „Machine Learning in unserem Alltag: Wertvolle Unterstützung oder bedenkliches Unterfangen? Ein Gespräch“ bietet sich für einen Dialog zwischen Schüler*innen und Lehrer*innen über das Thema Machine Learning und KI im Alltag an.
Entsprechend einer Testversion stößt ChatGPT immer wieder an seine Limits. So arbeitet die Anwendung noch immer auf Grundlage von Daten aus 2021 und kann somit keine Auskünfte über aktuelle Ereignisse geben. Außerdem ist es derzeit noch schwer nachvollziehbar, woher die Informationen, die ChatGPT ausgibt, eigentlich stammen. Auch auf eine direkte Anfrage nach deren Ursprung reagiert ChatGPT nur mäßig: Quellenangaben sind oft falsch oder nicht einheitlich zitiert und die Anwendung erfindet mitunter auch einfach Quellen, die es gar nicht gibt. Zwar gibt es Schutzmechanismen, die die Verbreitung von schädlichen, nicht jugendfreien oder falschen Informationen und Inhalten verhindern sollen, doch auch diese sind noch nicht komplett verlässlich.
Dies könnte insofern ein Problem für Schulen darstellen, als dass Schüler*innen ihren uneingeschränkten Zugang zu ChatGPT nutzen könnten, um sich Fragen von der KI beantworten lassen, auch wenn diese falsche, unsubstantiierte oder veraltete Antworten geben könnte. Es ist deswegen ausschlaggebend, dass Schulen die Existenz der Anwendung nicht einfach ignorieren oder sie gar verbieten, sondern dessen korrekte und verantwortliche Nutzung in den Unterricht integrieren. Es ist die Aufgabe von Lehrkräften, die Medienkompetenzen ihrer Schüler*innen zu stärken und ihnen nicht nur die technischen Aspekte der Nutzung zu vermitteln, sondern auch wie man die Antworten der KI kritisch hinterfragt und selbst nach Quellen sucht, die deren Antworten bestätigen oder widerlegen.
Expert*innen befürchten außerdem, dass Schüler*innen ChatGPT nutzen könnten, um bei Klausuren oder Hausarbeiten zu betrügen, da die KI selbstständig komplett kohärente Texte verfassen kann, welche zudem von Plagiatssoftwares meist nicht als solche erkannt werden können. Es gibt Bemühungen Programme zu entwickeln, die KI-Texte erkennen können, doch wegen der kontinuierlichen Verbesserung von ChatGPT fällt es Entwicklern schwer, Erkennungssoftwares zeitnah an den Wandel anzupassen. Eine definitive Abhilfe gibt es gegenwärtig also noch nicht. Als Maßnahmen gegen Betrug werden von Expert*innen die stärkere Aufsicht während schriftlicher Klausuren empfohlen, sowie das Verlangen von Prozessportfolios bei Hausarbeiten. Auch sollen sich Klausuren künftig mehr auf die Schilderung der eigenen Meinung oder die Interpretation von Texten fokussieren und weniger auf die einfache Reproduktion von Inhalten, da die KI in ihren Texten keine Position einnehmen kann, da sie keine Meinungen vertritt. Mündliche Prüfungen sollen ebenfalls häufiger eingesetzt werden, um Betrug zu verhindern.
Doch ChatGPT bringt nicht nur Nachteile für den Schulalltag mit sich, sondern eröffnet auch immer wieder neue Chancen. Die KI kann unter anderem Lehrkräften bei der Unterrichtsvorbereitung helfen, indem sie das Schreiben von Infotexten oder Lückentexten übernimmt, welche anschließend von der Lehrkraft nur noch auf deren Richtigkeit überprüft werden müssen, statt von Grund auf neu verfasst werden zu müssen. Auch kann ChatGPT auf Basis von kurzen Anmerkungen der Lehrer individuelle, vollkommen ausgeführte Rückmeldungen an Schüler*innen erstellen und auf Basis ihres Lernfortschrittes personalisiertes Lernmaterial zur Verfügung stellen. So könnten z.B. Schüler*innen mit Lernschwächen Texte erhalten, die von der KI in vereinfachte Sprache umgeschrieben wurden, ohne eine große Mehrarbeit für Lehrkräfte darzustellen.
Je individualisierter die Informationen jedoch sind, die man ChatGPT gegenüber preisgibt, desto mehr Sorgen entstehen. So ist aus datenschutzrechtlicher Sicht durchaus fraglich, ob es Lehrer*innen erlaubt sein sollte, ihre eigenen Einschätzungen und Eindrücke zum Leistungsstand ihrer Schüler*innen an den Service weiterzugeben. Zumal dieses Problem desweiteren auch noch dadurch verschärft wird, dass für ChatGPT freigegebene Daten bislang nicht lokal auf Schulservern, sondern ausschließlich in der Cloud des Anbieters verarbeitet und gespeichert werden können.
Auch Schüler*innen — insofern sie von ihren Lehrer*innen zuvor zur richtigen Nutzung angewiesen worden sind — können ChatGPT selbstständig zu ihrem Nutzen einsetzen. So kann ChatGPT ihnen komplexe Sachverhalte einfach erklären, Zusammenfassungen und Überblicke über Bücher, Theaterstücke oder Lehrbuchkapitel liefern oder zur Klausurvorbereitung dienen, indem sie individualisierte Fragen zu vorgegebenen Lernmaterialien erstellt, anhand derer Schüler*innen Klausursituationen simulieren können. Auch im Informatikunterricht kann das Tool eingesetzt werden, da es Programme debuggen und Schüler*innen in Kommentaren erklären kann, worin ihre Fehler bestanden und wie sie diese künftig verbessern und vermeiden können.
Wie viele neuartige Technologien bringt ChatGPT also Nachteile mit sich, birgt jedoch auch ebenso viele Vorteile. Aber um diese Vorteile verantwortungsbewusst nutzen zu können, benötigen Schüler*innen die entsprechenden Medienkompetenzen sowie müssen Schulen Wege finden, um Betrugsversuche vorzubeugen, sie zu erkennen und zu ahnden. Vor allem, da weitere Anbieter wie Meta und Baidu bereits zeitgleich planen, vergleichbare KI-Chatbots auf den Markt zu bringen, ist es umso wichtiger, Schüler*innen auf das wachsende Angebot an KI-Diensten vorzubereiten. Auch OpenAI selbst hat seine Dienste bereits um das KI-Bildgenerierungstool DALL-E-2 erweitert und entwickelt derzeit zudem noch KI-Stimmen- und Videogenerierungstools, die in der Zukunft ebenfalls eine Rolle im Schulalltag spielen könnten.