KI-Chatbots wie ChatGPT sind kostenlos, leicht zugänglich und einfach zu bedienen. Teilweise sind sie bereits in Plattformen und Dienste eingebaut, die wir ohnehin schon nutzen, so wie der MyAI-Chatbot von Snapchat. In Sekundenschnelle liefern sie genau die Informationen, nach denen wir gesucht haben — und verbessern sich mit scheinbar jeder Anfrage. Allerdings sind solche KI-Chatbots nicht nur für Erwachsene, sondern auch für Kinder und Jugendliche zugänglich.
Der Bericht „Me, myself and AI: Understanding and safeguarding children’s use of AI chatbots” von Internet Matters aus Großbritannien beleuchtet, welche Vor- und Nachteile die Nutzung von KI-Chatbots für Heranwachsende zwischen 9 und 17 Jahren haben kann. Zwischen März und Juli 2025 wurde in einer Umfrage und in Fokusgruppen eine repräsentative Stichprobe an Kindern und Jugendliche sowie deren Erziehungsberechtigte zu ihrer Nutzung und Einstellung zu KI-Chatbots befragt . Außerdem hat Internet Matters in einem Nutzungstest die KI-Anwendungen ChatGPT, MyAI und character.ai mit eigens angelegten Profilen fiktiver Jugendlicher selbst ausgetestet, um diese auf jugendschutztechnische Schwachstellen zu überprüfen.
Fast zwei Drittel aller befragten Kinder und Jugendlichen zwischen 9 und 17 Jahren haben einen KI-Chatbot schon einmal selbst genutzt und alle von ihnen haben zumindest bereits von einem gehört. Zu den beliebtesten Anwendungen zählen ChatGPT (43%), Google Gemini (32 %), My AI (31 %), Microsoft Copilot (20 %) und character.ai (8 %). Am häufigsten werden KI-Chatbots bei schulischen Fragen und Hausaufgaben (42 %), sowie zum Finden von Informationen und Lernen (40 %) hinzugezogen. Allerdings probieren ebenso viele KI-Chatbots aus purer Neugier aus (40 %). Ein weiteres Viertel verbringt zum Spaß Zeit mit Chatbots, ein weiteres Fünftel nutzt sie nur zum Chatten. Problematisch kann es jedoch werden, wenn KI-Chatbots um Rat gefragt werden (23 %), „ein*e Freund*in“ simulieren sollen (6 %) oder für emotionale Unterstützung und Therapie genutzt werden (3 %).
Dabei gibt es signifikante Unterschiede zwischen vulnerablen und nicht vulnerablen Kindern und Jugendlichen. Als vulnerable werden hier Kinder und Jugendliche definiert, welche staatliche Hilfen benötigen, Sonder- und Förderschulen besuchen oder eine physische oder psychische Erkrankung aufweisen, die professionelle Hilfe erfordert. Solche vulnerablen Heranwachsenden nutzen KI-Chatbots nicht nur allgemein intensiver als nicht vulnerable Heranwachsende, sondern greifen auch eher bewusst auf Chatbots wie character.ai oder Replika zu, welche Bezugspersonen nachahmen sollen. Während nur 6 Prozent der nicht vulnerablen Kinder und Jugendlichen solche Chatbots nutzen, sind es bei den vulnerablen fast ein Fünftel. Entsprechend fallen auch deren Nutzungsgründe anders ins Gewicht: Knapp über ein Viertel der vulnerablen Heranwachsenden holt sich bei KI-Chatbots Rat ein, 16 Prozent verwenden Chatbots als Ersatz für Freund*innen und 7 Prozent sucht bei ihnen emotionale Hilfe und Therapie.
Zudem fehlen vielen dieser Plattformen ein robustes Verfahren zur Altersverifikation und zuverlässige Contentfilter. Obwohl die meisten Plattformen erst ab 13 Jahren genutzt werden dürfen, nutzen allerdings 58 % der Kinder zwischen 9 und 12 Jahren KI-Chatbots. Des Weiteren werden trotz aktiver Jugendfilter oft nicht altersgerechte Inhalte angezeigt bzw. Antworten generiert. Bei character.ai haben Minderjährige so Zugriff auf Erotikchats und in Online-Foren wird aktiv geteilt, wie man entsprechende Filter bei ChatGPT und Co. umgehen kann.
Viele der Vorteile von KI-Chatbots stellen gleichzeitig deren Nachteile dar. Beispielsweise nutzen viele Kinder und Jugendliche Chatbots für schulische Zwecke, besonders wenn sie zu Hause keine Hilfe bei Hausaufgaben bekommen oder im Unterricht zu schüchtern sind, um Fragen zu stellen. Tatsächlich gaben 69 % der Jugendlichen zwischen 13 und 17 Jahren an, dass sie durch KI-Chatbots etwas Neues gelernt haben. Allerdings bleibt offen, wie viele dieser Informationen und Quellen falsch oder erfunden gewesen sein könnten. Denn KI-Chatbots können Informationen halluzinieren (also Informationen erfinden), fehlleitende oder unlogische und verwirrende Antworten geben, sowie Vorurteile gegenüber marginalisierten Gruppen reproduzieren. Sie sind nämlich keine fehlerfreien, neutralen Informationsquellen, sondern geben ausschließlich Auskunft über Daten, Meinungen und Einstellungen, welche in ihren Trainingsdaten präsent sind. Obwohl es bereits einige lernspezifische KI-Chatbots wie Khanmigo gibt, welche derartige Probleme umgehen zu versuchen, werden sie von vielen Heranwachsenden als noch inakkurater und weniger hilfreich als nicht-lernspezifische, generische Chatbots eingeschätzt.
Dennoch fragen 58 % der Befragten lieber einen KI-Chatbot nach Informationen, als sie selbst zu suchen. Die Mehrheit der Kinder und Jugendlichen prüft die Antworten, die sie von Chatbots bekommen, zudem nicht durch andere Quellen. Erste Erkenntnisse aus dem MIT Media Lab zeigen, dass eine solche langfristige Abhängigkeit von KI-Chatbots ohne gleichzeitige eigene Recherchen zu niedrigerer Gehirnaktivität und blindem Vertrauen in die KI-generierten Antworten führen kann. Das könnte besonders bei Kindern und Jugendlichen problematisch sein, da sich deren kognitive Kompetenzen und kritisches Denken noch im Entwicklungsstadium befindet. Deswegen ist es wichtig, dass Kinder und Jugendliche schon früh lernen, wie Recherche funktioniert, qualitativ hochwertige Informationen zu erkennen und Informationen anhand von Qualitätskriterien zu hinterfragen. Das Unterrichtsmodul „Sicheres Suchen“ von Medien in die Schulekann dabei helfen, Recherchefähigkeiten auszubauen und das kritische Denken zu fördern. Um auch vulnerable Zielgruppen erreichen zu können, bietet Medien in die Schule zudem Unterrichtsmaterialien zum Thema „Wie kannst du falsche informationen im Internet erkennen?“ in Leichter Sprache an.
Außerdem werden KI-Chatbots vermehrt als Ersatz für oder Ergänzung zu realen Bezugspersonen verwendet. Zum einen hat dies auf den ersten Blick den Vorteil, dass Kinder und Jugendliche ohne Angst vor negativen Reaktionen Fragen zu einer Bandbreite an Themen stellen können. Das ist besonders hilfreich für Kinder und Jugendliche, welche im echten Leben keine (vertrauenswürdigen) Bezugspersonen haben oder sich nicht trauen, andere nach Rat zu fragen. Einige Chatbots merken sich auch vorherige Konversationen und stellen ungeprompted Nachfragen zum Wohlbefinden oder leiten an professionelle Hilfs- und Beratungsangebote weiter.
Jedoch können KI-Chatbots in keinem Fall ein kompletter Ersatz für Bezugspersonen sein. 31 Prozent der Kinder betrachten KI-Chatbots als „Freund*in“, obwohl es sich nicht um eine reale Person am anderen Ende des Chats handelt. Bei vulnerablen Gruppen ist es sogar die Hälfte. Das ist besonders bedenklich in Anbetracht der Tatsache, dass einige Chatbots schädliche oder gar gefährliche Ratschläge äußern und selbst in heiklen Situationen nicht auf Hilfs- und Beratungsstellen verweisen. 40 Prozent der Befragten nahmen zudem jeglichen Rat der KI blind an und über ein Viertel würde lieber mit einem KI-Chatbot sprechen als mit einer richtigen Person. Dies könnte bedeuten, dass sich Kinder und Jugendliche, die emotional stärker von KI-Chatbots abhängig sind, künftig seltener Erwachsenen oder Gleichaltrigen anvertrauen.
Daher ist es wichtig, dass Kinder und Jugendliche schon früh über die Funktionsweise von KI-Anwendungen aufgeklärt werden, damit sie KI-Chatbots nicht für reale Personen halten und sich den Grenzen der Vertrauenswürdigkeit der Anwendungen bewusst sind. Das entspricht auch dem Wunsch vieler Schüler*innen, dass Schulen und Lehrkräfte mehr zur richtigen und effektiven Nutzung von KI-Chatbots unterrichten sollten. Die Unterrichtseinheit „Machine Learning. Intelligente Maschinen“ bietet einen ersten Einblick darin, wie Künstliche Intelligenz funktioniert und wo Machine Learning überall im Alltag vorkommt. Das Material regt dazu an, Diskussionen über die Zukunft und den weiteren Einsatz von KI-Anwendungen zu führen. Mit dem Unterrichtsmaterial von Experience AI können Schüler*innen zudem ihre eigene KI-Anwendung programmieren und ihr Wissen praktisch vertiefen. In der Materialsammlung von weitklick finden sich darüber hinaus noch weitere Unterrichtsmaterialien rund um KI, welche zur Vertiefung des Themas eingesetzt werden können.
Internet Matters empfiehlt des Weiteren, dass auch Lehrkräfte sich ständig weiter- und fortbilden sollten und klare Richtlinien für die KI-Nutzung in ihrem Unterricht festlegen sollten. weitklick bietet dazu ein umfangreiches, kostenloses Angebot an Fortbildungen zu KI an Schulen.
Nachrichten, Politik, aktuelles Weltgeschehen – die Informationssuche und Meinungsbildung von Kindern und Jugendlichen findet immer mehr im Netz, auf Social Media und über Messenger statt. Wir veröffentlichen ein neues Unterrichtsmaterial zur Stärkung der Informations- und Nachrichtenkompetenz von vulnerablen Zielgruppen: „Wie kannst du falsche Informationen im Internet erkennen?“ ist mithilfe von Leichter Sprache und angepassten Aufgabenstellungen in Klassen mit Schüler*innen unterschiedlichster Lernvoraussetzungen sowie sonderpädagogischer Förderschwerpunkte einsetzbar.
Angebote der Medienbildung möchten Lehr- und pädagogische Fachkräfte dabei unterstützen, junge Menschen zu befähigen, Informationen richtig einzuordnen, seriöse Nachrichten zu erkennen und Desinformation online begegnen zu können. Häufig sind diese in schwerer Sprache geschrieben und damit nicht für alle Menschen gut zugänglich.
Wir engagieren uns seit langem für die Aufklärung über Online-Risiken wie Desinformation online. Das neue Unterrichtsmaterial mit Übungen in Leichter Sprache soll niederschwellig für das Thema sensibilisieren sowie Lehr- und pädagogische Fachkräfte bei der Förderung von Informations- und Nachrichtenkompetenz unterstützen.
Dr. Lea Schulz, Diklusions-Expertin und Sonderschullehrerin, hat die Konzeption und Umsetzung des Unterrichtsmaterials fachlich begleitet: „Alle Kinder und Jugendliche haben ein Recht darauf, Informationen zu verstehen – auch dann, wenn sie unterschiedliche Lernvoraussetzungen mitbringen. Genau dafür ist das neue Material von „Medien in die Schule“ gemacht: Es hilft, Desinformation zu erkennen und Medien kritisch zu hinterfragen – alltagsnah und inklusiv.“
Zum Unterrichtsmaterial und kostenlosen Download in verschiedenen Dateiformaten | Direkt zur PDF-Datei

Das Unterrichtsmaterial wird gefördert durch die Medienanstalt Berlin-Brandenburg (mabb).

Die Unterrichtsmaterialreihe „Medien in die Schule“ bereitet zahlreiche Inhalte und Themen der Medienbildung für den Lernraum Schule auf. Bereits seit 2013 stellt das Gemeinschaftsprojekt der FSM und Google Deutschland in Kooperation mit der Freiwilligen Selbstkontrolle Fernsehen e.V. eine große Bandbreite an kostenfreien, offenen Unterrichtsmaterialien (OER) zu aktuellen medialen Erscheinungen zur Verfügung. Lehrer*innen finden dort für die Sekundarstufen I und II aufbereitete Informationen, Materialien und praxisnahe Methoden rund um Themen wie z.B. die sichere Internetnutzung, Smartphones, Machine Learning, Hate Speech oder „Fake News“. Medien in die Schule leistet mit seinen Angeboten einen aktiven und praktischen Beitrag zur Bildung in einer digitalen Welt. Die Inhalte erhielten bereits mehrere positive Bewertungen durch den Materialkompass Verbraucherbildung des Verbraucherzentrale Bundesverbandes.
Die kostenfreie Online-Fortbildung für Lehrende und Pädagog*innen stellt die Medienbildung zu Desinformation und „Fake News“ für vulnerable Zielgruppen in den Mittelpunkt. Sie findet am 22.05.2025 von 14:00 bis 16:00 Uhr statt. Die Fortbildung wird gefördert durch die Medienanstalt Berlin-Brandenburg (mabb).
Online-Artikel statt Zeitungen, Instagram-Reels und TikTok-Videos statt Fernsehnachrichten: Neben traditionellen Medien greifen Kinder und Jugendliche bei der Informationssuche und Meinungsbildung immer häufiger auf das Internet, soziale Medien und Messengerdienste zurück. Aber nicht alles, was man online sieht, ist echt. Deswegen müssen sie schon früh darin geschult werden, Desinformation zu erkennen und die Qualität ihrer Quellen einschätzen zu können. Viele Bildungsangebote und Unterrichtsmaterialien sind jedoch nicht für alle Menschen zugänglich gestaltet.
Am 22.5. von 14 bis 16 Uhr diskutieren wir Lösungsansätze, stellen empfehlenswerte Ressourcen vor und ermöglichen Vernetzung! Mit dabei ist unter anderem Sonderpädagogin und Expertin für Diklusion Dr. Lea Schulz.
Die Veranstaltung wird von der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM e.V.) im Rahmen der Medienbildungsprojekte Medien in die Schule und weitklick umgesetzt.
Zur kostenfreien Anmeldung auf weitklick.de
Hinweis: Das Webinar ist kostenlos und offen für alle Interessierten! Eine Teilnahme ist nur nach Anmeldung möglich.
Die Fortbildung wird gefördert durch die Medienanstalt Berlin-Brandenburg (mabb).