KI-Chatbots wie ChatGPT sind kostenlos, leicht zugänglich und einfach zu bedienen. Teilweise sind sie bereits in Plattformen und Dienste eingebaut, die wir ohnehin schon nutzen, so wie der MyAI-Chatbot von Snapchat. In Sekundenschnelle liefern sie genau die Informationen, nach denen wir gesucht haben — und verbessern sich mit scheinbar jeder Anfrage. Allerdings sind solche KI-Chatbots nicht nur für Erwachsene, sondern auch für Kinder und Jugendliche zugänglich.

Der Bericht „Me, myself and AI: Understanding and safeguarding children’s use of AI chatbots” von Internet Matters aus Großbritannien beleuchtet, welche Vor- und Nachteile die Nutzung von KI-Chatbots für Heranwachsende zwischen 9 und 17 Jahren haben kann. Zwischen März und Juli 2025 wurde in einer Umfrage und in Fokusgruppen eine repräsentative Stichprobe an Kindern und Jugendliche sowie deren Erziehungsberechtigte zu ihrer Nutzung und Einstellung zu KI-Chatbots befragt . Außerdem hat Internet Matters in einem Nutzungstest die KI-Anwendungen ChatGPT, MyAI und character.ai mit eigens angelegten Profilen fiktiver Jugendlicher selbst ausgetestet, um diese auf jugendschutztechnische Schwachstellen zu überprüfen.

Schule, Rat und Freundschaft? — Nutzungsverhalten und -motive

Fast zwei Drittel aller befragten Kinder und Jugendlichen zwischen 9 und 17 Jahren haben einen KI-Chatbot schon einmal selbst genutzt und alle von ihnen haben zumindest bereits von einem gehört. Zu den beliebtesten Anwendungen zählen ChatGPT (43%), Google Gemini (32 %), My AI (31 %), Microsoft Copilot (20 %) und character.ai (8 %). Am häufigsten werden KI-Chatbots bei schulischen Fragen und Hausaufgaben (42 %), sowie zum Finden von Informationen und Lernen (40 %) hinzugezogen. Allerdings probieren ebenso viele KI-Chatbots aus purer Neugier aus (40 %). Ein weiteres Viertel verbringt zum Spaß Zeit mit Chatbots, ein weiteres Fünftel nutzt sie nur zum Chatten. Problematisch kann es jedoch werden, wenn KI-Chatbots um Rat gefragt werden (23 %), „ein*e Freund*in“ simulieren sollen (6 %) oder für emotionale Unterstützung und Therapie genutzt werden (3 %).

Dabei gibt es signifikante Unterschiede zwischen vulnerablen und nicht vulnerablen Kindern und Jugendlichen. Als vulnerable werden hier Kinder und Jugendliche definiert, welche staatliche Hilfen benötigen, Sonder- und Förderschulen besuchen oder eine physische oder psychische Erkrankung aufweisen, die professionelle Hilfe erfordert. Solche vulnerablen Heranwachsenden nutzen KI-Chatbots nicht nur allgemein intensiver als nicht vulnerable Heranwachsende, sondern greifen auch eher bewusst auf Chatbots wie character.ai oder Replika zu, welche Bezugspersonen nachahmen sollen. Während nur 6 Prozent der nicht vulnerablen Kinder und Jugendlichen solche Chatbots nutzen, sind es bei den vulnerablen fast ein Fünftel. Entsprechend fallen auch deren Nutzungsgründe anders ins Gewicht: Knapp über ein Viertel der vulnerablen Heranwachsenden holt sich bei KI-Chatbots Rat ein, 16 Prozent verwenden Chatbots als Ersatz für Freund*innen und 7 Prozent sucht bei ihnen emotionale Hilfe und Therapie.

Zudem fehlen vielen dieser Plattformen ein robustes Verfahren zur Altersverifikation und zuverlässige Contentfilter. Obwohl die meisten Plattformen erst ab 13 Jahren genutzt werden dürfen, nutzen allerdings 58 % der Kinder zwischen 9 und 12 Jahren KI-Chatbots. Des Weiteren werden trotz aktiver Jugendfilter oft nicht altersgerechte Inhalte angezeigt bzw. Antworten generiert. Bei character.ai haben Minderjährige so Zugriff auf Erotikchats und in Online-Foren wird aktiv geteilt, wie man entsprechende Filter bei ChatGPT und Co. umgehen kann.

Falsche Informationen, falsche Freund*innen: Vor- und Nachteile von KI-Chatbots

Viele der Vorteile von KI-Chatbots stellen gleichzeitig deren Nachteile dar. Beispielsweise nutzen viele Kinder und Jugendliche Chatbots für schulische Zwecke, besonders wenn sie zu Hause keine Hilfe bei Hausaufgaben bekommen oder im Unterricht zu schüchtern sind, um Fragen zu stellen.  Tatsächlich gaben 69 % der Jugendlichen zwischen 13 und 17 Jahren an, dass sie durch KI-Chatbots etwas Neues gelernt haben. Allerdings bleibt offen, wie viele dieser Informationen und Quellen falsch oder erfunden gewesen sein könnten. Denn KI-Chatbots können Informationen halluzinieren (also Informationen erfinden), fehlleitende oder unlogische und verwirrende Antworten geben, sowie Vorurteile gegenüber marginalisierten Gruppen reproduzieren. Sie sind nämlich keine fehlerfreien, neutralen Informationsquellen, sondern geben ausschließlich Auskunft über Daten, Meinungen und Einstellungen, welche in ihren Trainingsdaten präsent sind. Obwohl es bereits einige lernspezifische KI-Chatbots wie Khanmigo gibt, welche derartige Probleme umgehen zu versuchen, werden sie von vielen Heranwachsenden als noch inakkurater und weniger hilfreich als nicht-lernspezifische, generische Chatbots eingeschätzt.

Dennoch fragen 58 % der Befragten lieber einen KI-Chatbot nach Informationen, als sie selbst zu suchen. Die Mehrheit der Kinder und Jugendlichen prüft die Antworten, die sie von Chatbots bekommen, zudem nicht durch andere Quellen. Erste Erkenntnisse aus dem MIT Media Lab zeigen, dass eine solche langfristige Abhängigkeit von KI-Chatbots ohne gleichzeitige eigene Recherchen zu niedrigerer Gehirnaktivität und blindem Vertrauen in die KI-generierten Antworten führen kann. Das könnte besonders bei Kindern und Jugendlichen problematisch sein, da sich deren kognitive Kompetenzen und kritisches Denken noch im Entwicklungsstadium befindet. Deswegen ist es wichtig, dass Kinder und Jugendliche schon früh lernen, wie Recherche funktioniert, qualitativ hochwertige Informationen zu erkennen und Informationen anhand von Qualitätskriterien zu hinterfragen. Das Unterrichtsmodul „Sicheres Suchen“ von Medien in die Schulekann dabei helfen, Recherchefähigkeiten auszubauen und das kritische Denken zu fördern.  Um auch vulnerable Zielgruppen erreichen zu können, bietet Medien in die Schule zudem Unterrichtsmaterialien zum Thema „Wie kannst du falsche informationen im Internet erkennen?“ in Leichter Sprache an.

Außerdem werden KI-Chatbots vermehrt als Ersatz für oder Ergänzung zu realen Bezugspersonen verwendet. Zum einen hat dies auf den ersten Blick den Vorteil, dass Kinder und Jugendliche ohne Angst vor negativen Reaktionen Fragen zu einer Bandbreite an Themen stellen können. Das ist besonders hilfreich für Kinder und Jugendliche, welche im echten Leben keine (vertrauenswürdigen) Bezugspersonen haben oder sich nicht trauen, andere nach Rat zu fragen. Einige Chatbots merken sich auch vorherige Konversationen und stellen ungeprompted Nachfragen zum Wohlbefinden oder leiten an professionelle Hilfs- und Beratungsangebote weiter.

Jedoch können KI-Chatbots in keinem Fall ein kompletter Ersatz für Bezugspersonen sein. 31 Prozent der Kinder betrachten KI-Chatbots als „Freund*in“, obwohl es sich nicht um eine reale Person am anderen Ende des Chats handelt. Bei vulnerablen Gruppen ist es sogar die Hälfte. Das ist besonders bedenklich in Anbetracht der Tatsache, dass einige Chatbots schädliche oder gar gefährliche Ratschläge äußern und selbst in heiklen Situationen nicht auf Hilfs- und Beratungsstellen verweisen. 40 Prozent der Befragten nahmen zudem jeglichen Rat der KI blind an und über ein Viertel würde lieber mit einem KI-Chatbot sprechen als mit einer richtigen Person. Dies könnte bedeuten, dass sich Kinder und Jugendliche, die emotional stärker von KI-Chatbots abhängig sind, künftig seltener Erwachsenen oder Gleichaltrigen anvertrauen.

Daher ist es wichtig, dass Kinder und Jugendliche schon früh über die Funktionsweise von KI-Anwendungen aufgeklärt werden, damit sie KI-Chatbots nicht für reale Personen halten und sich den Grenzen der Vertrauenswürdigkeit der Anwendungen bewusst sind. Das entspricht auch dem Wunsch vieler Schüler*innen, dass Schulen und Lehrkräfte mehr zur richtigen und effektiven Nutzung von KI-Chatbots unterrichten sollten. Die Unterrichtseinheit „Machine Learning. Intelligente Maschinen“ bietet einen ersten Einblick darin, wie Künstliche Intelligenz funktioniert und wo Machine Learning überall im Alltag vorkommt. Das Material regt dazu an, Diskussionen über die Zukunft und den weiteren Einsatz von KI-Anwendungen zu führen. Mit dem Unterrichtsmaterial von Experience AI können Schüler*innen zudem ihre eigene KI-Anwendung programmieren und ihr Wissen praktisch vertiefen. In der Materialsammlung von weitklick finden sich darüber hinaus noch weitere Unterrichtsmaterialien rund um KI, welche zur Vertiefung des Themas eingesetzt werden können.

Internet Matters empfiehlt des Weiteren, dass auch Lehrkräfte sich ständig weiter- und fortbilden sollten und klare Richtlinien für die KI-Nutzung in ihrem Unterricht festlegen sollten. weitklick bietet dazu ein umfangreiches, kostenloses Angebot an Fortbildungen zu KI an Schulen.

Weitere Unterrichtsmaterialien