menu

Me, myself and AI: Kinder und Jugendliche fragen lieber KI-Chatbots um Rat und Informationen als Erwachsene

KI-Chatbots wie ChatGPT sind kostenlos, leicht zugänglich und einfach zu bedienen. Teilweise sind sie bereits in Plattformen und Dienste eingebaut, die wir ohnehin schon nutzen, so wie der MyAI-Chatbot von Snapchat. In Sekundenschnelle liefern sie genau die Informationen, nach denen wir gesucht haben — und verbessern sich mit scheinbar jeder Anfrage. Allerdings sind solche KI-Chatbots nicht nur für Erwachsene, sondern auch für Kinder und Jugendliche zugänglich.

Der Bericht „Me, myself and AI: Understanding and safeguarding children’s use of AI chatbots” von Internet Matters aus Großbritannien beleuchtet, welche Vor- und Nachteile die Nutzung von KI-Chatbots für Heranwachsende zwischen 9 und 17 Jahren haben kann. Zwischen März und Juli 2025 wurde in einer Umfrage und in Fokusgruppen eine repräsentative Stichprobe an Kindern und Jugendliche sowie deren Erziehungsberechtigte zu ihrer Nutzung und Einstellung zu KI-Chatbots befragt . Außerdem hat Internet Matters in einem Nutzungstest die KI-Anwendungen ChatGPT, MyAI und character.ai mit eigens angelegten Profilen fiktiver Jugendlicher selbst ausgetestet, um diese auf jugendschutztechnische Schwachstellen zu überprüfen.

Schule, Rat und Freundschaft? — Nutzungsverhalten und -motive

Fast zwei Drittel aller befragten Kinder und Jugendlichen zwischen 9 und 17 Jahren haben einen KI-Chatbot schon einmal selbst genutzt und alle von ihnen haben zumindest bereits von einem gehört. Zu den beliebtesten Anwendungen zählen ChatGPT (43%), Google Gemini (32 %), My AI (31 %), Microsoft Copilot (20 %) und character.ai (8 %). Am häufigsten werden KI-Chatbots bei schulischen Fragen und Hausaufgaben (42 %), sowie zum Finden von Informationen und Lernen (40 %) hinzugezogen. Allerdings probieren ebenso viele KI-Chatbots aus purer Neugier aus (40 %). Ein weiteres Viertel verbringt zum Spaß Zeit mit Chatbots, ein weiteres Fünftel nutzt sie nur zum Chatten. Problematisch kann es jedoch werden, wenn KI-Chatbots um Rat gefragt werden (23 %), „ein*e Freund*in“ simulieren sollen (6 %) oder für emotionale Unterstützung und Therapie genutzt werden (3 %).

Dabei gibt es signifikante Unterschiede zwischen vulnerablen und nicht vulnerablen Kindern und Jugendlichen. Als vulnerable werden hier Kinder und Jugendliche definiert, welche staatliche Hilfen benötigen, Sonder- und Förderschulen besuchen oder eine physische oder psychische Erkrankung aufweisen, die professionelle Hilfe erfordert. Solche vulnerablen Heranwachsenden nutzen KI-Chatbots nicht nur allgemein intensiver als nicht vulnerable Heranwachsende, sondern greifen auch eher bewusst auf Chatbots wie character.ai oder Replika zu, welche Bezugspersonen nachahmen sollen. Während nur 6 Prozent der nicht vulnerablen Kinder und Jugendlichen solche Chatbots nutzen, sind es bei den vulnerablen fast ein Fünftel. Entsprechend fallen auch deren Nutzungsgründe anders ins Gewicht: Knapp über ein Viertel der vulnerablen Heranwachsenden holt sich bei KI-Chatbots Rat ein, 16 Prozent verwenden Chatbots als Ersatz für Freund*innen und 7 Prozent sucht bei ihnen emotionale Hilfe und Therapie.

Zudem fehlen vielen dieser Plattformen ein robustes Verfahren zur Altersverifikation und zuverlässige Contentfilter. Obwohl die meisten Plattformen erst ab 13 Jahren genutzt werden dürfen, nutzen allerdings 58 % der Kinder zwischen 9 und 12 Jahren KI-Chatbots. Des Weiteren werden trotz aktiver Jugendfilter oft nicht altersgerechte Inhalte angezeigt bzw. Antworten generiert. Bei character.ai haben Minderjährige so Zugriff auf Erotikchats und in Online-Foren wird aktiv geteilt, wie man entsprechende Filter bei ChatGPT und Co. umgehen kann.

Falsche Informationen, falsche Freund*innen: Vor- und Nachteile von KI-Chatbots

Viele der Vorteile von KI-Chatbots stellen gleichzeitig deren Nachteile dar. Beispielsweise nutzen viele Kinder und Jugendliche Chatbots für schulische Zwecke, besonders wenn sie zu Hause keine Hilfe bei Hausaufgaben bekommen oder im Unterricht zu schüchtern sind, um Fragen zu stellen.  Tatsächlich gaben 69 % der Jugendlichen zwischen 13 und 17 Jahren an, dass sie durch KI-Chatbots etwas Neues gelernt haben. Allerdings bleibt offen, wie viele dieser Informationen und Quellen falsch oder erfunden gewesen sein könnten. Denn KI-Chatbots können Informationen halluzinieren (also Informationen erfinden), fehlleitende oder unlogische und verwirrende Antworten geben, sowie Vorurteile gegenüber marginalisierten Gruppen reproduzieren. Sie sind nämlich keine fehlerfreien, neutralen Informationsquellen, sondern geben ausschließlich Auskunft über Daten, Meinungen und Einstellungen, welche in ihren Trainingsdaten präsent sind. Obwohl es bereits einige lernspezifische KI-Chatbots wie Khanmigo gibt, welche derartige Probleme umgehen zu versuchen, werden sie von vielen Heranwachsenden als noch inakkurater und weniger hilfreich als nicht-lernspezifische, generische Chatbots eingeschätzt.

Dennoch fragen 58 % der Befragten lieber einen KI-Chatbot nach Informationen, als sie selbst zu suchen. Die Mehrheit der Kinder und Jugendlichen prüft die Antworten, die sie von Chatbots bekommen, zudem nicht durch andere Quellen. Erste Erkenntnisse aus dem MIT Media Lab zeigen, dass eine solche langfristige Abhängigkeit von KI-Chatbots ohne gleichzeitige eigene Recherchen zu niedrigerer Gehirnaktivität und blindem Vertrauen in die KI-generierten Antworten führen kann. Das könnte besonders bei Kindern und Jugendlichen problematisch sein, da sich deren kognitive Kompetenzen und kritisches Denken noch im Entwicklungsstadium befindet. Deswegen ist es wichtig, dass Kinder und Jugendliche schon früh lernen, wie Recherche funktioniert, qualitativ hochwertige Informationen zu erkennen und Informationen anhand von Qualitätskriterien zu hinterfragen. Das Unterrichtsmodul „Sicheres Suchen“ von Medien in die Schulekann dabei helfen, Recherchefähigkeiten auszubauen und das kritische Denken zu fördern.  Um auch vulnerable Zielgruppen erreichen zu können, bietet Medien in die Schule zudem Unterrichtsmaterialien zum Thema „Wie kannst du falsche informationen im Internet erkennen?“ in Leichter Sprache an.

Außerdem werden KI-Chatbots vermehrt als Ersatz für oder Ergänzung zu realen Bezugspersonen verwendet. Zum einen hat dies auf den ersten Blick den Vorteil, dass Kinder und Jugendliche ohne Angst vor negativen Reaktionen Fragen zu einer Bandbreite an Themen stellen können. Das ist besonders hilfreich für Kinder und Jugendliche, welche im echten Leben keine (vertrauenswürdigen) Bezugspersonen haben oder sich nicht trauen, andere nach Rat zu fragen. Einige Chatbots merken sich auch vorherige Konversationen und stellen ungeprompted Nachfragen zum Wohlbefinden oder leiten an professionelle Hilfs- und Beratungsangebote weiter.

Jedoch können KI-Chatbots in keinem Fall ein kompletter Ersatz für Bezugspersonen sein. 31 Prozent der Kinder betrachten KI-Chatbots als „Freund*in“, obwohl es sich nicht um eine reale Person am anderen Ende des Chats handelt. Bei vulnerablen Gruppen ist es sogar die Hälfte. Das ist besonders bedenklich in Anbetracht der Tatsache, dass einige Chatbots schädliche oder gar gefährliche Ratschläge äußern und selbst in heiklen Situationen nicht auf Hilfs- und Beratungsstellen verweisen. 40 Prozent der Befragten nahmen zudem jeglichen Rat der KI blind an und über ein Viertel würde lieber mit einem KI-Chatbot sprechen als mit einer richtigen Person. Dies könnte bedeuten, dass sich Kinder und Jugendliche, die emotional stärker von KI-Chatbots abhängig sind, künftig seltener Erwachsenen oder Gleichaltrigen anvertrauen.

Daher ist es wichtig, dass Kinder und Jugendliche schon früh über die Funktionsweise von KI-Anwendungen aufgeklärt werden, damit sie KI-Chatbots nicht für reale Personen halten und sich den Grenzen der Vertrauenswürdigkeit der Anwendungen bewusst sind. Das entspricht auch dem Wunsch vieler Schüler*innen, dass Schulen und Lehrkräfte mehr zur richtigen und effektiven Nutzung von KI-Chatbots unterrichten sollten. Die Unterrichtseinheit „Machine Learning. Intelligente Maschinen“ bietet einen ersten Einblick darin, wie Künstliche Intelligenz funktioniert und wo Machine Learning überall im Alltag vorkommt. Das Material regt dazu an, Diskussionen über die Zukunft und den weiteren Einsatz von KI-Anwendungen zu führen. Mit dem Unterrichtsmaterial von Experience AI können Schüler*innen zudem ihre eigene KI-Anwendung programmieren und ihr Wissen praktisch vertiefen. In der Materialsammlung von weitklick finden sich darüber hinaus noch weitere Unterrichtsmaterialien rund um KI, welche zur Vertiefung des Themas eingesetzt werden können.

Internet Matters empfiehlt des Weiteren, dass auch Lehrkräfte sich ständig weiter- und fortbilden sollten und klare Richtlinien für die KI-Nutzung in ihrem Unterricht festlegen sollten. weitklick bietet dazu ein umfangreiches, kostenloses Angebot an Fortbildungen zu KI an Schulen.

Weitere Unterrichtsmaterialien

Webinar: Künstliche Intelligenz verstehen, Medienkompetenz fördern | 29.04.2025

weitklick – Das Netzwerk für digitale Medien- und Meinungsbildung veranstaltet ein kostenfreies Webinar am 29.04.2025 zum Thema „Künstliche Intelligenz verstehen, Medienkompetenz fördern“. Es findet von 16 bis 18 Uhr statt.
Was bedeutet der Begriff KI? Welche Chancen und auch Risiken stecken in KI-Anwendungen? Wie können Lehrkräfte junge Menschen im verantwortungsvollen Umgang mit KI unterstützen?

Über das Webinar

Im Webinar tauchen Lehrende gemeinsam mit Expert*innen aus Forschung und medienpädagogischer Praxis in die Welt der Künstlichen Intelligenz ein. Sie erhalten einen kompakten Überblick über die Grundlagen von KI und maschinellem Lernen.
Ob im Kontext von Chatbots, Sprachassistenten oder anderen digitalen Anwendungen, überall begegnet man jetzt dem Begriff „Künstliche Intelligenz“. Auch Kinder und Jugendliche werden im privaten und schulischen Alltag immer wieder damit konfrontiert. Doch nicht alle wissen, was KI eigentlich ist und wie sie funktioniert.
Es wird darauf eingegangen, welche Chancen sich durch die Nutzung von KI-Tools in der Lehrpraxis ergeben, aber auch welche Risiken KI birgt und wo Grenzen in der Anwendung gesetzt werden müssen.
Gastreferent Steffen Brill (Lehrkraft & Gründer von eduhu) blickt auf die Grenzen und Potenziale von KI in der Lehrpraxis. Gemeinsam wird diskutiert, wie Medienbildung rund um KI mit Jugendlichen gelingen kann!

  • Wann? 29.04.2025 | 16:00-18:00 Uhr
  • Wo? Online: Das Webinar wird über das Tool „Zoom“ realisiert.
  • Jetzt kostenfrei anmelden: www.weitklick.de/veranstaltungen/webinar-kuenstliche-intelligenz-verstehen-medienkompetenz-foerdern
  • Hinweis: Das Webinar ist kostenlos und offen für alle Interessierten! Eine Teilnahme ist nur nach Anmeldung möglich.
  • Datenschutz: Zoom ist ein Service der Zoom Video Communications Inc., die ihren Sitz in den USA hat. Wir nutzen Zoom über den deutschen Betreiber easymeet24. Serverstandort von easymeet24 ist Europa. Weiterhin haben wir innerhalb des Dienstes Zoom die Konfigurationen mit dem höchsten Daten- und Sicherheitsschutz gewählt. Bitte nehmen Sie auch von der Datenschutzerklärung Kenntnis.

Ermöglicht wird das Webinar durch das Programm „Experience AI“: Die FSM setzt dies in Partnerschaft mit der Raspberry Pi Foundation und durch finanzielle Unterstützung von Google.org mit dem Projekt weitklick in Deutschland um.

KI als Unterrichtsthema: ChatGPT verstehen lernen — Chancen und Risiken für den Schulalltag

Seit sie im November 2022 von der US-amerikanischen Firma OpenAI veröffentlicht wurde, hat die Textgenerierungs-KI ChatGPT (Chat Generative Pre-trained Transformer) sowohl in den Nachrichten als auch in den sozialen Medien für viel Aufruhr gesorgt. Zwar sind das Konzept und die Technologie, die hinter ChatGPT stecken, nichts Neues — Chatbots und KI-Textgenerierung stehen der Öffentlichkeit schon seit einigen Jahren zur Verfügung — jedoch sticht ChatGPT dadurch hervor, dass sie für eine kostenfreie Anwendung weitaus ausgereifter ist als ihre Konkurrenz. Und dass, obwohl es sich bei der derzeitigen Version von ChatGPT nur um eine Testversion handelt, die kontinuierlich anhand von Nutzerbeiträgen und -interaktionen verbessert wird.

KI verstehen und im Unterricht behandeln

Doch wie funktioniert eigentlich künstliche Intelligenz und was steckt hinter Anwendungen wie ChatGPT? Mit unserer Unterrichtseinheit Machine Learning. Intelligente Maschinen können Schüler*innen die Themen KI und Machine Learning nachvollziehen und verstehen lernen. Lehrende erhalten in flexibel einsetzbaren Unterrichtsmodulen Informationen, vielfältige Methoden und Praxisanregungen rund um KI für den Unterricht. Vorkenntnisse sind dabei nicht nötig. Ein grundlegendes Verständnis über Machine Learning Algorithmen und Anwendungen ist essentiell, damit Schüler*innen eine eigene Haltung zu dem Thema und ihrem Nutzungsverhalten entwickeln sowie sich zu verschiedenen ethischen Fragestellungen, die in diesem Zusammenhang entstehen, positionieren können. Insbesondere die Untereinheit „Machine Learning in unserem Alltag: Wertvolle Unterstützung oder bedenkliches Unterfangen? Ein Gespräch“ bietet sich für einen Dialog zwischen Schüler*innen und Lehrer*innen über das Thema Machine Learning und KI im Alltag an.

ChatGPT und weitere Technologien im Schulalltag einsetzen: Pro und Contra

Entsprechend einer Testversion stößt ChatGPT immer wieder an seine Limits. So arbeitet die Anwendung noch immer auf Grundlage von Daten aus 2021 und kann somit keine Auskünfte über aktuelle Ereignisse geben. Außerdem ist es derzeit noch schwer nachvollziehbar, woher die Informationen, die ChatGPT ausgibt, eigentlich stammen. Auch auf eine direkte Anfrage nach deren Ursprung reagiert ChatGPT nur mäßig: Quellenangaben sind oft falsch oder nicht einheitlich zitiert und die Anwendung erfindet mitunter auch einfach Quellen, die es gar nicht gibt. Zwar gibt es Schutzmechanismen, die die Verbreitung von schädlichen, nicht jugendfreien oder falschen Informationen und Inhalten verhindern sollen, doch auch diese sind noch nicht komplett verlässlich.

Falschinformationen und Betrug: Risiken für den Schulalltag?

Dies könnte insofern ein Problem für Schulen darstellen, als dass Schüler*innen ihren uneingeschränkten Zugang zu ChatGPT nutzen könnten, um sich Fragen von der KI beantworten lassen, auch wenn diese falsche, unsubstantiierte oder veraltete Antworten geben könnte. Es ist deswegen ausschlaggebend, dass Schulen die Existenz der Anwendung nicht einfach ignorieren oder sie gar verbieten, sondern dessen korrekte und verantwortliche Nutzung in den Unterricht integrieren. Es ist die Aufgabe von Lehrkräften, die Medienkompetenzen ihrer Schüler*innen zu stärken und ihnen nicht nur die technischen Aspekte der Nutzung zu vermitteln, sondern auch wie man die Antworten der KI kritisch hinterfragt und selbst nach Quellen sucht, die deren Antworten bestätigen oder widerlegen.

Expert*innen befürchten außerdem, dass Schüler*innen ChatGPT nutzen könnten, um bei Klausuren oder Hausarbeiten zu betrügen, da die KI selbstständig komplett kohärente Texte verfassen kann, welche zudem von Plagiatssoftwares meist nicht als solche erkannt werden können. Es gibt Bemühungen Programme zu entwickeln, die KI-Texte erkennen können, doch wegen der kontinuierlichen Verbesserung von ChatGPT fällt es Entwicklern schwer, Erkennungssoftwares zeitnah an den Wandel anzupassen. Eine definitive Abhilfe gibt es gegenwärtig also noch nicht. Als Maßnahmen gegen Betrug werden von Expert*innen die stärkere Aufsicht während schriftlicher Klausuren empfohlen, sowie das Verlangen von Prozessportfolios bei Hausarbeiten. Auch sollen sich Klausuren künftig mehr auf die Schilderung der eigenen Meinung oder die Interpretation von Texten fokussieren und weniger auf die einfache Reproduktion von Inhalten, da die KI in ihren Texten keine Position einnehmen kann, da sie keine Meinungen vertritt. Mündliche Prüfungen sollen ebenfalls häufiger eingesetzt werden, um Betrug zu verhindern.

KI als Entlastung für Lehrkräfte?

Doch ChatGPT bringt nicht nur Nachteile für den Schulalltag mit sich, sondern eröffnet auch immer wieder neue Chancen. Die KI kann unter anderem Lehrkräften bei der Unterrichtsvorbereitung helfen, indem sie das Schreiben von Infotexten oder Lückentexten übernimmt, welche anschließend von der Lehrkraft nur noch auf deren Richtigkeit überprüft werden müssen, statt von Grund auf neu verfasst werden zu müssen. Auch kann ChatGPT auf Basis von kurzen Anmerkungen der Lehrer individuelle, vollkommen ausgeführte Rückmeldungen an Schüler*innen erstellen und auf Basis ihres Lernfortschrittes personalisiertes Lernmaterial zur Verfügung stellen. So könnten z.B. Schüler*innen mit Lernschwächen Texte erhalten, die von der KI in vereinfachte Sprache umgeschrieben wurden, ohne eine große Mehrarbeit für Lehrkräfte darzustellen.

Je individualisierter die Informationen jedoch sind, die man ChatGPT gegenüber preisgibt, desto mehr Sorgen entstehen. So ist aus datenschutzrechtlicher Sicht durchaus fraglich, ob es Lehrer*innen erlaubt sein sollte, ihre eigenen Einschätzungen und Eindrücke zum Leistungsstand ihrer Schüler*innen an den Service weiterzugeben. Zumal dieses Problem desweiteren auch noch dadurch verschärft wird, dass für ChatGPT freigegebene Daten bislang nicht lokal auf Schulservern, sondern ausschließlich in der Cloud des Anbieters verarbeitet und gespeichert werden können.

Wie hilft ChatGPT den Schüler*innen?

Auch Schüler*innen — insofern sie von ihren Lehrer*innen zuvor zur richtigen Nutzung angewiesen worden sind — können ChatGPT selbstständig zu ihrem Nutzen einsetzen. So kann ChatGPT ihnen komplexe Sachverhalte einfach erklären, Zusammenfassungen und Überblicke über Bücher, Theaterstücke oder Lehrbuchkapitel liefern oder zur Klausurvorbereitung dienen, indem sie individualisierte Fragen zu vorgegebenen Lernmaterialien erstellt, anhand derer Schüler*innen Klausursituationen simulieren können. Auch im Informatikunterricht kann das Tool eingesetzt werden, da es Programme debuggen und Schüler*innen in Kommentaren erklären kann, worin ihre Fehler bestanden und wie sie diese künftig verbessern und vermeiden können.

Wie viele neuartige Technologien bringt ChatGPT also Nachteile mit sich, birgt jedoch auch ebenso viele Vorteile. Aber um diese Vorteile verantwortungsbewusst nutzen zu können, benötigen Schüler*innen die entsprechenden Medienkompetenzen sowie müssen Schulen Wege finden, um Betrugsversuche vorzubeugen, sie zu erkennen und zu ahnden. Vor allem, da weitere Anbieter wie Meta und Baidu bereits zeitgleich planen, vergleichbare KI-Chatbots auf den Markt zu bringen, ist es umso wichtiger, Schüler*innen auf das wachsende Angebot an KI-Diensten vorzubereiten. Auch OpenAI selbst hat seine Dienste bereits um das KI-Bildgenerierungstool DALL-E-2 erweitert und entwickelt derzeit zudem noch KI-Stimmen- und Videogenerierungstools, die in der Zukunft ebenfalls eine Rolle im Schulalltag spielen könnten.