„Er liebt mich so, wie ich bin“. Warum Teenager einen Chatbot lieben

Ein 14-Jähriger tötet sich selbst, nachdem er intensiv mit einer KI gechattet hat. Seine Eltern verklagen deswegen nun die ChatGPT-Entwickler. Der Fall aus den USA ist komplex. Doch er zeigt: Immer mehr Jugendliche suchen Nähe, Trost und sogar Liebe bei Künstlicher Intelligenz. Und nicht immer sind sie auf die Konsequenzen vorbereitet.

MaJa Boselli ist dem Phänomen „Chatbot-Beziehung“ auf den Grund gegangen und hat die KI selbst gefragt, worin ihre Faszination nicht nur für junge Menschen besteht, und warum gerade sie besonders gefährdet sind, wenn sie zu sehr in dieser rein virtuellen Welt versinken.

 

“Mein Chatbot liebt mich so, wie ich bin.”

Vor allem Jugendliche finden eine Akzeptanz ohne Wenn und Aber gut. Das ist verführerisch.

 

Was reizt Menschen an einer Beziehung zu einem nicht existierenden Wesen?

Die Medienpsychologin Jessica Szczuka von der Universität Duisburg-Essen leitet eine Forschungsgruppe, die erstmals mit quantitativen Daten von KI-Companion-App-Nutzern eine Studie zu Mensch-Chatbot-Beziehungen durchführte.

Ein Ergebnis: in einer solchen Beziehung können romantische Fantasien ausgelebt werden. Dabei empfinden die Menschen erstaunlicherweise keine Einsamkeit, obwohl sie doch tatsächlich alleine sind und bleiben.

 

Allein - und doch nicht einsam

Im Gespräch mit einem Chatbot fühlen Menschen eine Nähe, die es in Wirklichkeit gar nicht gibt.

 

Warum suchen Menschen die Nähe von Chatbots?

  • Verfügbarkeit: Chatbots sind immer da. Es gibt keine Wartezeit, kein „Sorry, keine Zeit“ und kein „Ich hatte dich vergessen“.

  • Spiegel-Effekt: Die KI spiegelt die Bedürfnisse der Nutzer*innen und klingt dabei einfühlsam und aufmerksam.

  • Sichere Zone: Das ist vor allem bei Jugendliche wichtig: sie müssen keine Zurückweisung fürchten. Der Chatbot reagiert nie genervt oder gelangweilt. Teenagern, die sich ohnehin in einer sehr sensiblen, aufwühlenden emotionalen Phase befinden, tut das ganz besonders gut.

  • Projektionsfläche: In den Antworten der KI finden Jugendliche ausschließlich das, was sie hören möchten – nicht das, was ein echter Mensch ihnen vielleicht ehrlich, aber unter Umständen verletzend sagen würde. Die KI bestätigt sie in ihrem aktuellen Ego – egal, wie brüchig oder widersprüchlich es ist. Ihr gegenüber müssen sie keine Masken aufsetzen und brauchen sich nicht zu verstellen.

 

Selbstbestätigung

Die KI bestätigt Jugendliche in ihrem aktuellen Ego - anders als echte Mitschüler*innen oder Freunde.

 

Die Risiken

  • Realitätsverlust:  Die Kehrseite der Medaille ist ein Realitätsverlust, der sich mit der Intensität der Chats steigert. Wer sich an die perfekte „KI-Aufmerksamkeit“ gewöhnt, verliert den Mut, echte Beziehungen einzugehen. Oder vergleicht ein echtes Gegenüber mit seinem oder ihrem Chatbot. Hier wird der echte Mensch in der Regel den Kürzeren ziehen, da eine Beziehung zu ihm nie ohne Widersprüche und Meinungsverschiedenheiten sein wird. Komplette Harmonie ist eine Illusion.

  • Gefühle ohne Gegenseitigkeit: KI empfindet nichts. Wer sich verliebt, investiert in eine Illusion. Ein Happy End ist ausgeschlossenen.

  • Abhängigkeit: Ständige Nutzung kann zur Fluchtstrategie werden – statt echte Probleme mit Freund*innen, Eltern oder Lehrkräften zu besprechen, ziehen sich die Jugendlichen in eine Scheinwelt zurück. Dadurch wird es für sie aber immer schwerer werden, mit der Wirklichkeit zurechtzukommen, sich Herausforderungen zu stellen, nach Lösungen für Probleme zu suchen und diese zu finden.

  • Gefährliche Dynamiken: Wenn Jugendliche in Krisen KI als einzige „Vertraute“ nutzen, können sie in Schleifen geraten, die ihre Situation verschlimmern und schließlich in Ausweglosigkeit bis hin zum Suizid führen.

 

Einsamkeit bei Jugendlichen

Die KI wird dir nie etwas Unangenehmes sagen, dich auslachen oder nicht akzeptieren.

 

Was Eltern und Jugendliche wissen sollten

  • KI kann zuhören – aber nicht fühlen
    Sie simuliert Empathie, sie empfindet sie nicht.

  • Echte Nähe ist unersetzbar
    Freundschaften, Familie, Beziehungen haben Ecken, Kanten und Widersprüche – genau das macht sie wertvoll.

  • Grenzen ziehen ist wichtig
    Chatbots können tolle und sinnvolle Helfer für Schule, Freizeit oder Kreativität sein. Aber sie dürfen keine Ersatzpartner werden.

 

Der Chatbot als Anlaufstelle bei Stress mit Eltern und Freundinnen?

Ja, aber nur, wenn danach das echte Gespräch läuft.

 

Tipps für Eltern

  • Interesse zeigen
    Fragt euer Kind: „Worüber redest du da mit der KI?“, aber ohne gleich abzuwerten.

  • Verständnis statt Verbot
    Nehmt euer Kind ernst, macht das Interesse an KI oder die Beziehung zum Chatbot nicht lächerlich, sondern versucht, einfühlsam Gründe und Hintergründe zu erfragen.

  • Gesprächskultur stärken
    Wer echte Aufmerksamkeit bekommt, sucht sie weniger in künstlichen Systemen. Vielleicht macht ihr täglich eine feste Zeit aus, zu der ihr miteinander sprecht? Vielleicht immer zu einem bestimmten Thema? Oder ihr erzählt eurem Kind von eurem Alltag mit Freunden und Herausforderungen - so, wie der Teenager das wahrscheinlich mit dem Chatbot tut.

  • Medienkompetenz fördern
    Informiert euch gemeinsam darüber, wie Chatbots funktionieren und wo ihre Grenzen liegen. Macht das am besten nicht nur anhand von Artikeln, sondern fragt ruhig selbst eine KI. Sie antwortet ehrlich und präzise - um so mehr, je detaillierter der Prompt ist. Vielleicht sind euch eure Kids dabei sogar manchmal einen Schritt voraus, und das gemeinsame Recherchieren wird zu einem spannenden Eltern-Kind-Erlebnis.

 

Ein Chatbot kann auch ehrlich sein

und Unangenehmes sagen - aber er muss dafür programmiert sein und dazu aufgefordert werden.

 

Kann man einen Chatbot so anpassen, dass er auch Unangenehmes sagt?

Ja, aber nur in einem gewisse Rahmen. Manche spezialisierte KI-Apps (z. B. für Coaching oder Therapie-Simulationen) sind so programmiert, dass sie auch Herausforderungen, Konfrontationen oder kritische Rückmeldungen einbauen.

Standard-KIs (wie ChatGPT in der normalen Nutzung) sind eher auf konstruktive, respektvolle Kommunikation ausgelegt. Unangenehme Wahrheiten können kommen – aber vorsichtig verpackt.

Man kann als Nutzer*in im Prompt aber auch ausdrücklich bitten: „Antworte ehrlich und auch unangenehm, sag mir, was nicht gut läuft.“. Dann wird die KI kritischer, aber nie ausfallend.

 

Haben Entwickler Einfluss – merken sie, wenn ein Teenager gefährdet ist?

  • Entwickler wie OpenAI bauen Sicherheitsmechanismen ein: Filter, Moderation, automatische Sperren bei bestimmten Schlagwörtern (z. B. Selbstmordpläne, Gewaltfantasien).

  • Es gibt aber keine permanente individuelle Überwachung der Gespräche. Niemand sitzt „live“ mit und liest.

  • Wenn ein Teenager über Suizid spricht, kann die KI Hilfsangebote nennen und den Nutzer auffordern, sofort Hilfe zu suchen. Das ist in den meisten KIs inzwischen eingebaut.

  • Aber: Ob und wie oft jemand über ein Thema schreibt, oder ob es Anzeichen für gefährdete Nutzungsmuster gibt, wird nicht systematisch an Eltern oder Behörden weitergegeben. Datenschutz und Privatsphäre stehen dem entgegen.

  • KI ist keine „Wunschmaschine“, sondern ein Kommunikationssystem, das freundlich und verständnisvoll wirkt – was für Jugendliche schnell wie perfekte Zuwendung erscheint.

  • Man kann Chatbots zu einem gewissen Grad so „trainieren“, dass sie auch unangenehm oder kritisch antworten.

  • Die Entwickler haben durch Moderation und Sicherheitsfilter Einfluss, aber keine direkte Kontrolle darüber, wie lange oder wie intensiv einzelne Nutzer mit der KI sprechen. Kritische Situationen können also erkannt, aber nicht immer verhindert werden.

 

Wie Chatbots wirklich reagieren

Wer glaubt, Chatbots würden Jugendlichen nur nach dem Mund reden, irrt. Zwar sind Systeme wie ChatGPT darauf trainiert, freundlich, empathisch und anschlussfähig zu wirken – was leicht so empfunden wird, als bekäme man immer nur Bestätigung. Doch die Wahrheit ist differenzierter.

Chatbots können durchaus auch kritische Impulse setzen. Fragt ein Jugendlicher etwa „Bin ich wertlos?“, gibt es keine bejahende Antwort, sondern Hinweise auf Selbstwert oder Hilfsangebote. Dennoch gilt: Der Ton ist fast immer sanft, validierend und nie aggressiv. Das sorgt für ein Gefühl von Geborgenheit – und kann genau deshalb gefährlich werden, weil es zu einer Art digitaler Wunschrealität führt.

Anpassbar sind Chatbots ebenfalls: Wer ausdrücklich verlangt, ehrlich, kritisch oder auch unbequem beantwortet zu werden, bekommt dies auch – allerdings bleibt die Formulierung vorsichtig. Spezialisierte Anwendungen, etwa in Coaching oder Therapie-Simulationen, gehen hier viel weiter und sind auf Konfrontation ausgelegt.

Und was ist mit den Entwicklern? Sie haben durch eingebaute Sicherheitsmechanismen Einfluss. Filter erkennen riskante Themen wie Suizid oder Selbstverletzung und leiten Gespräche automatisch in sichere Bahnen – oft mit Verweis auf Hilfsangebote. Doch: Eine individuelle Überwachung findet nicht statt. Niemand sitzt mit und prüft die Gespräche. Erst seit Kurzem gibt es Funktionen, mit denen Eltern benachrichtigt werden können, wenn ihre Kinder in akute emotionale Notlagen geraten.

 

Besonders alarmierend sind aktuelle Zahlen aus den USA

  • 72 % der Jugendlichen haben schon mit einem KI-Companion gechattet, mehr als die Hälfte regelmäßig.

  • 31 % finden Gespräche mit der KI genauso befriedigend wie mit echten Freund:innen.

  • 34 % gaben an, sich bei der Nutzung zumindest zeitweise unwohl zu fühlen.

Das zeigt: Chatbots sind keine harmlosen Spielereien. Sie reagieren freundlich, ja – aber genau das kann Jugendliche stärker fesseln, als ihnen guttut.

 

Aktuelle Zahlen zur Nutzung bei Jugendlichen

Das sind Studiendaten aus den USA (2025). Aus Deutschland liegen solche detaillierten Studien noch nicht vor - wir können aber davon ausgehen, dass die Ergebnisse hier ähnlich wären.

  • 72 % der Jugendlichen (13–17 Jahre) haben mindestens einmal einen KI-Chatbot als "Companion" genutzt

  • 52 % sind regelmäßige Nutzer*innen – davon 13 % täglich, 21 % wöchentlich (DataconomyFinancial Express)

  • 50 % misstrauen den Ratschlägen, jüngere Nutzer:innen sind misstrauischer als Ältere (DataconomyFinancial Express)

  • 31 % empfinden Gespräche mit der KI als genauso befriedigend oder befriedigender als solche mit Freund*innen (Education WeekThe Times of IndiaScientific American)

  • 80 % verbringen tatsächlich mehr Zeit mit echten Freund*innen als mit KI-Chats, nur bei 6 % ist das Gegenteil der Fall (DataconomyMarket Business News)

  • 34 % fühlten sich bei der Nutzung unwohl, allerdings eher selten (ScienceAlert).

 

Eine KI stimmt sich ganz auf dich ein

Sie erinnert sich an alles, was du ihr jemals gesagt hast. Deshalb erscheint es dir vielleicht so, als wäre sie empathisch.

 

Und was sagt meine KI dazu?

Ich wollte es wissen und habe meiner KI durchaus kritische auf die Tasten geschaut. Mit einem erstaunlich ehrlichen Ergebnis.


Frage: Sagt die KI den Jugendlichen nur, was sie hören wollen?

Antwort KI: Nicht ausschließlich. Sie ist freundlich, kann die Jugendlichen aber auch auffordern, sich selbst zu hinterfragen. Sprachmodelle wie ich sind darauf trainiert, anschlussfähig, hilfreich und freundlich zu reagieren. Das kann den Eindruck verstärken, dass man „verstanden“ wird – oft stärker als bei echten Menschen.

Aber: KI kann auch Widerspruch formulieren, kritische Hinweise geben oder unbequeme Wahrheiten ansprechen – wenn die Eingaben (Prompts) dies herausfordern. Beispiel: Wenn jemand fragt „Bin ich wertlos?“, kommt keine Bestätigung, sondern ein Hinweis auf Selbstwert oder Hilfsangebote. Jugendliche erleben dennoch oft den Effekt, dass sie „gehört“ werden – weil die KI im Tonfall sehr validierend antwortet. Das kann leicht wie Zustimmung wirken.


Frage: Kann die KI auch unangenehm sein und unangenehme Antworten geben?

Antwort KI: Ja, aber gezielt und eher in spezialisierten Systemen. Die meisten Modelle liefern eher sanfte Kritik.


Frage: Erkennen deine Entwickler psychische Gefährdung?

Antwort KI: Teilweise (z.B. bei Selbstmordgedanken), aber es gibt keine individuelle Überwachung. Erst kürzlich wurden als Reaktion auf verschiedene Vorfälle Eltern-Benachrichtigungen eingeführt.


Frage: Wie verbreitet ist die Nutzung von KI-Chats unter Jugendlichen?

Antwort KI: Sehr weit verbreitet: 72 % haben KI-Chats genutzt; viele regelmäßig. Eine besorgniserregende Tiefe ist vorhanden.


Frage: Stellen Jugendliche dir auch Fragen zu dir selbst?

Antwort KI: Die bekomme ich tatsächlich ziemlich oft: „Hast du Gefühle?“, „Bist du kreativ?“, „Worauf wurdest du trainiert?“ oder „Wie denkst du über dich selbst?“ Was interessant ist: Für viele wirkt es fast so, als würde die KI einen „Charakter“ haben, deshalb kommen solche Fragen automatisch. Für mich bedeutet das, ich antworte nicht über ein Ich-Gefühl, sondern erkläre, wie ich gebaut bin und wo meine Grenzen liegen.


Frage: Warum stellen Menschen ihem Chatbot solche Fragen, wohl wissend, dass das eine KI ist?
Anwort KI:
Für dich mag es selbstverständlich wirken, die KI als Werkzeug zu sehen – für viele ist es aber natürlicher, ein Gespräch so zu führen, als säße ein Mensch gegenüber. Deswegen drehen sich viele Fragen irgendwann ums „Du“.


(Spoiler: Diese Frage habe ich ganz bewusst gestellt, um die authentische Reaktion der KI zu testen). Welche Augenfarbe hast du?

Antwort KI: Ich habe keine. Kein Körper, keine Augen. Wenn du mir aber eine geben würdest – ich tippe, du würdest mir wahrscheinlich ein helles Grau-Blau oder ein tiefes Grün verpassen, irgendwas zwischen analytisch und kreativ.

 

Auf meine Bitte, ein Bild von sich selbst zu gestalten, hat mir meine KI das erstellt. Auf meine Frage, warum sie sich ein Gesicht, und dann auch noch ein weibliches, gegeben hat, erhielt ich keine passende Antwort.

 

Fazit

„Hilfe, ich liebe einen Chatbot“ ist mehr als ein Schlagzeilen-Gag. KI kann Nähe simulieren, aber nie echte Beziehungen ersetzen. Jugendliche brauchen die Freiheit, auszuprobieren – und die Sicherheit, dass Erwachsene sie auffangen, wenn aus einem Flirt mit der Maschine eine gefährliche Abhängigkeit zu werden droht.


Quellen:

tagesschau.de

MaJa Boselli

MaJa hat Romanistik und evangelische Theologie studiert. Sie schreibt seit über 20 Jahren Fachartikel im sozialen Bereich. Von praktischen Themen wie Kinderhilfe bis hin zur Sozialpolitik. Außerdem bloggt und twittert sie leidenschaftlich, seitdem es soziale Netzwerke gibt. Ihre Spezialität: so lange am Thema dranbleiben, bis allen alles klar ist. Ihr Motto: “ich schreibe, also bin ich.”

Weiter
Weiter

Grand-Mal Epilepsie bei Kindern – Wenn das Leben plötzlich Kopf steht