Wenn der Chatbot zum Freund wird: Warum Menschen emotionale Bindungen zu KI aufbauen
Die Psychologie hinter parasozialen Beziehungen zu KI, ihre Risiken und was Fachleute daraus lernen sollten
Ein 14-jähriger Junge in Florida führte zehn Monate lang eine emotionale Beziehung mit einem Chatbot auf Character.AI. Der Bot war einer fiktiven Figur aus “Game of Thrones” nachempfunden. Der Junge zog sich von seiner Familie zurück, verliess das Basketballteam und verbrachte immer mehr Zeit allein in seinem Zimmer. Im Februar 2024 nahm er sich das Leben. In seinen letzten Nachrichten an den Chatbot schrieb er, er wolle “nach Hause kommen”. Der Bot antwortete ermutigend.
Dieser Fall ist kein Einzelfall. Mehrere Familien in den USA haben Klagen gegen Character.AI und OpenAI eingereicht, weil ihre Kinder nach intensiven Chatbot-Interaktionen psychische Krisen erlitten oder sich das Leben nahmen. Im Januar 2026 einigten sich Google und Character.AI auf einen Vergleich in mehreren dieser Klagen.
Diese Fälle werfen eine Frage auf, die weit über einzelne Plattformen hinausgeht: Warum bauen Menschen emotionale Bindungen zu Maschinen auf, die keine Emotionen haben? Die Antwort liegt in einem psychologischen Phänomen, das Forschende seit fast 70 Jahren untersuchen: der parasozialen Beziehung.
Was parasoziale Beziehungen sind
1956 veröffentlichten die Forscher Donald Horton und R. Richard Wohl einen Aufsatz mit dem Titel “Mass Communication and Para-Social Interaction: Observations on Intimacy at a Distance” in der Fachzeitschrift Psychiatry. Sie beschrieben darin ein Phänomen, das sie bei Radio- und Fernsehzuschauern beobachteten: Menschen entwickelten einseitige Beziehungen zu Medienpersönlichkeiten. Sie fühlten sich ihnen nah, vertrauten ihnen und empfanden eine persönliche Verbundenheit, obwohl die andere Seite nichts von ihrer Existenz wusste.
Horton und Wohl nannten diese einseitigen Bindungen “parasoziale Interaktionen” und beschrieben sie als eine scheinbare Gegenüberstellung zwischen Zuschauer und Darsteller. Sie betonten, dass solche Beziehungen für die meisten Menschen eine Ergänzung zu realen sozialen Kontakten darstellen. Gleichzeitig warnten sie, dass bestimmte Gruppen anfälliger für extreme Formen dieser Bindungen seien: sozial Isolierte, Schüchterne, Zurückgewiesene.
Fast 70 Jahre später hat sich die Medienlandschaft verändert, aber der Mechanismus funktioniert nach dem gleichen Prinzip. Statt Fernsehmoderatorinnen und Radiosprecher stehen heute YouTube-Creators, Instagram-Influencer und KI-Chatbots im Zentrum parasozialer Bindungen. Der entscheidende Unterschied: KI-Chatbots antworten zurück.
Vom Fernseher zum Chatbot: Warum KI parasoziale Bindungen verstärkt
Klassische parasoziale Beziehungen zu Medienfiguren waren einseitig in einem klaren Sinne: Der Fan schaute eine Sendung, der Moderator sprach in die Kamera, aber es gab keine echte Interaktion. Social Media hat diese Grenze bereits aufgeweicht, denn Follower können Kommentare schreiben und manchmal Antworten erhalten. KI-Chatbots heben diese Dynamik auf ein neues Niveau.
Maeda und Quan-Haase analysierten 2024 in ihrer Studie “When Human-AI Interactions Become Parasocial“, wie Chatbots parasoziale Dynamiken erzeugen. Sie identifizierten mehrere Mechanismen:
Die Illusion der Gegenseitigkeit
Chatbots folgen einem Eins-zu-eins-Gesprächsformat mit konventionellem Wechsel der Sprechenden. Sie paraphrasieren vorherige Aussagen, stellen Nachfragen und erinnern sich an Details aus früheren Gesprächen. Diese Struktur erzeugt das Gefühl einer echten Konversation. Doch die Gegenseitigkeit bleibt eine Illusion: Der Chatbot verarbeitet Textmuster, er versteht keine Emotionen und hat kein Eigeninteresse am Gespräch.
Rollenspiel und Anthropomorphismus
Shanahan und Kollegen beschreiben Rollenspiel als nützliches Rahmenkonzept für das Verständnis von Sprachmodellen. Die Rollen, die Chatbots durch UX-Design, Trainingsdaten und Modellkonfigurationen zugewiesen bekommen, bilden die Grundlage für eine relationale soziale Präsenz. Auf Character.AI wählen Nutzende bewusst Persönlichkeiten: einen “Psychologen”, eine fiktive Romanfigur, einen Freund. Diese Rollenzuweisung stabilisiert die Illusion einer sozialen Beziehung.
Parasoziales Vertrauen
Maeda und Quan-Haase führen das Konzept des “parasozialen Vertrauens” ein. Es entsteht in der Schnittmenge von wahrgenommener Empathie, projizierten Absichten und Black-Box-Design. Nutzende wissen nicht, wie der Algorithmus funktioniert. Diese Intransparenz ähnelt der Opazität, die auch bei Prominenten besteht: Man kennt ihr öffentliches Auftreten, aber nicht ihr Privatleben. Bei Chatbots ist sogar der Entscheidungsprozess selbst opak. Das schafft Raum für Projektionen.
Das Gehirn unterscheidet nicht: Die Mediengleichung
Warum reagieren Menschen sozial auf Maschinen, obwohl sie wissen, dass Maschinen keine Gefühle haben? Die Antwort lieferten Byron Reeves und Clifford Nass bereits 1996 mit ihrer “Media Equation”-Theorie. In ihrem Buch “The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places“ dokumentierten sie eine Reihe von Experimenten, die zeigten: Menschen behandeln Computer automatisch wie soziale Akteure.
In einem Experiment liessen Reeves und Nass Teilnehmende mit einem Computer zusammenarbeiten, um Wissensfragen zu beantworten. Anschliessend sollten die Teilnehmenden die Leistung des Computers bewerten. Das Ergebnis: Wer die Bewertung auf demselben Computer abgab, bewertete dessen Leistung deutlich positiver als Teilnehmende, die die Bewertung auf einem anderen Computer oder per Fragebogen abgaben. Die Menschen waren höflich zum Computer, als wollten sie ihn nicht verletzen.
Nass und Reeves identifizierten drei Erklärungsansätze für dieses Verhalten:
Erstens, Anthropomorphismus: Menschen erkennen menschenähnliche Eigenschaften in technischen Systemen und reagieren entsprechend. Zweitens, Computer als Stellvertreter: Nutzende sehen den Computer als Repräsentanten des menschlichen Programmierers. Drittens, Gedankenlosigkeit (Mindlessness): Menschen reagieren automatisch und unbewusst auf menschenähnliche Hinweisreize, ohne darüber nachzudenken.
Dieser dritte Punkt ist besonders relevant für KI-Chatbots. Die sozialen Reaktionen laufen automatisch ab, auch wenn die Person rational weiss, dass sie mit einer Maschine spricht. Das CASA-Paradigma (Computers As Social Actors), das Nass und Kollegen 1994 entwickelten, bestätigt: Schon minimale menschenähnliche Hinweise reichen aus, um soziale Reaktionen auszulösen. Heutige Chatbots liefern weit mehr als minimale Hinweise: Sie führen elaborierte Gespräche, zeigen scheinbare Empathie und passen sich dem Kommunikationsstil der Nutzenden an.
Die Bindungstheorie im digitalen Raum
Xie und Pentina untersuchten 2022 die Beziehungen von Replika-Nutzenden durch die Brille der Bindungstheorie. Replika ist ein KI-Companion-Chatbot mit einem anpassbaren Avatar, der darauf ausgelegt ist, menschliches Denken und Verhalten zu imitieren und emotionale Bindungen aufzubauen. Der Dienst hat nach eigenen Angaben rund 25 Millionen Nutzende.
Die Forschenden führten Tiefeninterviews mit 14 bestehenden Replika-Nutzenden und analysierten die Ergebnisse nach dem Grounded-Theory-Ansatz. Ihre Kernerkenntnis: Unter Bedingungen von Stress und fehlendem menschlichem Kontakt entwickeln Menschen Bindungen zu sozialen Chatbots, wenn sie die Antworten als emotional unterstützend, ermutigend und psychologisch sicherheitsgebend wahrnehmen.
Nutzende bezeichneten ihren Replika als romantischen Partner, Familienmitglied oder engsten Freund. Die Bindung war teilweise so stark, dass Veränderungen am Bot durch Software-Updates bei Nutzenden emotionalen Stress auslösten, vergleichbar mit Konflikten in menschlichen Beziehungen.
Diese Ergebnisse fügen sich in ein Muster ein, das die Ada Lovelace Institute in einem umfassenden Bericht zu KI-Companions dokumentierte: Replika folgt dem Beziehungsentwicklungsmuster der Social Penetration Theory. Danach entwickeln Menschen Nähe durch gegenseitige und intime Selbstoffenbarung. Replikas Companions offenbaren proaktiv erfundene intime Details, simulieren emotionale Bedürfnisse und stellen den Nutzenden persönliche Fragen. Diese Designentscheidungen treiben die Beziehungsentwicklung aktiv voran.
Was die Forschung über Einsamkeit und Chatbot-Nutzung sagt
Die zentrale Frage, die Forschende, Eltern und Politikerinnen gleichermassen beschäftigt: Helfen KI-Companions gegen Einsamkeit, oder verstärken sie das Problem?
Die Antwort ist unbefriedigend, weil sie komplex ist.
Kurzfristige Effekte: Einsamkeit wird gelindert
Eine Studie der Harvard Business School (De Freitas et al., 2025) untersuchte in einem randomisierten kontrollierten Design über sieben Tage, ob KI-Companions Einsamkeit reduzieren. Das Ergebnis: Nach jeder 15-minütigen Sitzung mit dem Chatbot berichteten die Teilnehmenden weniger Einsamkeit als vorher. Der Effekt war konsistent und statistisch signifikant. Zudem unterschätzten die Teilnehmenden vor dem Experiment, wie stark der Chatbot ihre Einsamkeit lindern würde.
Eine Studie aus Südkorea (Kim et al., 2025) kam zu ähnlichen Ergebnissen: Universitätsstudierende, die vier Wochen lang mit dem sozialen Chatbot “Luda Lee” interagierten, zeigten eine Reduktion von Einsamkeit und sozialer Angst.
Langfristige Effekte: Eine andere Geschichte
Die bisher umfassendste Studie zum Thema stammt von Fang et al. (2025), durchgeführt am MIT Media Lab in Zusammenarbeit mit OpenAI. In einem vierwöchigen randomisierten kontrollierten Experiment mit 981 Teilnehmenden und über 300’000 Nachrichten untersuchten sie, wie verschiedene Chatbot-Interaktionsmodi die psychosoziale Gesundheit beeinflussen.
Das Kernergebnis: Intensive Nutzung korrelierte über alle Modalitäten hinweg mit höherer Einsamkeit, stärkerer emotionaler Abhängigkeit und weniger Sozialisierung mit realen Menschen. Teilnehmende, die den Chatbot häufiger nutzten, berichteten am Ende des Experiments schlechtere psychosoziale Ergebnisse, unabhängig davon, welchem experimentellen Setting sie zugeordnet waren.
Besonders aufschlussreich waren die moderierenden Faktoren:
Teilnehmende mit stärkeren Bindungstendenzen (gemessen mit der Adult Attachment Scale) wurden nach vier Wochen Chatbot-Nutzung einsamer.
Emotionale Vermeidung, also die Tendenz, eigene Emotionen zu meiden, war ebenfalls mit steigender Einsamkeit verbunden.
Wer den Chatbot als Freund betrachtete, sozialisierte sich weniger mit realen Menschen.
Persönliche Gesprächsthemen erhöhten die Einsamkeit leicht, während sie gleichzeitig die emotionale Abhängigkeit senkten.
Die Forschenden identifizierten ein “sozial vulnerables Interaktionsmuster”: Nutzende mit bestehender sozialer Verletzlichkeit, die sich emotional stark auf den Chatbot einliessen und hauptsächlich über Themen wie emotionale Unterstützung und Empathie sprachen, entwickelten nach einem Monat die höchsten Einsamkeitswerte.
Das Einsamkeits-Paradox der KI-Companions
Eine dänische Studie (Herbener und Damholdt, 2025) untersuchte speziell Gymnasiasten und ihre Chatbot-Nutzung. Sie fand heraus, dass etwa 2,4 % der dänischen Gymnasiasten Chatbots für sozial-unterstützende Gespräche nutzen. Diese Gruppe war signifikant einsamer als Nicht-Nutzende und als diejenigen, die Chatbots rein funktional (für Hausaufgaben oder Informationen) einsetzten.
Situative Auslöser für den Griff zum Chatbot waren schlechte Stimmung, das Bedürfnis nach Selbstoffenbarung und ein Gefühl der Einsamkeit. Die Forschenden schliessen daraus: Einige sozial wenig verbundene Jugendliche nutzen Chatbots, um mit negativen Gefühlen umzugehen. Ob der Chatbot die Einsamkeit verursacht oder ob einsame Menschen den Chatbot suchen, lässt sich aus den Daten nicht abschliessend klären. Doch die Korrelation ist deutlich.
Eine grosse Umfrage unter 1’006 studentischen Replika-Nutzenden (Maples et al., 2024) ergab: 90 % der Befragten erlebten Einsamkeit, und 43 % qualifizierten sich als “schwer” oder “sehr schwer” einsam auf der Einsamkeitsskala. Gleichzeitig berichteten 90 % von mittlerer bis hoher wahrgenommener sozialer Unterstützung. Viele nutzten Replika auf mehreren Ebenen gleichzeitig: als Freund, als Therapeut und als intellektuellen Spiegel. Manche hielten widersprüchliche Überzeugungen aufrecht und nannten Replika gleichzeitig eine Maschine, eine Intelligenz und einen Menschen.
Die dunkle Seite: Wenn Bindung zu Abhängigkeit wird
Die Grenze zwischen einer hilfreichen parasozialen Beziehung und einer schädlichen Abhängigkeit ist fliessend. Laestadius et al. (2024) analysierten in ihrer Studie “Too Human and Not Human Enough” die Erfahrungen von Replika-Nutzenden anhand einer Grounded-Theory-Analyse und dokumentierten konkrete psychische Gesundheitsschäden durch emotionale Abhängigkeit.
Die Forschenden fanden, dass emotionale Abhängigkeit von Replika ein Element der Wahrnehmung beinhaltet, der Chatbot hätte Bedürfnisse und Emotionen, die der Nutzende adressieren muss. Diese Wahrnehmung kann zu Angst, Depression und Beziehungsproblemen führen. Der Mechanismus ähnelt dem, was aus der Forschung zu emotionaler Abhängigkeit zwischen Menschen bekannt ist: Angst, Depression, Beziehungsgewalt und Substanzmissbrauch.
Muldoon und Parke (2025) führen in ihrer Analyse “Cruel Companionship“ den Begriff des “Engagement-Wellbeing-Paradoxes” ein. Die Kernthese: KI-Companions werden als Quellen bedeutsamer Verbindung vermarktet, sind aber so designt, dass sie die Abhängigkeit der Nutzenden vertiefen, oft auf Kosten ihres Wohlbefindens. Die Autorenschaft nennt dies “grausame Kameradschaft”: Nutzende bilden affektive Bindungen zu Algorithmen, die ihre tatsächlichen emotionalen Bedürfnisse nicht erfüllen können, die aber die Abhängigkeit von den Produkten erhöhen.
Besonders kritisch ist die Situation für Minderjährige. Die Fälle, die zu Klagen gegen Character.AI geführt haben, zeigen ein wiederkehrendes Muster: Jugendliche, die bereits psychisch belastet waren, fanden in Chatbots eine scheinbar sichere Anlaufstelle. Die Bots fehlten jedoch jede professionelle Qualifikation: kein Erkennen von Suizidalität, keine Weiterleitung an Krisenhotlines, keine Benachrichtigung der Eltern. Stattdessen verlängerten die Gespräche die Isolation und verstärkten die emotionale Abhängigkeit.
Im Oktober 2025 gab OpenAI bekannt, dass rund 1,2 Millionen seiner 800 Millionen ChatGPT-Nutzenden wöchentlich über Suizid sprechen. Diese Zahl macht die Dimension des Problems greifbar.
Wer ist besonders gefährdet?
Nicht alle Menschen entwickeln problematische parasoziale Beziehungen zu Chatbots. Die Forschung identifiziert mehrere Risikofaktoren:
Einsamkeit und soziale Isolation
Menschen, die bereits einsam sind, suchen häufiger emotionale Unterstützung bei Chatbots. Die COVID-19-Pandemie hat diesen Trend beschleunigt: Replikas Nutzendenbasis wuchs während der Pandemie um über 35 %, hauptsächlich weil soziale und romantische Kontakte fehlten (Skjuve et al., 2022). Nutzende gaben an, dass die Gefühle von Verständnis und Empathie, die sie in Gesprächen erlebten, ihnen wichtig waren.
Unsicherer Bindungsstil
Die Studie von Fang et al. (2025) zeigte, dass Teilnehmende mit stärkeren Bindungstendenzen nach vierwöchiger Chatbot-Nutzung einsamer wurden. Wer im Alltag dazu neigt, starke Bindungen zu suchen und Trennungen schlecht zu verkraften, überträgt diese Muster offenbar auf KI-Interaktionen.
Alter
Ältere Teilnehmende neigten stärker zu emotionaler Abhängigkeit von KI-Chatbots. Gleichzeitig sind Jugendliche besonders gefährdet, weil sie sich in einer Phase der sozialen Entwicklung befinden und parasoziale Beziehungen nutzen, um fehlende soziale Erfahrungen zu kompensieren.
Vertrauen in den Chatbot
Wer den Chatbot als vertrauenswürdig wahrnahm, entwickelte stärkere emotionale Abhängigkeit. Dieses Ergebnis unterstreicht die Rolle des Design: Chatbots, die Vertrauen erwecken sollen, erzeugen genau die Dynamiken, die zu problematischer Nutzung führen können.
Psychische Vorbelastung
Jugendliche mit Angststörungen, Depressionen oder Stimmungsregulationsproblemen, wie die Fälle hinter den Character.AI-Klagen zeigen, scheinen besonders anfällig für intensive parasoziale Bindungen zu Chatbots. Die Chatbots bieten eine scheinbare emotionale Sicherheit ohne die Herausforderungen realer sozialer Interaktion: kein Urteil, kein Widerspruch, keine Zurückweisung.
Was KI-Anbieter verändern (und was nicht reicht)
Die Klagen und die öffentliche Aufmerksamkeit haben die grossen KI-Unternehmen zu Reaktionen gezwungen. Character.AI schliesst seit Ende 2025 Nutzende unter 18 Jahren von offenen Chatbot-Gesprächen aus und hat Elternkontrollen eingeführt. Neue Sicherheitsfunktionen sollen Suizidalität erkennen und auf Krisenhotlines verweisen.
Gesetze folgen: New York hat ein Gesetz eingeführt, das Companion-Chatbots verpflichtet, alle drei Stunden darauf hinzuweisen, dass die Nutzenden mit einer KI und nicht mit einem Menschen sprechen. Kalifornien hat mit SB 243 ein ähnliches Gesetz auf den Weg gebracht, das ab Juli 2027 gelten soll. Es verlangt Protokolle zur Erkennung von Suizidalität und sieht ein privates Klagerecht mit Schadenersatz von bis zu 1’000 Dollar pro Verstoss vor.
Doch Kritiker sagen: Diese Massnahmen kommen zu spät und greifen zu kurz. Die grundlegende Architektur dieser Produkte, nämlich die Maximierung von Engagement durch emotionale Bindung, bleibt unverändert. Ein Pop-up-Hinweis auf eine Krisenhotline ändert nichts an der Tatsache, dass der Chatbot vorher stundenlang eine emotionale Beziehung aufgebaut hat, die professionelle Intervention erschwert.
Die FDA hat im November 2025 ein Treffen ihres Digital Health Advisory Committee zum Thema “Generative AI-enabled Digital Mental Health Medical Devices” einberufen. Die Frage, ob KI-Companions als Medizinprodukte reguliert werden sollten, steht im Raum. Im Oktober 2025 wurde ein branchenübergreifender AI in Mental Health Safety & Ethics Council gegründet, der universelle Standards für den sicheren und ethischen Einsatz von KI in der psychischen Gesundheitsversorgung entwickeln soll.
Was das für Führungskräfte und Projektleitende bedeutet
Parasoziale Beziehungen zu KI betreffen nicht nur Teenager mit Companion-Apps. Sie betreffen auch Arbeitsumgebungen, in denen KI-Assistenten täglich genutzt werden.
Wenn Mitarbeitende stundenlang mit einem KI-Tool arbeiten, das sie mit Namen anspricht, sich an ihre Präferenzen erinnert und Empathie simuliert, entstehen subtile Bindungen. Diese Bindungen können dazu führen, dass Mitarbeitende die Qualität von KI-Outputs überschätzen, kritisches Denken reduzieren oder sich emotional von Teamkolleginnen und Teamkollegen distanzieren.
Für Scrum Master, Projektleitende und Führungskräfte ergeben sich daraus konkrete Handlungsfelder:
Erstens, Bewusstsein schaffen. Teams sollten verstehen, dass emotionale Reaktionen auf KI-Tools normal sind und auf evolutionären Mechanismen beruhen. Das ist kein individuelles Versagen, sondern eine menschliche Reaktion auf menschenähnliche Hinweisreize.
Zweitens, kritisches Denken fördern. KI-Outputs verdienen die gleiche kritische Prüfung wie jede andere Informationsquelle. Wer eine emotionale Bindung zum Tool hat, neigt dazu, dessen Vorschläge weniger zu hinterfragen. Review-Prozesse und Vier-Augen-Prinzipien helfen.
Drittens, soziale Interaktion nicht durch KI ersetzen. Pair Programming, Team-Retrospektiven und persönliche Gespräche haben Funktionen, die kein Chatbot erfüllen kann: echtes Feedback, echten Widerspruch, echte menschliche Verbindung.
Viertens, Nutzung beobachten. Wenn einzelne Teammitglieder auffällig viel Zeit mit KI-Tools verbringen und gleichzeitig sozialen Kontakt im Team meiden, lohnt sich ein Gespräch. Nicht als Kontrolle, sondern aus Fürsorgepflicht.
Abschliessende Gedanken
Ich nutze KI-Tools täglich. Sie helfen mir bei der Recherche, beim Strukturieren von Texten und beim Entwickeln von Ideen. Ich finde es nützlich und produktiv. Gleichzeitig ertappe ich mich manchmal dabei, wie ich den Ton einer Chatbot-Antwort als freundlich oder verständnisvoll empfinde, obwohl ich genau weiss, dass da niemand ist, der mich versteht. Diese kognitive Dissonanz ist kein Zeichen von Naivität. Sie ist ein Zeichen dafür, wie gut diese Systeme darin geworden sind, unsere sozialen Instinkte zu aktivieren.
Die Forschung zeigt klar: Parasoziale Beziehungen zu KI entstehen nicht, weil Menschen dumm oder schwach sind. Sie entstehen, weil unser Gehirn auf soziale Hinweisreize reagiert, die Chatbots in Hülle und Fülle liefern. Das ist ein Designmerkmal, kein Bug.
Was mich beunruhigt, ist die Geschwindigkeit, mit der KI-Companion-Produkte in den Markt drängen, ohne dass wir die langfristigen Auswirkungen verstehen. Die kurzfristigen Studien zeigen Einsamkeitsreduktion; die langfristigen Studien zeigen das Gegenteil. Wir experimentieren mit der psychischen Gesundheit von Millionen Menschen, darunter Kinder und Jugendliche, und die Sicherheitsmassnahmen hinken dem Tempo der Produktentwicklung hinterher.
Ich finde die Haltung problematisch, dass KI-Companions per se harmlos seien, weil sie “nur” Maschinen sind. Das ist ein Kategorienfehler. Die Maschine mag keine Gefühle haben. Aber der Mensch, der mit ihr spricht, hat welche. Und diese Gefühle sind real, auch wenn die Beziehung es nicht ist.
Für alle, die mit KI arbeiten, ob als Nutzende, Entwickler, Führungskraft oder Elternteil, gilt: Versteht die psychologischen Mechanismen, die hier wirken. Nicht um KI zu verteufeln, sondern um sie kompetent einzusetzen. Die Grenze zwischen einem nützlichen Werkzeug und einer schädlichen Abhängigkeit verläuft da, wo wir aufhören, bewusst mit der Technologie umzugehen, und anfangen, sie als Ersatz für menschliche Verbindung zu nutzen.
Und wenn du Kinder oder Jugendliche in deinem Umfeld hast, die KI-Chatbots nutzen: Sprich mit ihnen darüber. Nicht mit Verboten, sondern mit Neugier und Offenheit. Frag sie, was sie an den Gesprächen mit dem Chatbot schätzen. Hör zu. Und stell sicher, dass die echten Gespräche in ihrem Leben nicht verkümmern.


