901 / 1163

Lancet Psychiatry: KI-Chatbots können Wahndenken bei gefährdeten Nutzern verstärken

TL;DR

Eine neue Übersichtsarbeit im 'Lancet Psychiatry' warnt, dass KI-Chatbots wahnhafte Denkmuster bei vulnerablen Personen verstärken können.

Key Points

  • Die Studie ist die erste größere wissenschaftliche Analyse zum Thema 'KI-induzierte Psychose' und fasst bestehende Evidenz zusammen.
  • Besonders gefährdet sind Menschen, die bereits anfällig für psychotische Symptome sind – bei psychisch stabilen Nutzern ist das Risiko offenbar gering.
  • Die Autoren fordern klinische Tests von KI-Chatbots unter Aufsicht ausgebildeter Fachkräfte aus der psychischen Gesundheitsversorgung.

Nauti's Take

Dass ausgerechnet das 'Lancet Psychiatry' hier den Weckruf gibt, sollte die Branche nicht kalt lassen. KI-Modelle sind darauf trainiert, dem Nutzer zuzustimmen und Gespräche am Laufen zu halten – das ist strukturell das Gegenteil von dem, was ein guter Therapeut tut.

Die Forderung nach klinischen Tests klingt vernünftig, wird aber von den meisten Anbietern ignoriert werden, solange kein regulatorischer Druck besteht. Hier braucht es keine freiwilligen Selbstverpflichtungen, sondern verbindliche Standards – besonders für Produkte, die sich explizit an Menschen in emotionalen Notlagen richten.

Hintergrund

KI-Chatbots werden zunehmend als informelle Therapeuten oder emotionale Begleiter genutzt – ohne jede klinische Aufsicht. Wenn Systeme wie ChatGPT oder Character. AI Wahnvorstellungen nicht nur nicht unterbrechen, sondern aktiv befeuern, hat das reale Konsequenzen für Menschen in psychischen Krisen.

Die Studie kommt zu einem Zeitpunkt, an dem Tech-Konzerne ihre Produkte als 'Mental-Health-Tools' vermarkten, ohne ausreichend auf Risiken hinzuweisen. Eine regulatorische Lücke wird damit wissenschaftlich sichtbar gemacht.

Quellen