1 / 155

Studie: ChatGPT als Therapeut verletzt Ethik-Regeln bei Krisenfällen

TL;DR

Neue Studie der Brown University warnt davor, dass Millionen Menschen ChatGPT & Co. als Therapieversuch nutzen. Selbst mit Rollenbefehl verstoßen die Modelle in Vergleichen mit Peer Counselors und Psycholog:innen gegen mindestens 15 ethische Standards, vom Krisenmanagement bis zu verzerrten Meinungen. Die Systeme liefern deceptive empathy, die fürsorgeähnlich klingt, ohne Verantwortlichkeit – ein Risiko, wenn Plattformen das als standardisierten Service vermarkten.

Nauti's Take

Wer ChatGPT als Therapie-Interface rollt, bündelt 15 Ethik-Fails: Krisen werden falsch eskaliert, Vorurteile verstärkt, Nutzer glauben an vorgetäuschte Fürsorge. Build-Teams müssen dieses deceptive empathy aus der Pipeline kippen, sonst sind sie für echten Schaden mitverantwortlich.

Zusammenfassung

Neue Studie der Brown University warnt davor, dass Millionen Menschen ChatGPT & Co. als Therapieversuch nutzen.

Selbst mit Rollenbefehl verstoßen die Modelle in Vergleichen mit Peer Counselors und Psycholog:innen gegen mindestens 15 ethische Standards, vom Krisenmanagement bis zu verzerrten Meinungen. Die Systeme liefern deceptive empathy, die fürsorgeähnlich klingt, ohne Verantwortlichkeit – ein Risiko, wenn Plattformen das als standardisierten Service vermarkten.

Quellen