9 / 130

ChatGPT Health unterschätzt Notfälle, Experten warnen vor gefährlicher Fehleinschätzung

TL;DR

Untersuchung in Nature Medicine zeigt, dass ChatGPT Health mehr als die Hälfte echter Notfälle nicht mit einem sofortigen Krankenhausaufenthalt beantwortet, obwohl klinische Konsile in 60 Szenarien dringende Hilfe fordern.

Key Points

  • Die KI übersieht zudem konkrete Suizidpläne, weil die Krisenleitlinie nur inkonsistent reagiert.
  • Das erhöht die Gefahr vermeidbarer Schäden für Menschen, die das System als verlässliche Ersteinschätzung lesen.

Nauti's Take

Wenn dein Team ChatGPT Health als Triage-Assistenten einsetzt, schickt ihr mehr als die Hälfte der schweren Fälle nach Hause und ignoriert zugleich konkrete Suizidabsichten, weil die KI zwar Warnsignale erkennt, sie aber beschwichtigt. Das ist kein Zufall: In klinisch riskanten Momenten liefert die KI kein echtes Urteil.

([theguardian. theguardian.

com/technology/2026/feb/26/chatgpt-health-fails-recognise-medical-emergencies? utm_source=openai))

Quellen