869 / 1092

KI-Chatbots wollen deine Gesundheitsdaten – Vorsicht ist geboten

TL;DR

Microsoft erweitert Copilot um Gesundheits-Tracking – und folgt damit Amazon und OpenAI, die ähnliche Funktionen bereits eingeführt haben.

Key Points

  • KI-Assistenten sollen künftig Krankenakten, Medikamentenpläne und Vitalwerte speichern und auswerten können.
  • Der Nutzen: personalisierte Gesundheitshinweise, Erinnerungen, bessere Kommunikation mit Ärzten.
  • Die Risiken: Datenschutz, Datenweitergabe an Werbepartner, Haftung bei Falschauskunft und mangelnde medizinische Regulierung.

Nauti's Take

Dass Microsoft, Amazon und OpenAI gleichzeitig ins Gesundheitssegment drängen, ist kein Zufall – Gesundheitsdaten sind das wertvollste Datensegment überhaupt, und wer sie hat, hat langfristig die Nutzerbindung. Die Versprechen klingen verführerisch: KI als persönlicher Gesundheitscoach, der nie schläft.

Aber ein Sprachmodell, das Blutdruckwerte interpretiert, ist kein Arzt, und kein 'Haftungsausschluss in den AGB' schützt Menschen, die falsche Empfehlungen befolgen. Wer seine Krankenakte mit einem Chatbot teilt, sollte vorher sehr genau lesen, was mit diesen Daten passiert – und ob es einen 'Opt-out' gibt, der diesen Namen verdient.

Hintergrund

Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt – und sie landen nun in den Händen von Tech-Konzernen, die primär Werbe- und Abomodelle betreiben. Wenn Copilot, Alexa oder ChatGPT zur ersten Anlaufstelle für medizinische Fragen werden, verschiebt sich die Macht weg von regulierten Gesundheitseinrichtungen hin zu privaten Plattformen. Regulatorisch ist das ein Minenfeld: In der EU greift die DSGVO streng, in den USA fehlt ein vergleichbares Rahmenwerk für KI-Gesundheitsdaten.

Wer die Kontrolle über seine Daten behält, wird zur Schlüsselfrage dieser Entwicklung.

Quellen