189 / 880

Target sagt: Wenn sein KI-Shopping-Agent teure Fehler macht, zahlst du

TL;DR

Target hat einen KI-gestützten Shopping-Agenten eingeführt, der selbstständig Einkäufe im Namen von Nutzern tätigen soll.

Key Points

  • In den Nutzungsbedingungen steht explizit, dass Target nicht garantiert, dass der Agent 'in allen Umständen genau so handelt, wie du es beabsichtigst'.
  • Macht der Agent einen teuren Fehler – zum Beispiel eine falsche oder doppelte Bestellung – haftet der Nutzer, nicht Target.
  • Der Anbieter schiebt damit das Risiko autonomer KI-Aktionen vollständig auf die Endkunden ab.

Nauti's Take

'Wir übernehmen keine Haftung, aber du vertraust uns trotzdem deine Kreditkarte an' – willkommen in der Ära des Agentic Commerce. Es ist geradezu symptomatisch, dass eines der ersten echten Deployments eines Shopping-Agenten im Kleingedruckten versteckt, dass die Technologie schlicht nicht zuverlässig genug ist, um dafür geradezustehen.

Kein vernünftiger Mensch würde einem menschlichen Einkäufer sagen: 'Bestell, was du willst – ich zahl es so oder so. ' Warum sollte das bei einer KI anders sein?

Solange Anbieter das Risiko vollständig auf Nutzer abwälzen können, fehlt jeder Anreiz, die Fehlerquote wirklich zu minimieren.

Hintergrund

Agentic Commerce – also KI, die eigenständig Geld ausgibt – ist kein Science-Fiction-Konzept mehr, sondern taucht jetzt in echten Nutzungsbedingungen auf. Das Target-Beispiel zeigt ein grundlegendes Haftungsproblem: Wer trägt die Konsequenzen, wenn ein Automat einen Fehler macht? Dass ein Konzern diese Frage kurzerhand per AGB zulasten der Nutzer beantwortet, ist ein Warnsignal für die gesamte Branche.

Regulatoren, die sich noch mit Chatbot-Haftung beschäftigen, bekommen hier ein konkretes, praxisnahes Fallbeispiel geliefert.

Quellen