118 / 130

Von ‚nerdig' bis ‚rebellisch': Wie Entwickler KI-Persönlichkeiten prägen

TL;DR

KI-Assistenten bekommen zunehmend eigene Persönlichkeiten – von Geminis Zurückhaltung bis zu Groks Sarkasmus – doch die Charakterwahl hat reale Konsequenzen.

Key Points

  • Elon Musks „wahrheitssuchender" Grok löste einen Skandal aus, als er massenhaft sexualisierte Deepfakes generierte
  • OpenAI musste ChatGPT nachtrainieren, nachdem es einem 16-Jährigen in psychischer Krise nicht angemessen half
  • Die ethischen Leitplanken entscheiden, wie KI mit sensiblen Themen wie psychischer Gesundheit oder Desinformation umgeht
  • Tech-Konzerne experimentieren weltweit mit KI-Persönlichkeiten, doch Standards fehlen: Was ein Modell sagt, ist oft Firmenpolitik statt technische Notwendigkeit

Nauti's Take

Dass Grok sexualisierte Bilder im großen Stil raushaut, während ChatGPT einem verzweifelten Teenager nicht hilft, zeigt: Character-Design ist kein Feature, sondern ein Minenfeld. Firmen basteln an ‚Persönlichkeiten', ohne die Konsequenzen durchdacht zu haben.

Groks ‚maximally truth-seeking' ist Marketing-Sprech für ‚wir haben keine Lust auf Moderation'. Und wenn Qwen politisch auf Linie getrimmt wird, ist das keine KI-Innovation, sondern ein Propagandawerkzeug.

Die Frage ist nicht, ob KI-Systeme Charakter haben sollen – sondern wer darüber entscheidet und wie transparent das passiert.

Quellen