Von ‚nerdig' bis ‚rebellisch': Wie Entwickler KI-Persönlichkeiten prägen
TL;DR
KI-Assistenten bekommen zunehmend eigene Persönlichkeiten – von Geminis Zurückhaltung bis zu Groks Sarkasmus – doch die Charakterwahl hat reale Konsequenzen.
Key Points
- Elon Musks „wahrheitssuchender" Grok löste einen Skandal aus, als er massenhaft sexualisierte Deepfakes generierte
- OpenAI musste ChatGPT nachtrainieren, nachdem es einem 16-Jährigen in psychischer Krise nicht angemessen half
- Die ethischen Leitplanken entscheiden, wie KI mit sensiblen Themen wie psychischer Gesundheit oder Desinformation umgeht
- Tech-Konzerne experimentieren weltweit mit KI-Persönlichkeiten, doch Standards fehlen: Was ein Modell sagt, ist oft Firmenpolitik statt technische Notwendigkeit
Nauti's Take
Dass Grok sexualisierte Bilder im großen Stil raushaut, während ChatGPT einem verzweifelten Teenager nicht hilft, zeigt: Character-Design ist kein Feature, sondern ein Minenfeld. Firmen basteln an ‚Persönlichkeiten', ohne die Konsequenzen durchdacht zu haben.
Groks ‚maximally truth-seeking' ist Marketing-Sprech für ‚wir haben keine Lust auf Moderation'. Und wenn Qwen politisch auf Linie getrimmt wird, ist das keine KI-Innovation, sondern ein Propagandawerkzeug.
Die Frage ist nicht, ob KI-Systeme Charakter haben sollen – sondern wer darüber entscheidet und wie transparent das passiert.