OpenAI Robotics-Chefin Kalinowski geht nach Überwachungs- und Lethalitätsbedenken
TL;DR
Caitlin Kalinowski, Leiterin der Robotics-Abteilung bei OpenAI, ist zurückgetreten – als Begründung nennt sie ethische Bedenken rund um Überwachung und letale Autonomie.
Key Points
- Kalinowski äußerte sich öffentlich auf X und machte deutlich, dass sie nicht bereit ist, an Technologien mitzuwirken, die für autonome Waffensysteme oder Massenüberwachung eingesetzt werden könnten.
- Ihr Abgang ist einer der prominentesten ethisch begründeten Rücktritte bei OpenAI seit dem Abgang mehrerer Safety-Forscher im Jahr 2024.
- OpenAI hat sich zuletzt gegenüber Militär- und Regierungskooperationen geöffnet – ein Kurswechsel, der intern offenbar für erhebliche Spannungen sorgt.
Nauti's Take
Wenn die Robotics-Chefin geht, weil sie nicht will, dass ihre Arbeit in Drohnen oder Überwachungssystemen endet, sollte das laut aufhorchen lassen. OpenAI verkauft sich nach außen weiterhin als verantwortungsvolles KI-Labor – intern aber sieht es zunehmend nach klassischem Rüstungskonzern aus, der Safety-Rhetorik als Marketinginstrument nutzt.
Kalinowski hat das offenbar erkannt und die einzig konsequente Entscheidung getroffen. Die Frage ist: Wie viele folgen noch, bevor OpenAI seine ethische Fassade komplett aufgibt?
Hintergrund
Kalinowskis Rücktritt ist kein Einzelfall, sondern Teil eines Musters: Seit OpenAI seinen 'dual use'-Kurs ausgeweitet hat, verliert das Unternehmen gezielt jene Mitarbeitenden, die Safety und Ethik als Kernprinzip verstehen. Die Robotik-Sparte steht dabei besonders im Fokus – denn autonome physische Systeme mit KI-Steuerung sind die nächste Eskalationsstufe in der Debatte um letale Autonomie. Wer dort die Führung verliert, verliert auch die ethische Kontrolle über das, was gebaut wird.