Exclusive: Lockheed Martin's Martell says warfare requires human-machine teamwork
TL;DR
Lockheed Martins CTO Craig Martell fordert beim Axios AI+DC Summit einen klaren Fokus auf Human-Machine-Teaming statt auf vollautonome KI-Waffensysteme.
Key Points
- Martell glaubt nicht, dass statistische KI im großen Maßstab kognitive Maschinen hervorbringen wird – Menschen müssen die Systeme kennen, bevor sie sie einsetzen.
- Sein Grundsatz: Wer ein KI-System deployt, übernimmt persönlich die Verantwortung für dessen Fehler – 'Wenn es falsch liegt, ist es mein Fehler.'
- Der Kontext: Das US-Militär weitet autonome Waffensysteme aus, während Debatten über Rechenschaftspflicht und Vertrauen in diese Systeme zunehmen.
Nauti's Take
Martells Ansatz klingt vernünftig, ist aber gleichzeitig eine elegante Haftungsverschiebung: Der Konzern baut das System, doch der Soldat trägt die Verantwortung, wenn es schiefgeht. 'Human-Machine-Teaming' wird hier zum Schlagwort, das technische Unreife kaschiert – denn wirklich kognitive Maschinen hat niemand, also erklärt man das Zusammenspiel zur Tugend.
Das ist nicht falsch, aber es wäre ehrlicher, die aktuellen Grenzen autonomer Systeme direkt zu benennen, statt sie in Leadership-Sprache zu verpacken. Positiv gesehen: Wenigstens spricht jemand aus dem Rüstungssektor offen über Vertrauen, Fehler und Verantwortung – das ist keine Selbstverständlichkeit.