6 / 1463

Die nächste Phase der AI-Cybersicherheit braucht weiterhin Menschen

TL;DR

Die cyberfähigen AI-Modelle von Anthropic und OpenAI bleiben laut Praxistests stark auf menschliches Know-how angewiesen. Anthropics Mythos Preview entdeckte zwar zehntausende Bugs über fast alle Betriebssysteme hinweg, OpenAIs GPT-5.5-Cyber zieht beim Finden und Exploiten gleich. Entscheidend ist aber, wie gut Sicherheitsteams diese Systeme steuern, validieren und in Prozesse einbetten.

Nauti's Take

Gute Nachricht für Security-Teams: Wer AI als Verstärker statt Ersatz versteht, gewinnt Tempo bei Bug-Triage und Exploit-Forschung. Das Risiko läuft in die andere Richtung – dieselben Modelle landen früher oder später bei Angreifern, und ohne menschliche Validierung produzieren sie False Positives und gefährliche Empfehlungen.

Profitieren werden Teams mit klarem Review-Prozess; vorsichtig sein müssen alle, die AI-Findings ungeprüft in Pipelines einspielen.

Quellen