KI-getriebene Cyberkonflikte: Technische Realität autonomer Angriffs- und Verteidigungssysteme

KI-getriebene Cyberkonflikte: Technische Realität autonomer Angriffs- und Verteidigungssysteme

Auf der Cybertech Global Conference im Januar 2026 warnte der Leiter der Israel National Cyber Directorate (INCD), Brigadegeneral a. D. Yossi Karadi, vor einer neuen Qualität digitaler Konflikte. Künftige Auseinandersetzungen könnten vollständig im Cyberraum stattfinden – ohne kinetische Gewalt, aber mit erheblichen Auswirkungen auf Staat, Wirtschaft und Gesellschaft.

Der häufig zitierte Begriff eines „Cyberkriegs ohne einen einzigen Schuss“ beschreibt dabei keine rhetorische Zuspitzung, sondern eine sicherheitspolitische Verschiebung. Cyberoperationen gewinnen durch Künstliche Intelligenz an Geschwindigkeit, Autonomie und Reichweite. Damit verändern sich nicht nur Angriffsformen, sondern auch die Bedingungen, unter denen staatliche Steuerung, Regulierung und der Betrieb kritischer Infrastrukturen wirksam bleiben können.


Eine Lage im Dauerbetrieb

Nach Angaben des Israel National Cyber Directorate (INCD) bearbeitete die Behörde im Jahr 2025 mehr als 26.000 Cybervorfälle. Gegenüber dem Vorjahr entspricht dies einem Anstieg von rund 55 Prozent. Karadi wies darauf hin, dass der überwiegende Teil dieser Aktivitäten frühzeitig erkannt und abgewehrt worden sei. Die Zahlen stehen damit weniger für erfolgreiche Angriffe als für die kontinuierliche operative Belastung der nationalen Cyberabwehr.

Ergänzend verwies Karadi auf internationale Vergleichsdaten eines großen US-Technologieunternehmens, wonach Israel zu den weltweit am stärksten attackierten Staaten zählt. Die genannte Größenordnung von etwa 3,5 Prozent aller global beobachteten Cyberaktivitäten ist dabei als indikative Einordnung zu verstehen, nicht als exakte statistische Vermessung.

Entscheidend ist daher weniger die konkrete Prozentzahl als die dahinterliegende Aussage: Cyberangriffe sind kein Ausnahmeereignis und kein episodisches Krisenphänomen mehr, sondern ein permanenter Faktor staatlicher Sicherheits- und Resilienzplanung.


Von Werkzeugen zu autonomen Angriffsketten

Der qualitative Bruch moderner Cyberangriffe liegt weniger in ihrer Anzahl als in ihrer operativen Struktur. Karadi beschrieb eine Entwicklung hin zu KI-gestützten Systemen, die nicht mehr einzelne Werkzeuge oder Exploits einsetzen, sondern vollständige Angriffsketten autonom orchestrieren. Diese Systeme identifizieren Schwachstellen, variieren Angriffswege, bewerten Abwehrreaktionen und passen ihr Vorgehen kontinuierlich an die jeweilige Umgebung an.

Der entscheidende Unterschied zu klassischer Automatisierung liegt in der Zielorientierung. Statt vorab definierter Abläufe agieren solche Systeme adaptiv. Scheitert ein Ansatz, wird nicht abgebrochen, sondern ein alternativer Pfad gewählt. Angriff und Reaktion werden damit zu einem fortlaufenden Prozess, nicht zu einer Abfolge isolierter Schritte.

In diesem Modell verschiebt sich die Rolle des Menschen. Der menschliche Akteur tritt vom operativen Ausführer zum strategischen Gestalter von Zielen, Rahmenbedingungen und Grenzen zurück. Die sicherheitspolitische Relevanz ergibt sich aus der Geschwindigkeit dieser Prozesse. Wenn Cyberoperationen innerhalb von Sekunden eskalieren, schrumpft das Zeitfenster für menschliche Wahrnehmung, Bewertung und Intervention erheblich.

Angriffe können beginnen, Wirkung entfalten und beendet sein, bevor ein vollständiges, konsolidiertes Lagebild entsteht. Cyberkonflikte werden damit weniger durch einzelne Entscheidungen geprägt als durch das Zusammenspiel autonomer Systeme, deren Dynamik sich klassischen Entscheidungs- und Reaktionsmodellen entzieht.


Technischer Hintergrund: KI-Agenten als Systemarchitektur

Wenn im Cyberkontext von KI-Agenten gesprochen wird, ist damit kein einzelnes KI-Modell gemeint, sondern eine agentische Systemarchitektur, die auf Zielerreichung und kontinuierliche Anpassung ausgelegt ist. Solche Systeme bestehen typischerweise aus drei funktionalen Ebenen: Wahrnehmung, Entscheidungslogik und Aktion, die in einem geschlossenen Regelkreis miteinander interagieren.

Die Wahrnehmungsschicht erfasst fortlaufend Signale aus der technischen Umgebung. Dazu gehören Netzwerktelemetrie, System- und Prozesszustände, Logdaten, API-Antworten sowie Reaktionen bestehender Sicherheitsmechanismen. Diese Daten werden nicht isoliert ausgewertet, sondern korreliert und zu einem dynamischen Lagebild verdichtet, das sich mit jeder neuen Beobachtung aktualisiert.

Auf dieser Basis arbeitet die Entscheidungslogik. Sie kombiniert deterministische Regeln mit statistischen Verfahren und lernenden Modellen. Charakteristisch für agentische Systeme ist dabei nicht die bloße Klassifikation von Ereignissen, sondern die hypothesenbasierte Bewertung von Handlungsoptionen. Der Agent entwickelt Annahmen über mögliche Angriffspfade, Abwehrmechanismen oder Systemreaktionen und überprüft diese iterativ anhand neuer Beobachtungen. Entscheidungen sind damit nicht einmalig, sondern Teil eines fortlaufenden Anpassungsprozesses.

Die Aktionsschicht setzt diese Entscheidungen operativ um. Im offensiven Kontext kann dies das gezielte Ausnutzen identifizierter Schwachstellen, das Wechseln eines Angriffsvektors oder die zeitliche Steuerung von Aktivitäten sein. In der Verteidigung umfasst sie etwa das Isolieren betroffener Systeme, das dynamische Anpassen von Zugriffs- und Netzwerkregeln oder das Anstoßen vertiefender Analyse- und Reaktionsprozesse.

Entscheidend ist das Zusammenspiel dieser Ebenen. Wahrnehmung, Entscheidung und Aktion sind nicht sequenziell, sondern zyklisch gekoppelt. Dadurch entsteht ein System, das nicht auf vorab definierte Abläufe beschränkt ist, sondern sein Verhalten kontinuierlich an die jeweilige Umgebung anpasst.


Autonomie ohne Ohnmacht: Die defensive Seite der Agentik

Der starke Fokus auf agentische Angriffssysteme birgt die Gefahr eines einseitig pessimistischen Lagebilds. Tatsächlich liegt ein wesentlicher Mehrwert Künstlicher Intelligenz gerade auf der Verteidigungsseite. KI-gestützte Abwehrsysteme sind in der Lage, Muster in hochvolumigem und teilweise verschlüsseltem Datenverkehr zu erkennen, die sich einer rein menschlichen Analyse entziehen. Sie können Zusammenhänge über lange Zeiträume, unterschiedliche Systeme und mehrere Protokolle hinweg herstellen und Abweichungen identifizieren, noch bevor klassische Schwellenwerte oder Signaturen greifen.

Gerade in komplexen KRITIS-Umgebungen eröffnet dies neue Möglichkeiten der Früherkennung, Korrelation und Priorisierung von Sicherheitsereignissen. Autonome Verteidigung bedeutet in diesem Kontext nicht den Verlust von Kontrolle, sondern eine Verschiebung der Kontrolle. Entscheidungen werden nicht mehr primär im Einzelfall getroffen, sondern durch vorab definierte Zielsetzungen, Regeln und Eingriffsgrenzen gesteuert. Die operative Entlastung entsteht damit nicht durch weniger Verantwortung, sondern durch eine stärkere Systematisierung der Steuerung.

Ein besonderer Vorteil KI-gestützter Verteidigung liegt in der Erkennung sogenannter Low-and-Slow-Angriffe. Während menschliche Analysten und klassische Systeme auf Schwellenwerte und bekannte Muster angewiesen sind, können agentische Abwehrsysteme Mikroabweichungen über lange Zeiträume hinweg korrelieren – selbst in hochvolumigem oder verschlüsseltem Datenverkehr.

Dadurch wird nicht jede Abweichung automatisch zum Alarm, sondern in ihren funktionalen Kontext eingeordnet. Resilienz entsteht so weniger durch vollständige Verhinderung, sondern durch frühe Stabilisierung kritischer Funktionsketten, bevor operative oder gesellschaftliche Wirkung eintritt.


Kritische Infrastrukturen und Lieferketten

Besonders relevant ist diese Entwicklung für kritische Infrastrukturen. Karadi benannte staatliche Einrichtungen, den Finanzsektor und digitale Dienstleister als bevorzugte Ziele aktueller Cyberoperationen. Ergänzend berichteten Vertreter der Cybersecurity-Branche von einer Zunahme gezielter Angriffe auf vernetzte Kameras, Sensorik und andere randständige Komponenten, die häufig außerhalb klassischer Schutzkonzepte liegen.

Ein zusätzlicher Risikofaktor ergibt sich aus der zunehmenden Bedeutung der Software-Supply-Chain. KI-gestützte Angriffe sind in der Lage, Abhängigkeiten zwischen Zulieferern, Open-Source-Komponenten, Bibliotheken und Update-Mechanismen systematisch zu analysieren und gezielt auszunutzen. Agentische Systeme skalieren in diesem Umfeld besonders effektiv, da sie nicht einzelne Produkte kompromittieren, sondern ganze Abhängigkeitsnetze adressieren können.

Für Betreiber kritischer Infrastrukturen folgt daraus eine zentrale Konsequenz: Resilienz lässt sich nicht mehr isoliert auf Organisationsebene herstellen. Sie muss entlang der gesamten Lieferkette gedacht, bewertet und gesteuert werden – von der Entwicklung über die Distribution bis in den laufenden Betrieb.


Governance, Auditierbarkeit und NIS2

Die zunehmende Automatisierung und Autonomie cybertechnischer Systeme stellt klassische Governance-Modelle vor grundlegende Herausforderungen. Viele regulatorische Ansätze basieren implizit auf der Annahme, dass menschliche Freigabe- und Kontrollprozesse operative Sicherheit gewährleisten. In hochautomatisierten Umgebungen verliert dieses Modell jedoch an Wirksamkeit, da Entscheidungszyklen maschinell beschleunigt werden und menschliche Intervention zeitlich nicht mehr durchgängig möglich ist.

Gleichzeitig bleibt Verantwortung rechtlich nicht delegierbar. Auch wenn operative Entscheidungen automatisiert getroffen werden, verbleibt die Rechenschaftspflicht bei den verantwortlichen Organisationen. Daraus ergibt sich eine veränderte Prüf- und Steuerungslogik. Nicht jede einzelne Systementscheidung muss genehmigt oder nachvollzogen werden, wohl aber die Gestaltung der Systeme selbst. Dazu zählen Architekturentscheidungen, Zieldefinitionen, Eskalations- und Abbruchlogiken sowie dokumentierte Abschalt- und Eingriffsmöglichkeiten.

In der Praxis verschiebt sich Auditierbarkeit damit von der Bewertung einzelner Reaktionen hin zur Prüfung des Entscheidungsraums. Prüffähig sind insbesondere die dokumentierte Systemarchitektur, klar definierte Zielzustände und verbotene Zustände, nachvollziehbare Eskalations- und Abbruchlogiken sowie revisionssichere Audit-Trails auf Policy- und Systemebene.

Governance wird dadurch nicht abstrakt, sondern technisch überprüfbar. Autonome Systeme sind nicht deshalb akzeptabel, weil sie fehlerfrei wären, sondern weil ihr Verhalten innerhalb definierter Grenzen vorhersehbar und kontrollierbar bleibt.

Für Betreiber kritischer Infrastrukturen bedeutet dies, dass Prüfprotokolle, Audit-Trails und Zertifizierungsansätze stärker auf das vorhersehbare Verhalten autonomer Systeme ausgerichtet werden müssen. Im Kontext der NIS2-Richtlinie verschiebt sich der regulatorische Schwerpunkt damit von reiner Dokumentation hin zu nachweisbarer Beherrschbarkeit im Betrieb. Transparenz, Nachvollziehbarkeit und kontrollierte Autonomie werden zu zentralen Kriterien regulatorischer Belastbarkeit.

Human-in-Command bedeutet in diesem Kontext nicht, dass Menschen operative Entscheidungen in Millisekunden treffen müssen. Entscheidend ist vielmehr die Gestaltung der Mensch-Maschine-Schnittstelle. Das operative Dashboard dient nicht als Alarmkonsole, sondern als Steuerungsinstrument, das Systemzustände, Risikonähe und Stabilität kritischer Funktionen verdichtet darstellt.

Eingriffe erfolgen nicht auf Event-Ebene, sondern über vordefinierte Maßnahmenbündel – etwa Eskalation, Isolation oder Deeskalation ganzer Systemsegmente. Verantwortung wird damit nicht situativ wahrgenommen, sondern architektonisch verankert.


Ein sicherheitspolitisches Signal

Die Warnung aus Tel Aviv ist keine Prognose eines unmittelbar bevorstehenden Cyberkriegs, sondern ein sicherheitspolitischer Hinweis auf eine strukturelle Verschiebung. Cyberkonflikte entwickeln sich zunehmend zu einem eigenständigen Instrument strategischer Einflussnahme, dessen Wirkung nicht an physische Zerstörung gebunden ist, sondern an die gezielte Beeinträchtigung von Verfügbarkeit, Vertrauen und Entscheidungsfähigkeit.

Für Staaten, Unternehmen und Betreiber kritischer Infrastrukturen stellt sich damit eine grundlegende Frage: Sind ihre technischen, organisatorischen und regulatorischen Strukturen auf eine Bedrohungslage ausgelegt, in der Geschwindigkeit, Automatisierung und Systemkopplung den operativen Takt vorgeben?

Die Beantwortung dieser Frage entscheidet nicht allein über die Qualität der IT-Sicherheit, sondern über die Fähigkeit von Organisationen und Staaten, unter digitalem Druck handlungsfähig zu bleiben. In einer zunehmend vernetzten und automatisierten Konfliktumgebung wird Cyberresilienz damit zu einer Frage strategischer Stabilität.

Anmelden zu unserem Newsletter:

Vom Wissen zum Austausch: Sicherheit weiterdenken.

Diese Beiträge folgen der Überzeugung, dass echte Sicherheit dort beginnt, wo die bloße Compliance endet. Sie sind als Denkangebote zu verstehen – geformt aus der Praxis, aber offen für den Diskurs.

Ich schätze den fundierten Widerspruch ebenso wie die Ergänzung aus dem operativen Alltag. Ob als Gründer, Betreiber oder strategischer Entscheider: Ihre Sichtweise ist der Schlüssel zur Weiterentwicklung dieser Ansätze.

Lassen Sie uns den Dialog dort führen, wo er am fruchtbarsten ist – öffentlich in den Kommentaren oder vertraulich im direkten Gespräch. Substanz braucht Raum.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Translate »