KI im SOC – Entscheidungsarchitektur, Governance und die klare Grenze im KRITIS-Umfeld

KI im SOC – Entscheidungsarchitektur, Governance und die klare Grenze im KRITIS-Umfeld

Der Einsatz künstlicher Intelligenz im Security Operations Center (SOC) wird zunehmend als technologische Antwort auf steigende Angriffszahlen, hochkomplexe hybride Infrastrukturen und den Mangel an qualifiziertem Fachpersonal verstanden. Diese Perspektive greift jedoch zu kurz – insbesondere dort, wo Sicherheit nicht allein ein unternehmerisches Ziel ist, sondern Bestandteil öffentlicher Daseinsvorsorge.

Im Umfeld kritischer Infrastrukturen entscheidet nicht die Leistungsfähigkeit einer Technologie über ihre Eignung, sondern ihre Einbettung in Verantwortung, Nachvollziehbarkeit und operative Beherrschbarkeit. KI im SOC ist damit weniger eine Frage von Innovation oder Effizienz als eine Frage der Entscheidungsarchitektur: Wer trifft Entscheidungen, wie kommen sie zustande, und wer trägt sie im Zweifel?


Der regulatorische Bezugsrahmen: Wie Sicherheit definiert wird

Die maßgeblichen Regelwerke – BSI-Grundschutz, NIS2 sowie die KRITIS-Regulierung – folgen einer gemeinsamen normativen Grundannahme: Sicherheit ist kein autonomer Systemzustand und kein emergentes Nebenprodukt technischer Intelligenz, sondern das Ergebnis eines kontrollierten Management- und Betriebsprozesses. Sicherheitsrelevante Entscheidungen müssen erklärbar, dokumentierbar und eindeutig verantwortbar sein. Veränderungen dürfen nicht ad hoc erfolgen, sondern müssen geplant, geprüft und in ihren Auswirkungen nachvollzogen werden können.

Mit der NIS2-Richtlinie, insbesondere Artikel 21, wird diese Logik explizit auf Ebene der Unternehmens- und Behördenleitung verankert. Betreiber wesentlicher und wichtiger Einrichtungen sind verpflichtet, angemessene technische und organisatorische Maßnahmen zum Risikomanagement zu implementieren. Die Verantwortung der Leitungsebene bleibt dabei ausdrücklich bestehen und ist nicht delegierbar – weder organisatorisch noch technisch. Auch der Einsatz hochentwickelter automatisierter Systeme entbindet das Management nicht von bewusster Steuerung, Überwachung und Rechenschaft.

Für KRITIS-Betreiber verschärft sich dieser Maßstab zusätzlich. Sicherheitsentscheidungen sind hier regelmäßig zugleich Betriebseingriffe mit potenziellen Auswirkungen auf Versorgungssicherheit, physische Prozesse und im Extremfall auf die öffentliche Ordnung. Daraus folgt ein besonders hoher Anspruch an Beherrschbarkeit, Transparenz und Verantwortungszuordnung.


Assistive und agentische KI: Eine zwingende Unterscheidung

Vor diesem regulatorischen Hintergrund ist eine klare und konsequente Differenzierung zwischen assistiver und agentischer KI unerlässlich. Sie entscheidet darüber, ob der Einsatz von KI mit den Anforderungen an Verantwortung, Nachvollziehbarkeit und Beherrschbarkeit vereinbar ist – oder nicht.

Assistive KI dient der Unterstützung menschlicher Entscheider. Sie analysiert große Datenmengen, korreliert Ereignisse, erkennt Muster und priorisiert Risiken. Ihre Rolle endet dort, wo Entscheidungen getroffen oder operative Maßnahmen ausgelöst werden. Die Entscheidungshoheit verbleibt vollständig beim Menschen und ist damit bewusst verantwortet, dokumentierbar und revisionsfähig.

Agentische KI überschreitet diese Grenze. Sie bewertet Situationen eigenständig, priorisiert Handlungsoptionen und kann Maßnahmen ohne explizite menschliche Freigabe auslösen. Autonomie ist hier kein technisches Detail, sondern das zentrale Funktionsprinzip. An diesem Punkt verschiebt sich Verantwortung technisch in ein System.

Diese Unterscheidung ist nicht akademisch, sondern regulatorisch, betrieblich und haftungsrelevant.

Operative Anschlussfähigkeit der Governance-Prinzipien

Die hier vorgenommene Differenzierung zwischen assistiver und agentischer KI ist nicht nur konzeptionell, sondern auch operativ überprüfbar. Im KRITIS-Umfeld lässt sich der Charakter eines KI-Systems letztlich an wenigen, prüfungsrelevanten Fragen festmachen: Bleibt die Entscheidungshoheit für operative Maßnahmen ausdrücklich beim Menschen? Sind Entscheidungswege transparent, erklärbar und revisionsfähig dokumentiert? Ist das System deterministisch genug, um reproduzierbare Reaktionen zu gewährleisten, und jederzeit sicher abschaltbar, ohne den SOC-Betrieb zu destabilisieren? Wo diese Kriterien nicht erfüllt sind, handelt es sich faktisch um agentische KI – mit entsprechenden Governance-, Haftungs- und Risikoimplikationen für Betreiber und Geschäftsleitung.


Assistive KI im KRITIS-SOC: Weitgehend unkritisch und oft notwendig

Assistive KI fügt sich in die Logik von BSI-Grundschutz und NIS2 weitgehend spannungsfrei ein, da sie weder Verantwortungszuordnung noch Haftungslogik sicherheitsrelevanter Entscheidungen verändert. Die Entscheidungshoheit verbleibt bewusst beim Menschen; Entscheidungen sind dokumentierbar, nachvollziehbar und damit revisionsfähig im Sinne regulatorischer Prüfanforderungen.

In hochkomplexen SOC-Umgebungen kann Assistive KI darüber hinaus eine funktionale Notwendigkeit darstellen, um die geforderte Entscheidungsqualität unter Zeit- und Informationsdruck aufrechtzuerhalten. Sie reduziert Informationsrauschen, verdichtet Lagebilder und unterstützt eine strukturierte Priorisierung sicherheitsrelevanter Sachverhalte, ohne selbst Entscheidungen zu treffen oder in den operativen Betrieb einzugreifen.

Vor diesem Hintergrund gilt Assistive KI im KRITIS-Umfeld überwiegend als unkritisch, sofern ihr Einsatz konsequent auf Entscheidungsunterstützung begrenzt bleibt, ihre Funktionsweise transparent gestaltet ist und sie klar in bestehende Prozesse, Rollen und Verantwortlichkeiten eingebettet wird. Genau diese Einbettung ist Voraussetzung dafür, dass Assistive KI ihre Stärken entfalten kann, ohne neue Governance- oder Haftungsrisiken zu erzeugen.

Praxisbeispiel:
In einem SOC eines Energieversorgers analysiert eine KI-Komponente kontinuierlich Logdaten aus IT- und OT-Netzen, korreliert Anomalien und priorisiert potenzielle Angriffe auf Leitsysteme. Konkrete Handlungsempfehlungen werden vorgeschlagen, die operative Umsetzung erfolgt jedoch erst nach expliziter menschlicher Freigabe und revisionssicherer Dokumentation. Die KI erhöht die Entscheidungsqualität, ohne Verantwortung zu verlagern.


Agentische KI: Autonomie trifft auf Transparenz- und Haftungsgrenzen

Agentische KI ist im KRITIS-Umfeld grundsätzlich kritisch zu bewerten. In dem Moment, in dem Systeme eigenständig Entscheidungen treffen oder operative Maßnahmen auslösen, entsteht ein strukturelles Spannungsfeld zu den regulatorischen Anforderungen an Verantwortung, Nachvollziehbarkeit und Kontrolle.

Agentische Entscheidungsprozesse sind häufig nicht vollständig deterministisch, nicht jederzeit vorhersagbar und nur begrenzt ex ante beherrschbar. Hinzu tritt ein für Prüfungen zentraler Aspekt: die eingeschränkte Transparenz und Nachvollziehbarkeit der Entscheidungslogik. Black-Box-basierte Entscheidungsmechanismen stehen damit im direkten Widerspruch zum impliziten Transparenz- und Nachvollziehbarkeitsgebot des BSI-Grundschutzes, das der Revisions- und Prüfpraxis zugrunde liegt.

Für Prüfer, interne Revision und Management ist dabei nicht allein entscheidend, dass eine Maßnahme im Ergebnis korrekt war, sondern wie sie zustande kam. Wo Entscheidungswege nicht prüfbar, nicht erklärbar oder nicht reproduzierbar sind, wird Governance strukturell fragil – selbst dann, wenn das Ergebnis im Einzelfall korrekt erscheint.

Praxisbeispiel:
Ein autonomes System trennt selbstständig einen als kompromittiert bewerteten Steuerungsserver vom Netz. Der Eingriff erfolgt ohne menschliche Freigabe und basiert auf probabilistischer Modellbewertung. In der Folge kommt es zu einem ungeplanten Ausfall abhängiger Systeme. Nachträglich ist nicht mehr eindeutig rekonstruierbar, welche Annahmen und Gewichtungen zur Entscheidung geführt haben. Dieses Szenario verdeutlicht das Governance- und Haftungsrisiko agentischer KI im KRITIS-Betrieb.


KRITIS-Betrieb: Beherrschbarkeit vor Reaktionsgeschwindigkeit

Im Betrieb kritischer Infrastrukturen sind Sicherheitsreaktionen nahezu immer zugleich Betriebseingriffe. Sie greifen in laufende Versorgungs-, Steuerungs- oder Kommunikationsprozesse ein und können bei unpassender Auslösung oder ungünstigem Timing größere Schäden verursachen als der ursprüngliche Angriff selbst.

Vor diesem Hintergrund gilt im KRITIS-Umfeld eine klare Priorität: Beherrschbarkeit vor Reaktionsgeschwindigkeit. Agentische KI mit operativer Handlungskompetenz ist nur dann vertretbar, wenn ihre Wirkungen strikt begrenzt, erklärbar und auditierbar sind und jederzeit sicher abgeschaltet werden können. Darüber hinaus müssen ihre Entscheidungen reproduzierbar und organisatorisch eindeutig verantwortbar bleiben.

In der heutigen Praxis sind diese Voraussetzungen nur selten vollständig erfüllt. Daraus folgt kein pauschales Technologieverbot, wohl aber eine grundsätzlich kritische Bewertung agentischer KI im produktiven KRITIS-SOC. Autonomie ist hier kein Selbstzweck, sondern muss sich konsequent der betrieblichen Beherrschbarkeit unterordnen.


Einordnung aktueller Entwicklungen: EU AI Act, XAI und hybride Modelle

Neuere regulatorische Entwicklungen – insbesondere der EU AI Act – bestätigen diese Linie indirekt. Der risikobasierte Ansatz, die Betonung menschlicher Aufsicht sowie Transparenz- und Dokumentationspflichten in sicherheitskritischen Anwendungsfällen führen faktisch zu einer Aufwertung assistiver, erklärbarer KI-Systeme gegenüber autonom handelnden Modellen.

Parallel dazu zeigen Fortschritte im Bereich Explainable AI (XAI), dass Transparenzdefizite technischer Systeme reduziert werden können. Diese Entwicklungen eröffnen mittelfristig Spielräume für stärker automatisierte, aber weiterhin kontrollierte Entscheidungsunterstützung. Sie ändern jedoch nichts am Grundprinzip: Autonomie ersetzt keine Verantwortung.

Auch hybride Modelle – etwa agentische Analyse mit verpflichtendem Human-in-the-Loop – können perspektivisch an Bedeutung gewinnen. Im KRITIS-Umfeld bleiben sie jedoch governance- und prüfseitig anspruchsvoll und erfordern klare architektonische Trennungen sowie eindeutige Freigabeprozesse.


Normative Einordnung und fachliche Anschlussfähigkeit

Die in diesem Beitrag vertretene Position entspricht einer gängigen fachlichen Auslegung von BSI-Grundschutz, NIS2 und den KRITIS-Anforderungen, wie sie in zahlreichen BSI-nahen Veröffentlichungen, regulatorischen Einordnungen sowie aktuellen Analysen zur KI-Governance vertreten wird. Sie bewegt sich damit ausdrücklich innerhalb des etablierten normativen Rahmens und nicht in einer singulären oder extremen Interpretation.

Gemeinsam ist diesen Quellen eine klare Grundlinie: Künstliche Intelligenz soll die Qualität menschlicher Entscheidungen erhöhen, nicht jedoch Verantwortung, Entscheidungsgewalt oder Rechenschaftspflichten ersetzen. Automatisierung wird dabei grundsätzlich als zulässig und sinnvoll bewertet, während Autonomie ohne wirksame Kontrolle als governance-kritisch gilt. Fortschritte in Erklärbarkeit, Modelltransparenz und Nachvollziehbarkeit werden als unterstützende Entwicklung verstanden, nicht jedoch als Ersatz für menschliche Verantwortung und revisionsfähige Entscheidungsarchitekturen.

Die hier vertretene Position entspricht zudem weitgehend dem aktuellen sicherheitsfachlichen Konsens für Hochrisikosektoren. In zahlreichen regulatorischen, beratenden und industrie­nahen Veröffentlichungen wird betont, dass KI im SOC die Entscheidungsfindung unterstützen, nicht jedoch Verantwortung oder Haftung ersetzen darf. Auch dort, wo von „autonomen“ SOC-Ansätzen gesprochen wird, zeigen genauere Analysen, dass operative Eingriffe in der Praxis meist an menschliche Freigaben, enge Leitplanken oder nachgelagerte Kontrolle gebunden bleiben.

Fortschritte in Bereichen wie Explainable AI oder spezialisierte, eng begrenzte Agenten werden als potenzielle Weiterentwicklung diskutiert. Sie ändern jedoch nichts an der zentralen Leitlinie für KRITIS-Umgebungen: Autonomie ohne wirksame Kontrolle bleibt ein strukturelles Governance- und Haftungsrisiko – unabhängig von technologischer Reife oder Vermarktung.


Fazit: Klare Rollen sind der Schlüssel zur sicheren KI-Nutzung

Für den Einsatz von Künstlicher Intelligenz im Security Operations Center kritischer Infrastrukturen ergibt sich eine klare und belastbare Schlussfolgerung. Assistive KI ist in der Regel zulässig, sinnvoll und zunehmend notwendig, um Entscheidungsqualität, Übersicht und Reaktionsfähigkeit unter steigender Komplexität aufrechtzuerhalten. Agentische KI bleibt im KRITIS-Umfeld ein Hochrisiko-Ansatz, sobald sie eigenständig Entscheidungen trifft oder operative Maßnahmen auslöst.

Diese Differenzierung ist kein Innovationshemmnis, sondern Ausdruck verantwortungsvoller Sicherheitsarchitektur. KRITIS-Sicherheit entsteht nicht durch maximale Autonomie technischer Systeme, sondern durch kontrollierte, transparente und bewusst verantwortete Entscheidungen – unterstützt durch Technologie, aber nicht ersetzt durch sie.

Anmelden zu unserem Newsletter:

Vom Wissen zum Austausch: Sicherheit weiterdenken.

Diese Beiträge folgen der Überzeugung, dass echte Sicherheit dort beginnt, wo die bloße Compliance endet. Sie sind als Denkangebote zu verstehen – geformt aus der Praxis, aber offen für den Diskurs.

Ich schätze den fundierten Widerspruch ebenso wie die Ergänzung aus dem operativen Alltag. Ob als Gründer, Betreiber oder strategischer Entscheider: Ihre Sichtweise ist der Schlüssel zur Weiterentwicklung dieser Ansätze.

Lassen Sie uns den Dialog dort führen, wo er am fruchtbarsten ist – öffentlich in den Kommentaren oder vertraulich im direkten Gespräch. Substanz braucht Raum.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Translate »