Der Einsatz von Künstlicher Intelligenz im Security Operations Center ist heute fester Bestandteil moderner Sicherheitsarchitekturen. Systeme zur Ereigniskorrelation, Anomalieerkennung und Priorisierung sind ohne KI kaum noch beherrschbar. Im Umfeld kritischer Infrastrukturen verschiebt sich damit jedoch der Maßstab für Zulässigkeit und Qualität grundlegend. Entscheidend ist nicht länger die Leistungsfähigkeit einzelner Modelle, sondern die Frage, wie sicherheitsrelevante Entscheidungen entstehen, verantwortet und überprüfbar gemacht werden.
Mit der Fortschreibung des BSI-Grundschutz-Kompendiums in der Auditpraxis ab 2026, der Umsetzung der NIS2-Richtlinie, den Anforderungen des KRITIS-Dachgesetzes sowie den etablierten Normen ISO/IEC 27001, ISO/IEC 27002 und ISO/IEC 27005 wird Sicherheit explizit als steuerbarer, nachvollziehbarer und haftungsrelevanter Managementprozess definiert. KI ist in diesem Rahmen nur dann zulässig, wenn sie diese Steuerbarkeit stärkt und nicht unterläuft. Genau an dieser Stelle setzt das Konzept der Decision-Grade KI an – nicht als weiteres Automatisierungsversprechen, sondern als Architekturprinzip für verantwortete Entscheidungen.
Von KI-Architektur zu Entscheidungsarchitektur
Die Diskussion über KI im Security Operations Center wird noch immer überwiegend technisch geführt. Modellqualität, Trainingsdaten, Automatisierungsgrad und Reaktionszeiten dominieren den Diskurs. Diese Perspektive greift jedoch zu kurz und ist mit den geltenden normativen Anforderungen nicht vereinbar. Bereits ISO/IEC 27001:2022 fordert in Clause 5.3 ausdrücklich, dass Rollen, Verantwortlichkeiten und Befugnisse im Bereich der Informationssicherheit eindeutig festgelegt, zugewiesen und kommuniziert werden. Verantwortung ist damit keine technische Eigenschaft eines Systems, sondern eine organisatorische und rechtliche Kategorie, die nicht delegiert werden kann.
Diese Logik wird durch NIS2 weiter verschärft. Artikel 20 weist die Verantwortung für Genehmigung, Überwachung und Bewertung von Cybersicherheitsmaßnahmen explizit dem Management zu. Entscheidungen über Sicherheitsmaßnahmen sind damit nicht länger operative Detailfragen, sondern Bestandteil der Organverantwortung. Sie unterliegen Haftung, Aufsicht und Nachweispflicht.
Vor diesem Hintergrund verschiebt Decision-Grade KI den Fokus konsequent von der KI-Architektur zur Entscheidungsarchitektur. Maßstab ist nicht, ob ein System technisch korrekt oder besonders schnell reagiert, sondern ob sicherheitsrelevante Entscheidungen nachvollziehbar, revisionsfähig und haftbar getroffen werden. KI wird damit nicht zum Entscheidungsträger, sondern zum strukturierenden Element eines verantworteten Entscheidungsprozesses.
Entscheidungshoheit als nicht delegierbarer Fixpunkt
Der BSI-Grundschutz formuliert den Grundsatz der nicht delegierbaren Entscheidungshoheit eindeutig im Baustein ORP.1 „Organisation“. Dort wird gefordert, dass für alle sicherheitsrelevanten Aufgaben klare Verantwortlichkeiten festgelegt werden und dass diese Verantwortung tatsächlich wahrgenommen wird, indem Entscheidungen getroffen und deren Umsetzung überwacht werden. Ergänzend verlangt der Grundschutz, dass sicherheitsrelevante Prozesse jederzeit steuerbar bleiben müssen.
Eine KI, die selbstständig Maßnahmen auslöst oder Entscheidungen faktisch erzwingt, übernimmt damit eine sicherheitsrelevante Aufgabe, ohne dass eine verantwortliche Person benannt oder handlungsfähig ist. Dies widerspricht unmittelbar der Logik des Grundschutzes und steht zugleich im klaren Widerspruch zu ISO/IEC 27001:2022, Clause 5.3, die eine eindeutige Zuordnung von Rollen, Verantwortlichkeiten und Befugnissen verlangt. Auch die geforderte Steuerbarkeit sicherheitsrelevanter Prozesse kann durch autonome Systemreaktionen nicht erfüllt werden, da diese zwar technisch beobachtbar, aber organisatorisch nicht führbar sind.
Im KRITIS-Betrieb ist Entscheidungshoheit daher kein Organisationsdetail und keine Frage betrieblicher Effizienz, sondern ein regulatorischer Zwangspunkt. Wo Entscheidungshoheit technisch delegiert wird, entsteht ein strukturelles Defizit in Verantwortung, Steuerbarkeit und Haftung – und damit ein Zustand, der normativ nicht tragfähig ist.
Die normative Trennlinie zwischen Erkennung und Behandlung
Die häufig zitierte „harte Trennlinie“ zwischen Analyse und Entscheidung ist kein neues oder künstlich eingeführtes Konzept, sondern bereits explizit im BSI-Grundschutz verankert. Der Baustein DER.2 „Detektion von sicherheitsrelevanten Ereignissen“ unterscheidet klar zwischen der Erkennung sicherheitsrelevanter Ereignisse und deren Behandlung. Während die Erkennung technisch erfolgen darf, muss die Behandlung geregelt, gesteuert und organisatorisch verantwortet sein.
Decision-Grade KI setzt diese normative Vorgabe konsequent in Architektur um. KI agiert ausschließlich auf der Ebene der Erkennung und Bewertung. Sie korreliert Ereignisse, identifiziert Zusammenhänge und bereitet Entscheidungsgrundlagen strukturiert auf. Die Behandlung eines Vorfalls – also die Auswahl, Freigabe und Priorisierung konkreter Maßnahmen – verbleibt bei einer klar definierten menschlichen Rolle. Erst nach dieser bewussten Entscheidung erfolgt die technische Umsetzung durch nachgelagerte Systeme.
Diese Architektur entspricht zugleich den Anforderungen aus ISO/IEC 27002:2022, insbesondere den Regelungen zum Incident Management, die eine dokumentierte, verantwortete Reaktion auf Sicherheitsvorfälle verlangen. Autonome Maßnahmenausführungen sind dort nicht vorgesehen. Die Trennung von Erkennung und Behandlung ist damit nicht nur ein konzeptionelles Prinzip, sondern eine normativ geforderte Voraussetzung für Auditfähigkeit.
Warum „Human-in-the-Loop“ normativ nicht ausreicht
Der Begriff Human-in-the-Loop wird im Kontext von KI-gestützten Sicherheitsarchitekturen häufig als hinreichendes Compliance-Argument angeführt. Aus Sicht des BSI-Grundschutzes, der ISO/IEC 27001 und der NIS2-Richtlinie ist dieser Begriff jedoch unzureichend, solange nicht gewährleistet ist, dass der Mensch tatsächlich als Entscheidungsinstanz agiert. Eine bloß formale Beteiligung erfüllt die normativen Anforderungen nicht, wenn Entscheidungen durch Zeitdruck, automatische Fortsetzungen oder technisch vorgegebene Default-Pfadlogiken faktisch vorentschieden werden.
Solche Mechanismen führen zu impliziten Systementscheidungen und widersprechen der Forderung nach bewusster, verantworteter Maßnahmensteuerung. Sowohl der Grundschutz als auch die ISO-Normen setzen voraus, dass sicherheitsrelevante Maßnahmen aktiv geführt und nicht lediglich überwacht werden. Decision-Grade KI stellt sicher, dass menschliche Entscheidungsfreiheit nicht nur formal vorhanden ist, sondern operativ wirksam bleibt und damit den normativen Anforderungen genügt.
Geschwindigkeit, Automatisierung und beherrschte Reaktion
Diese normative Klarheit wirft zwangsläufig eine technische Frage auf: Wie lassen sich die Anforderungen an verantwortete Entscheidung mit der Geschwindigkeit moderner Cyberangriffe vereinbaren, ohne in autonome Systemlogik zu verfallen? Gerade in Szenarien wie Ransomware-Ausbreitung oder hochdynamischen Angriffen scheint jede Verzögerung ein Risiko darzustellen.
Dieses Spannungsfeld löst sich jedoch auf, wenn zwischen verantwortungsbegründenden Entscheidungen und rein technischen Schutzreaktionen unterschieden wird. Decision-Grade KI richtet sich nicht gegen Geschwindigkeit, sondern gegen autonome Risikobehandlung. Technische Maßnahmen mit klar begrenztem Wirkungsradius, die vorab definiert, genehmigt und reversibel sind, können automatisiert erfolgen, ohne Entscheidungshoheit zu delegieren. Die Verantwortung liegt in diesem Fall nicht in der situativen KI-Entscheidung, sondern in der vorgelagerten Festlegung der Regeln, unter denen Automatisierung zulässig ist.
Entscheidend ist, dass diese Automatisierung deterministisch, nachvollziehbar und jederzeit abschaltbar bleibt. Wo Systeme hingegen situativ und kontextabhängig Maßnahmen mit haftungsrelevanter Wirkung auslösen, beginnt Autonomie. Decision-Grade KI zieht genau an dieser Stelle die Grenze und ermöglicht damit beherrschte Geschwindigkeit, ohne Verantwortung auszulagern.
Nachvollziehbarkeit und Revisionsfähigkeit als Kernanforderung
Nachvollziehbarkeit ist ein zentrales Grundprinzip des BSI-Grundschutzes ebenso wie der ISO-Normenreihe. Sicherheitsrelevante Entscheidungen müssen nicht nur technisch korrekt sein, sondern in ihrer Entstehung, Begründung und Wirkung rekonstruierbar bleiben. ISO/IEC 27001:2022 fordert ausdrücklich einen definierten und bewussten Prozess zur Bewertung von Informationssicherheitsrisiken. Ergänzend schreibt ISO/IEC 27005 vor, dass Entscheidungen zur Risikobehandlung dem Management vorbehalten sind und nachvollziehbar getroffen werden müssen.
Eine KI, die Maßnahmen autonom auslöst, vollzieht damit implizit Risikobehandlung, ohne dass eine bewusste Managemententscheidung stattfindet. Ein solcher Mechanismus steht im direkten Widerspruch zu den normativen Anforderungen. Decision-Grade KI verhindert diesen Bruch, indem sie KI-Ergebnisse kontextualisiert, Unsicherheiten sichtbar macht und alternative Handlungsoptionen aufzeigt. Die Entscheidung selbst wird bewusst getroffen, dokumentiert und begründet. Damit wird die Revisionsfähigkeit hergestellt, die sowohl der Grundschutz als auch die ISO-Normen zwingend voraussetzen.
Haftung im Lichte von NIS2 und KRITIS-Dachgesetz
Mit der NIS2-Richtlinie wird Haftung ausdrücklich als integraler Bestandteil der Cybersicherheitsarchitektur verankert. Artikel 21 verpflichtet Organisationen zur Einführung angemessener, kontrollierter und dokumentierter Maßnahmen des Cybersicherheits-Risikomanagements. Artikel 32 konkretisiert diese Verpflichtung, indem er die persönliche Verantwortung der Leitungsebene bei Pflichtverletzungen normiert. Cybersicherheit wird damit unmissverständlich zur haftungsrelevanten Managementaufgabe.
Das KRITIS-Dachgesetz greift diese Systematik auf und verschärft sie für Betreiber kritischer Infrastrukturen. Gefordert werden nicht nur wirksame, sondern beherrschte, überprüfbare und jederzeit nachweisbare Sicherheitsmaßnahmen im laufenden Betrieb. Maßgeblich ist dabei die Fähigkeit des Betreibers, Entscheidungen, Steuerung und Kontrolle dieser Maßnahmen gegenüber Aufsicht und Prüfung nachvollziehbar darzulegen.
Autonome KI-Maßnahmen erzeugen in diesem Kontext Haftung ohne einen belastbaren Entscheidungspfad. Wenn sicherheitsrelevante Aktionen durch Systeme ausgelöst werden, ohne dass eine bewusste und dokumentierte menschliche Entscheidung zugrunde liegt, entsteht eine strukturelle Verantwortungs- und Nachweislücke. Decision-Grade KI schließt diese Lücke, indem jede Maßnahme auf eine explizite, zuordenbare und dokumentierte Entscheidung einer verantwortlichen Person zurückgeführt wird. Haftung wird dadurch nicht vermieden oder verschoben, sondern normkonform verortet und erst dadurch regulatorisch beherrschbar.
Konkretisierung der NIS2-Anforderungen auf die Entscheidungsarchitektur im SOC
Die NIS2-Richtlinie ist technologieoffen formuliert, setzt jedoch klare Maßstäbe für Governance, Verantwortlichkeit und Nachweisbarkeit. Für KI im SOC bedeutet dies nicht Autonomie, sondern kontrollierte Entscheidungsführung.
Artikel 20 verlangt, dass Cybersicherheitsmaßnahmen genehmigt, überwacht und bewertet werden. Diese Anforderungen sind nur erfüllbar, wenn Entscheidungen identifizierbar bleiben. Decision-Grade KI stellt sicher, dass Entscheidungsräume strukturiert werden, die finale Freigabe jedoch zwingend bei einer verantwortlichen Rolle verbleibt.
Artikel 21 fordert angemessene und risikobasierte Maßnahmen. Autonome KI-Entscheidungen unterlaufen dieses Prinzip, weil sie Risikobehandlung situativ und nicht dokumentiert durchführen. Decision-Grade KI erhält das Risikomanagement steuerbar, indem Risikoabwägungen vorbereitet, aber nicht automatisiert entschieden werden.
Artikel 32 verankert persönliche Haftung. Diese Haftung setzt voraus, dass Entscheidungen zuordenbar sind. Wo autonome Systeme handeln, ohne Entscheidungspfad, entsteht Haftung ohne Nachweis. Decision-Grade KI schafft die notwendige Verbindung zwischen technischer Maßnahme und verantwortlicher Entscheidung.
Damit wird deutlich: Decision-Grade KI ist keine Zusatzforderung über NIS2 hinaus, sondern die Mindestarchitektur, um NIS2 überhaupt erfüllbar zu machen.
Einordnung im Lichte vergleichbarer Veröffentlichungen
Diese Argumentationslinie steht nicht isoliert. Leitfäden, Fachpublikationen und Umsetzungsdokumente aus dem BSI-Umfeld, aus der praktischen Anwendung der NIS2-Richtlinie sowie aus ISO-nahen Kontexten gelangen überwiegend zu vergleichbaren Schlussfolgerungen. Künstliche Intelligenz wird dort durchgängig als unterstützendes Instrument verstanden, das Analyse, Strukturierung und Priorisierung sicherheitsrelevanter Informationen übernimmt, ohne verantwortungsbegründende Entscheidungen autonom zu treffen. Der zentrale Bezugspunkt bleibt in allen Fällen die menschliche Verantwortung für Risikobewertung, Maßnahmenfreigabe und Haftung.
Unterschiede zwischen den Veröffentlichungen bestehen weniger im normativen Zielbild als in der Tiefe der technischen und organisatorischen Auslegung. Während viele Dokumente diese Trennung implizit voraussetzen, macht Decision-Grade KI sie explizit und architektonisch verbindlich. Der Ansatz steht damit nicht im Widerspruch zur bestehenden Regulierung, sondern übersetzt deren Anforderungen konsequent in eine überprüfbare Entscheidungsarchitektur. Genau darin liegt seine Anschlussfähigkeit an bestehende Standards – und zugleich sein Mehrwert für hochregulierte Betriebsumgebungen.
Belastbarkeit unter Ausnahmebedingungen
Der BSI-Grundschutz fordert ausdrücklich, dass Sicherheitsmaßnahmen nicht ausschließlich für den Regelbetrieb, sondern auch für Ausnahmesituationen ausgelegt sein müssen. Ereignisse wie Personalausfall, parallele Sicherheitsvorfälle oder kombinierte Störungen in IT- und OT-Umgebungen sind im KRITIS-Betrieb keine theoretischen Sonderfälle, sondern realistische und regelmäßig zu berücksichtigende Betriebsszenarien. Gerade unter erhöhter Belastung muss die Steuerbarkeit sicherheitsrelevanter Maßnahmen gewährleistet bleiben.
Eine Architektur, die im Ausnahmefall automatisch und ohne bewusste Entscheidung reagiert, widerspricht diesem Grundprinzip. Wo Autonomie mit zunehmendem Druck steigt, verliert der Betreiber die Fähigkeit zur aktiven Steuerung. Sicherheitsmaßnahmen werden dann zwar ausgeführt, sind jedoch nicht mehr geführt. Ein solcher Zustand ist mit dem Anspruch beherrschter Sicherheitsprozesse, wie ihn der BSI-Grundschutz voraussetzt, nicht vereinbar.
Decision-Grade KI trägt dieser Anforderung Rechnung. Sie bleibt auch unter Stresslagen konsequent menschlich steuerbar und stellt sicher, dass Entscheidungen selbst in Ausnahmesituationen bewusst getroffen, verantwortet und überprüft werden können. Damit erfüllt sie die Anforderungen an Betriebssicherheit, Governance und Nachweisfähigkeit, die im KRITIS-Umfeld zwingend vorausgesetzt werden.
Fazit
Decision-Grade KI im Security Operations Center stellt keine neue regulatorische Forderung dar, sondern die konsequente und normkonforme Auslegung bestehender Vorgaben im KI-Zeitalter. Die Prinzipien des BSI-Grundschutzes, die Anforderungen aus ISO/IEC 27001 und ISO/IEC 27005 sowie die verbindlichen Vorgaben der NIS2-Richtlinie lassen keinen Raum für autonome sicherheitsrelevante Entscheidungen ohne verantwortliche Instanz.
KI darf im KRITIS-Betrieb analysieren, strukturieren und Entscheidungsgrundlagen vorbereiten. Die Entscheidung selbst muss beim Menschen verbleiben – nachvollziehbar, haftbar und revisionsfähig. Genau diese Trennung macht Decision-Grade KI zu einer tragfähigen Architektur für hochregulierte Sicherheitsumgebungen.
Decision-Grade KI bedeutet: KI denkt vor. Der Mensch entscheidet. Genau darin liegt ihre normative Belastbarkeit, ihre Auditfähigkeit und ihre Zukunftsfähigkeit im KRITIS-Umfeld.
Anmelden zu unserem Newsletter:


Schreibe einen Kommentar