Fünf Sätze, fünf Fehler — warum die AG-Kritis-Kritik am Cyber-Dome mehr schadet als nützt

Fünf Sätze, fünf Fehler — warum die AG-Kritis-Kritik am Cyber-Dome mehr schadet als nützt

Im Januar 2026 unterzeichnete Bundesinnenminister Alexander Dobrindt in Jerusalem einen Cyber- und Sicherheitspakt mit Israel — Kernstück: der Aufbau eines deutschen „Cyber-Dome“, eines teilautomatisierten Detektions- und Reaktionssystems nach israelischem Vorbild. Die Ankündigung löste in deutschen Sicherheitskreisen eine Debatte aus. Manuel Atug, Gründer und Sprecher der AG Kritis — einer zivilgesellschaftlichen Arbeitsgruppe für KRITIS-Sicherheit — formulierte in Medienauftritten fünf Kernthesen gegen das Vorhaben, die seither breit zitiert werden. Diese Analyse nimmt sie auseinander.

Ob Atug tatsächlich der Experte ist, als der er gehandelt wird, ist eine andere Frage. Diese Analyse beantwortet sie.

Die AG Kritis leistet wichtige Arbeit — das Bewusstsein für strukturelle KRITIS-Schwächen in Deutschland ist zu einem erheblichen Teil dem beharrlichen öffentlichen Druck dieser Gruppe zu verdanken. Das macht es umso notwendiger, ihre Äußerungen zum Cyber-Dome beim Namen zu nennen: Sie sind sachlich nicht belegt, methodisch schwach, und sie haben in den vier Monaten seit ihrer Erstveröffentlichung durch unkritische Medienrezeption einen Grad an Verbreitung erreicht, der der deutschen Cybersicherheitsdebatte nachhaltig schadet.

Das ist kein persönlicher Angriff. Es ist eine belegbare Positionsanalyse.


Fehler eins: „Deutsche Daten nach Israel“

Atugs Kernsatz, der medial am meisten zitiert wurde: „Minister Dobrindt will unsere Daten und viel Geld nach Israel geben und dafür bekommen wir eine bunte Anzeige.“

Diese Behauptung ist öffentlich unbelegt und steht im Widerspruch zum offiziell kommunizierten Stand. Das BMI hat auf einer Veranstaltung der Bundesfachkommission Cybersicherheit durch Daniel Meltzian, Leiter des BMI-Grundsatzreferats für Cyber- und IT-Sicherheit, ausdrücklich klargestellt 📎: Das Vorhaben orientiert sich an den Erfahrungen Israels, ohne dass deutsche Daten ins Ausland fließen oder eine exklusive Kooperation mit israelischen Unternehmen besteht. Ziel sei ein souveränes deutsches System.

Noch deutlicher: Das BSI hat am 18. März 2026 seine erste Umsetzungsmaßnahme veröffentlicht 📎 — ein Sensornetzwerk in Kooperation mit Govdigital, einer Genossenschaft öffentlicher IT-Dienstleister aus zehn deutschen Bundesländern. Kein israelischer Partner. Keine Daten ins Ausland. Deutsche IT-Dienstleister, die kommunale und Landesinfrastruktur betreiben.

Besonders aufschlussreich ist dabei die Formulierung „voraussichtlich israelische Partner deutsche Daten auswerteten“. Das Wort „voraussichtlich“ ist kein Ausdruck von Vorsicht — es ist die sprachliche Lizenz für eine gezielte Assoziation, die im Kopf des Lesers ein Bild erzeugt: israelische Partner, deutsches Datenmaterial, Auswertung. Das Bild hat kein Fundament in irgendeiner dokumentierten Vereinbarung, keiner öffentlichen Architekturentscheidung, keinem Vertrag. Es ist ein Phantombild — konstruiert aus einer geopolitischen Grundhaltung, nicht aus Fakten. Dafür gibt es öffentlich keinen Beleg; die bislang dokumentierte erste Umsetzung erfolgt mit deutschen öffentlichen IT-Dienstleistern. Was der deutsch-israelische Pakt vorsieht, ist Wissenstransfer: Methodologie, konzeptionelle Erfahrung, operative Lernkurve — genau das, was Dobrindt selbst als Ziel benennt. Wer aus diesem Wissenstransfer das Bild eines israelischen Datenzugriffs destilliert, betreibt keine Risikoanalyse. Das ist kein Risikobefund — es ist eine unbelegte Assoziation, die im Leser ein Bedrohungsbild erzeugt, für das es keine dokumentierte Grundlage gibt.

Dass Architekturdetails, Datenflüsse und Partnerkriterien noch nicht vollständig öffentlich dokumentiert sind, ist eine berechtigte Beobachtung. Aber das ist kein Beleg für Atugs Behauptung. Es ist lediglich Abwesenheit von Information. Zwischen „noch nicht vollständig dokumentiert“ und „Daten fließen nach Israel“ liegt der Unterschied zwischen einer offenen Frage und einer unbelegten Behauptung. Atug hat Letzteres als Ersteres verpackt.


Fehler zwei: „Nur ein schönes Dashboard“

„Statt echter Cybersicherheit solle vor allem ein schönes Dashboard entstehen, auf dem voraussichtlich israelische Partner deutsche Daten auswerteten.“

Das Wort „voraussichtlich“ in diesem Satz kennzeichnet die Aussage selbst als spekulativ und nicht evidenzbasiert. Die inhaltliche These — Lagebild-Systeme seien keine „echte“ Cybersicherheit — verkennt Funktion und Rolle eines nationalen Detektions- und Lagebildsystems.

Ein nationales Lagebild-System ist kein Ersatz für Endpoint-Härtung, Patch-Management und Netzwerksegmentierung. Das behauptet auch niemand. Es ist eine eigenständige Sicherheitsebene — Detektion und Lagebildgebung — die Schutzmaßnahmen nicht ersetzt, sondern voraussetzt und ergänzt. Die Analogie ist nicht „Videokamera statt Polizist“, sondern „Frühwarnsystem für Einbrüche, das dem Polizisten sagt, wo er hinrennen soll.“

Das israelische Modell — auf das sich der Cyber-Dome konzeptuell bezieht — hat genau das bewiesen: Kontinuierliche Scanner überwachen israelischen Cyberspace auf Schwachstellen und informieren Stakeholder proaktiv über Abhilfemaßnahmen 📎. Das ist nicht Zuschauen — das ist die Voraussetzung für koordinierte Reaktion.

Wer ein nationales Frühwarnsystem als „Dashboard ohne Wirkung“ beschreibt, beschreibt nicht das System, das gebaut wird — sondern ein System, das er sich ausgedacht hat, um es zu kritisieren.

Das führt zu einer Frage, die der Text bisher offen lässt: Was ist eigentlich „echte Cybersicherheit“?

Atugs Arbeitgeber HiSolutions beantwortet diese Frage mit einem klaren Geschäftsmodell: §8a BSIG-Audits. Alle zwei Jahre. Auf definierten Prüfgrundlagen. Mit vorgegebenem Scope. Das Ergebnis: eine Momentaufnahme eines Ausschnitts — rechtlich verwertbar, kommerziell profitabel, und strukturell das Gegenteil eines operativen Sicherheitssystems. Wie wir an anderer Stelle ausführlich beschrieben haben 📎: Unterhalb der normierten Oberfläche entsteht der Eindruck, Sicherheit sei vor allem eine Frage korrekter Dokumentation und formaler Compliance — und genau dieser Eindruck beginnt zu trügen.

Hier liegt jedoch ein Widerspruch, der über Meinungsverschiedenheit hinausgeht. Seit Mai 2023 schreibt §8a BSIG KRITIS-Betreibern explizit „Systeme zur Angriffserkennung“ (SzA) vor — also genau jene Detektions- und Lagebildfähigkeiten, die der Cyber-Dome auf nationaler Ebene aufbaut. HiSolutions auditiert im Rahmen der §8a-Prüfungen unter anderem, ob diese Detektionssysteme bei Betreibern vorhanden und wirksam sind. Der nationale Cyber-Dome ist konzeptionell das, was §8a auf Betreiberebene verlangt — skaliert auf die staatliche Ebene. Atug nennt das nationale Pendant seiner eigenen Prüfgrundlage ein „schönes Dashboard“. Das ist kein Positionsunterschied. Das ist ein Widerspruch zur eigenen Berufsgrundlage.

Wer jedoch öffentlich gegen ein staatliches Lagebildsystem argumentiert, das Schwachstellen automatisiert erkennt, Betreiber proaktiv über Lücken informiert und damit Leistungen übernimmt, die heute manuell durch externe Berater erbracht werden — Gap-Analysen, Schwachstellenbewertungen, Handlungsempfehlungen — und dabei hauptberuflich für ein Unternehmen arbeitet, das genau diese Leistungen als kostenpflichtiges KRITIS-Beratungsportfolio anbietet, für den macht eine transparente Offenlegung dieser beruflichen Einbettung in Medien- und Anhörungskontexten besonders wichtig. Sie fehlt.

Der BSI-Lagebericht 2025 liefert dazu eine präzise Zahl: Nur 48 Prozent der KRITIS-Betreiber erreichen bei Systemen zur Angriffserkennung den Mindestreifegrad von drei 📎 — also „etabliert und dokumentiert“. Das ist keine Randnotiz. Es ist die strukturelle Lücke, auf die der Cyber-Dome auf nationaler Ebene reagiert. Wer diese Zahl kennt und gleichzeitig das nationale Detektionssystem als „schönes Dashboard“ abtut, schuldet eine Erklärung, wie er die 52 Prozent ohne funktionierenden SzA anders zu erreichen gedenkt.

Das ist kein Einzelfallproblem. Der Compliance-Skandal um das US-Startup Delve — im März 2026 durch eine Whistleblower-Untersuchung aufgedeckt 📎 — hat exemplarisch gezeigt, wohin Compliance-as-a-Service führt, wenn der Schein des Zertifikats wichtiger wird als die dahinterliegende Realität: 494 nahezu identische Prüfberichte, Auditor-Schlussfolgerungen generiert bevor ein Prüfer irgendetwas gesehen hatte, Stempel von Firmen, die dem Namen nach unabhängig waren und es der Sache nach nicht waren. Das ist ein besonders zugespitztes Beispiel für die strukturellen Grenzen periodischer Ausschnittsprüfungen.

Ein nationales Echtzeit-Detektionssystem ist das konzeptionelle Gegenteil davon: kontinuierlich, nicht periodisch; flächendeckend, nicht ausschnittsweise; automatisiert, nicht auditbasiert. Wer dieses System als „keine echte Cybersicherheit“ bezeichnet — und gleichzeitig periodische Ausschnittsprüfungen als Kernprodukt verkauft, während er die gesetzliche Pflicht zur Angriffserkennung bei Betreibern prüft — sollte erklären, wie beides zusammenpasst.


Fehler drei: „Israelische Firmen wissen nicht, wie man Systeme schützt“

„Viele Firmen insbesondere in Israel stammten aus dem Umfeld von Militär oder Geheimdiensten und übertrügen ihre Methoden nun eins zu eins auf zivile Infrastrukturen. Sie wissen, wie man Angriffsflächen findet, aber nicht, wie man Systeme schützt oder sichere Software entwickelt.“

Das ist eine Generalisierung, die einem Experten nicht würdig ist.

Check Point Software 📎 hat 1993 Stateful-Inspection-Firewall-Technologie eingeführt, die heute globaler Standard ist. Claroty ist der führende OT-Sicherheitsanbieter für kritische Infrastrukturen weltweit — Kunden sind Energieversorger, Wasserwerke, Pharmaunternehmen. Cato Networks hat ein SASE-Framework entwickelt, das in Europa breit eingesetzt wird. Sygnia gilt als eine der führenden Incident-Response-Firmen für kritische Infrastrukturen. Diese Unternehmen „wissen nicht, wie man Systeme schützt“?

Und wer noch einen sektorspezifischen Gegenbeweis braucht: Der Hafen Ashdod berichtete trotz hoher Angriffslast von operativer Kontinuität während des gesamten Krieges und baute die OT- und ICS-Cyberabwehr mit INCD und Startups sichtbar aus. Das INCD und der Hafen Ashdod haben einen Letter of Intent für den Ausbau der maritimen Cybersicherheit unterzeichnet 📎, Startups wie Salvador Technologies haben OT-Recovery-Lösungen im laufenden Portbetrieb pilotiert, und ein gemeinsamer Open Call zielt explizit auf maritime OT-Umgebungen — Kransteuerungen, ICS-Infrastrukturen, Vessel Identification Systems. Die vollständige Analyse dieser Architektur findet sich hier 📎. Was die maritime Bedrohungslage für Häfen inzwischen bedeutet, haben wir in einer separaten Analyse beschrieben (auf Englisch) 📎 — die Angriffsvektoren, gegen die Ashdod verteidigt, sind keine theoretischen Szenarien. Die Behauptung, israelische Firmen wüssten nicht wie man kritische Infrastrukturen schützt, steht nicht nur theoretisch in Frage, sondern wird durch dokumentierte Praxisbeispiele klar relativiert.

Die korrekte Beobachtung ist schmaler: Ein Teil des israelischen Cybersicherheitsmarkts ist offense-dominant geprägt — und das erfordert bei der Beschaffung sorgfältige Anforderungsdefinition. Das ist ein Argument für qualifizierte Procurement-Prozesse. Es ist kein Argument für eine pauschale Disqualifikation eines gesamten nationalen Technologiesektors.

Der Unterschied ist erheblich. Die pauschale Version erzeugt einen Abwehrreflex, der Deutschland daran hindert, von einem der erfahrensten nationalen Cyberabwehr-Ökosysteme der Welt zu lernen. Die differenzierte Version hilft, die richtigen Fragen beim Einkauf zu stellen.

Eine Frage bleibt. Deutsche KRITIS-Infrastruktur läuft auf Produkten von Microsoft, Amazon und Google — Unternehmen, die nachweislich unter US-Geheimdienstzugriff stehen und deren Datenhoheit nach dem CLOUD Act rechtlich nicht gewährleistet ist. Wie wir am Starlink-Beispiel gezeigt haben 📎, betrifft das nicht nur globale Hyperscaler — selbst das BSI betreibt sein Mobile Incident Response Team über ein privat kontrolliertes US-System ohne europäische Souveränitätsgarantie, ohne dass darüber eine ernsthafte öffentliche Debatte stattfindet. Über die hypothetische Möglichkeit eines israelischen Datenzugriffs — ohne jede dokumentierte Grundlage — wurde dagegen eine unbelegte Behauptung produziert, die als Ministerzitat bundesweit zirkuliert. Wer diesen Maßstabsunterschied sieht und nicht erklärt, wie er sich rechtfertigt, schuldet eine Antwort.


Fehler vier: Die falsche Dichotomie — und das „israelische Radar“, das keines ist

„Der Cyberdome installiere keine Patches, verbessere keine Firewalls — wir lassen die Scheunentore offen und hängen ein israelisches Radar davor.“

Das ist rhetorisch einprägsam und in mehrfacher Hinsicht sachlich falsch.

Zunächst zur Forderung nach Patches und Firewalls: Kein Mensch hat behauptet, der Cyber-Dome solle Patches installieren oder Firewallregeln konfigurieren. Das ist keine Funktion eines nationalen Detektionssystems — genauso wenig wie ein Brandalarm Feuer löscht. Ein nationales Lagebild-System und Endpoint-Härtung auf Unternehmensebene sind keine konkurrierenden Maßnahmen. Sie adressieren verschiedene Sicherheitsschichten. Wer diese Schichten als Alternativen darstellt, hat entweder die Sicherheitsarchitektur nicht verstanden — oder stellt sie bewusst falsch dar. Bezeichnenderweise verlangt §8a BSIG, dessen Einhaltung Atug im Auftrag von Betreibern prüft, ebenfalls keine Detektionssysteme, die gleichzeitig Firewalls konfigurieren. Denn auch die Prüfgrundlage unterscheidet sauber zwischen Detektion und Härtung.

Dann zur Formulierung „israelisches Radar“: Es gibt kein israelisches Radar. Das BSI-Sensornetzwerk wird von Govdigital betrieben — einer Genossenschaft aus zehn deutschen öffentlichen IT-Dienstleistern. Keine israelischen Sensoren, keine israelische Hardware, keine israelische Infrastruktur. Was Israel in diese Kooperation einbringt, ist konzeptionelle Erfahrung: Methodologie, Know-how-Transfer, operative Lernkurve aus einem Jahrzehnt nationaler Cyberabwehr unter Echtbedingungen. Das ist Wissenstransfer — kein Radar. Die Formulierung „israelisches Radar“ ist eine Metapher ohne Substrat in der Realität. Sie erzeugt ein Bild, das mit dem tatsächlichen Aufbau nichts zu tun hat.

Das BMI beschreibt den Cyber-Dome als teilautomatisiertes System zur Detektion, Analyse und Reaktion auf Cyberangriffe 📎 — explizit als Ergänzung zu bestehenden Maßnahmen, nicht als Ersatz. BSI-Präsidentin Plattner spricht von „Industrialisierung der Cybersicherheit“ 📎 — also der Skalierung von Maßnahmen, die bereits auf Unternehmensebene bekannt sind, auf nationale Ebene.

Scheunentore schließen und Radar aufhängen: Das ist kein Entweder-oder. Es ist die Aufgabe jedes ernsthaften Sicherheitsarchitekten, beides zu tun. Wer so argumentiert als ob es eine Wahl wäre, beschreibt nicht die Realität des Projekts — sondern ein Zerrbild, das sich besser polemisieren lässt.


Fehler fünf: Die eingefrorene Kritik — und ihre innere Logik

„Insgesamt sei unklar, worum es sich beim Cyberdome überhaupt handele, welche Infrastruktur damit geschützt werden solle und wie.“

Das war im November 2025 ein berechtigter Einwand. Dobrindt hatte das Konzept öffentlich angekündigt, ohne die operative Architektur zu definieren. Kritik an konzeptioneller Unschärfe ist legitim.

Aber dann folgte Folgendes: Das BMI hat die Drei-Säulen-Architektur öffentlich definiert. Das BSI hat am 18. März 2026 mit dem Aufbau begonnen. Der Pakt mit Israel ist unterzeichnet. Die erste gemeinsame Übung „Blue Horizon“ hat stattgefunden 📎. Der Gesetzentwurf zur Stärkung der Cybersicherheit mit konkreten BSI-Befugnissen liegt vor. Atugs November-Kritik ist damit inzwischen teilweise überholt — auch wenn einzelne Details zu Datenflüssen und Partnerkriterien noch nicht vollständig öffentlich dokumentiert sind. Das ist ein anderes Urteil als „Maut-2.0-Desaster“.

Aber hier liegt noch ein tieferer logischer Fehler, der die gesamte Kritik von innen aushöhlt.

Atug sagt: Es sei unklar, worum es sich beim Cyberdome überhaupt handele, welche Infrastruktur damit geschützt werden solle und wie. Das ist sein eigenes Zitat. Und dann, im selben Atemzug, in derselben Medienrunde: deutsche Daten fließen nach Israel, es entsteht ein schönes Dashboard, israelische Firmen wissen nicht wie man Systeme schützt, die Scheunentore bleiben offen.

Das ist logisch unvereinbar. Wer nicht weiß, was ein System ist, kann nicht wissen, was es tut, was es nicht tut, wer daran beteiligt ist und wohin Daten fließen. Man kann nicht gleichzeitig sagen „ich weiß nicht, was das ist“ und „ich weiß genau, was das bewirkt.“ Das sind zwei Sätze, die offenbar dem gleichen Interview entstammen — und die zusammen zeigen, dass hier keine Analyse stattgefunden hat, sondern ein Ergebnis gesucht wurde, das sich als Analyse verkleidet.

Ein Sachverständiger, der vor Parlamentsausschüssen berufen wird, sollte sich informieren, bevor er unbelegte Behauptungen als gesicherte Einschätzungen in den Raum stellt. Das ist keine hohe Anforderung. Es ist die Mindestanforderung.

Das verweist auf ein grundlegenderes Problem. Expertise definiert sich nicht durch Bekanntheit, Medienpräsenz oder die Häufigkeit von Parlamentsladungen. Expertise definiert sich durch Methodik: durch die Fähigkeit, Behauptungen auf Evidenz zu stützen, Unsicherheiten als solche zu kennzeichnen und Schlussfolgerungen vom tatsächlich Bekannten auf das tatsächlich Belegbare zu beschränken.

Was Atug im November 2025 geliefert hat, erfüllt diese Anforderung nicht. „Voraussichtlich“ kennzeichnet die eigene Aussage als spekulativ. „Ich weiß nicht, was das ist“ ist keine Grundlage für detaillierte Folgebehauptungen. „Minister Dobrindt will unsere Daten nach Israel geben“ ist keine Analyse — es ist eine unbelegte Behauptung, die als Zitat verpackt wurde, das bundesweit zirkuliert ist.

Ein Experte, der auf Spekulation statt auf Evidenz setzt, ist kein Experte mehr — er ist ein Meinungsträger mit Expertenstatus-Branding. Der Unterschied ist erheblich. Medien, die ihn ohne Quellenprüfung zitieren, tragen die Mitverantwortung dafür, dass diese Spekulation als Sachurteil in der Öffentlichkeit ankommt. Bundestagsausschüsse, die ihn als Sachverständigen laden, ohne seine kommerzielle Einbettung zu thematisieren, tragen die Mitverantwortung dafür, dass seine Interessenlage unsichtbar bleibt.

Ob Atug ein Experte ist, entscheidet nicht seine Vereinsgründung. Es entscheidet die Qualität seiner Argumente. Und die liegt in diesem Fall deutlich unter dem, was das Label verlangt.


Und dann ist da noch die Frage, wessen Expertise das eigentlich ist

Manuel Atug ist Gründer und Sprecher der AG Kritis — und hauptberuflich Principal Security Innovation and Practices bei der HiSolutions AG 📎, einem der führenden kommerziellen KRITIS-Beratungsunternehmen Deutschlands. HiSolutions hält nach eigenen Angaben die meisten vom BSI gelisteten Prüfer mit §8a-Kompetenz 📎 aller deutschen Beratungsunternehmen — und ist gleichzeitig BSI-akkreditierter Schulungsanbieter für genau diese Prüfverfahrenskompetenz.

Das ist zunächst ein Transparenzpunkt, kein Schuldnachweis. Das ist kein Vorwurf, sondern ein Standardprinzip in regulierten Umgebungen: Mögliche Interessenkonflikte müssen offengelegt werden, um Einordnungsfähigkeit zu gewährleisten. Wer jedoch öffentlich gegen ein staatliches Lagebildsystem argumentiert, das Schwachstellen automatisiert erkennt, Betreiber proaktiv über Lücken informiert und damit Leistungen übernimmt, die heute manuell durch externe Berater erbracht werden — Gap-Analysen, Schwachstellenbewertungen, Handlungsempfehlungen — und dabei hauptberuflich für ein Unternehmen arbeitet, das genau diese Leistungen als kostenpflichtiges KRITIS-Beratungsportfolio anbietet, für den macht eine transparente Offenlegung dieser beruflichen Einbettung in Medien- und Anhörungskontexten besonders wichtig. Sie fehlt.

Bemerkenswert dabei: Das KRITIS-Prüfgeschäft, von dem HiSolutions profitiert, existiert ausschließlich wegen staatlicher Mandatierung durch §8a BSIG — genau jener Staatsstruktur, gegenüber der Atug sich aus seinem CCC-Umfeld heraus regelmäßig als zivilgesellschaftlicher Kontrolleur positioniert. Die AG Kritis entstand 2018 im Nachgang zum Chaos Communication Congress 📎 — einem Milieu, das staatliche Datenzentralisierung und Überwachungsinfrastruktur grundsätzlich skeptisch beäugt. Der Cyber-Dome ist aus dieser Perspektive besonders kritikwürdig. Das ist eine legitime politische Haltung. Sie ist keine Sicherheitsanalyse.

Die AG Kritis bezeichnet sich selbst als „unabhängig von Unternehmen und Wirtschaftsverbänden“. Gleichzeitig ist sie im Lobbyregister des Deutschen Bundestages eingetragen 📎 — als Interessenvertretungsorganisation mit dem erklärten Ziel, Gesetzgebung im KRITIS-Bereich zu beeinflussen. Beides kann nebeneinander bestehen. Aber die Kombination aus dem Unabhängigkeitsanspruch, der kommerziellen Einbettung des Sprechers und der fehlenden Offenlegung dieser Verbindung in öffentlichen Stellungnahmen ist kein Kleingedrucktes — es ist die Grundlage, auf der Medien und Parlamentsausschüsse die Gewichtung seiner Aussagen einschätzen müssten.

Das ist das eigentliche Problem. Nicht die Kritik — Kritik ist notwendig und wertvoll. Sondern die Verkleidung einer Positionierung, deren Interessenlage nicht offengelegt wird, als neutrale Fachexpertise — gestützt auf eine Vereinsstruktur, die Unabhängigkeit signalisiert, ohne sie strukturell herzustellen.

Wer sagt: „Minister Dobrindt will unsere Daten und viel Geld nach Israel geben“ — und dabei weiß, dass das Wort „voraussichtlich“ in seinem eigenen Satz steht, also weiß, dass er spekuliert — der hat sich für eine Schlagzeile entschieden, nicht für eine Analyse. Das ist das Recht eines Meinungsträgers. Es ist nicht das Recht eines Sachverständigen, der von Bundestagsausschüssen als neutrale Stimme geladen wird.


Warum wird dieser Mann überhaupt als neutrale Stimme zitiert?

Medien brauchen schnell einen O-Ton zu einem technischen Thema. Die AG Kritis signalisiert durch ihren Namen Unabhängigkeit, Atug ist medienerfahren, gut vernetzt und immer verfügbar. Niemand prüft die Interessenlage, weil das zeitaufwändig wäre und weil kein Offenlegungsstandard für Sachverständige außerhalb formeller Parlamentsanhörungen existiert. Das ist strukturelle Bequemlichkeit, keine böse Absicht.

Bemerkenswert ist dabei, was die Recherche für diesen Artikel ergab: Mir ist in der öffentlich sichtbaren Debatte bislang keine nennenswerte methodische Gegenanalyse mit vergleichbarer Detailtiefe begegnet — kein Widerspruch, keine Gegendarstellung, keine strukturierte Auseinandersetzung mit den Kernargumenten. Das klingt zunächst nach Stärke. Es ist ein Warnsignal.

Echte operative Expertise erzeugt Reibung — von Kollegen, Auftraggebern, konkurrierenden Ansätzen, aus der Wissenschaft. Wer Systeme baut, betreibt oder verantwortet, bekommt Gegenmeinungen. Die Abwesenheit von Kritik bei einem öffentlich prominenten Sachverständigen lässt sich auf drei Weisen erklären, die alle unbequem sind: Ein Chilling Effect — wer widerspricht, riskiert im CCC-nahen Netzwerk als israelfreundlich oder industriegekauft abgestempelt zu werden. Keine Falsifizierbarkeit — wer nicht baut und nicht betreibt, dessen Aussagen können nicht an der Realität scheitern. Und ein Medienmechanismus, der dieselbe Stimme immer wieder amplified, weil Redaktionen denselben Kontakt immer wieder anfragen. Das Ergebnis sieht aus wie Konsens — aber es ist keiner. Es ist strukturelles Schweigen, das als Zustimmung durchgeht.

Ein Experte ohne öffentlichen Widerspruch ist kein Zeichen von Stärke. Es ist das Profil eines Meinungsführers, nicht eines Praktikers.

Das zweite Muster ist politischer Natur und dokumentierbar. Seine Sachverständigenrollen entstanden im parlamentarischen Raum durch parteipolitische Einladungspraxis — wer gehört wird, entscheiden Fraktionen und Ausschüsse, nicht ein neutrales Expertengremium. Die Anhörung zur Cybersicherheits-Zuständigkeit 2023 im Digitalausschuss wurde auf der parteinahen Plattform Grün Digital als eigene politische Initiative dokumentiert und kommentiert. Das ist keine Neutralität — das ist politische Kuration.

Bemerkenswerter noch ist, was Atug in seiner eigenen schriftlichen Stellungnahme an den Bundestag 📎 zum IT-Sicherheitsgesetz 2.0 schrieb: Er nannte israelische Cyberfirmen im selben Absatz wie russische Unternehmen und CIA-nahe US-Konzerne — als drei gleichrangige Beispiele für geopolitisch nicht-neutrale Anbieter, deren Produkte in Deutschland kritisch bewertet werden müssten. Das ist ein öffentliches Bundestag-Dokument, kein privates Zitat. Es zeigt, dass seine Skepsis gegenüber israelischer Cybersicherheitstechnologie nicht aus der Cyber-Dome-Debatte stammt — sie ist eine konstante politische Position, die er seit Jahren in Parlamenten vertritt.

Wer die öffentliche Debatte um den Cyber-Dome vor diesem Hintergrund verfolgt, sieht das Muster in Aktion: Die Kritik richtet sich konsistent auf den israelischen Aspekt — „Daten nach Israel“, „israelische Firmen“, „Kooperation mit israelischen Sicherheitsbehörden“. Eine Kleine Anfrage der Linken-Fraktion im Bundestag 📎 vom Februar 2026 nennt explizit die Verbindung des israelischen Verhandlungspartners zur Anti-BDS-Kampagne als Kontext für Bedenken. Die operativen Governance-Fragen — Zuständigkeit, Reaktionsketten, Zertifizierungsanforderungen — tauchen in dieser Kritik kaum auf.

Das ist kein Zufall. Es ist ein Selektionseffekt: Eine Weltanschauung, die israelische Sicherheitskooperation grundsätzlich problematisch findet, sucht nach Argumenten gegen das Projekt — und findet sie. Eine Sicherheitsanalyse würde anders vorgehen: Sie würde mit den operativen Fragen beginnen und die Partnerschaft danach bewerten. Dieser Unterschied ist der entscheidende.


15 Jahre, drei Anläufe, kein Ergebnis — und jetzt ist externe Hilfe das Problem?

Wer die AG-Kritis-Kritik am Cyber-Dome ernst nehmen will, muss eine Gegenfrage stellen: Was haben die deutschen Experten, Verbände und Behörden in den vergangenen 15 Jahren gebaut?

Die Antwort ist dokumentiert — und sie ist ernüchternd.

2011 wurde das Nationale Cyber-Abwehrzentrum (NCAZ) mit dem expliziten Ziel gegründet, ein gemeinsames operatives Lagebild zwischen BSI, BKA, BfV, BND und Bundeswehr herzustellen. 15 Jahre später beschreibt die Bundesfachkommission Cybersicherheit das Ergebnis als „Wimmelbild“ fragmentierter Zuständigkeiten — kein durchgängig integriertes operatives Lagebild, keine funktionierende Fusionsarchitektur. Der Bundesrechnungshof hatte das bereits 2014 in einem vertraulichen Bericht festgestellt: Der Hauptzweck werde nicht erfüllt, es gebe keine klare Arbeitsstruktur, und es sei unklar, welche Produkte das NCAZ überhaupt regelmäßig erstelle.

Im Februar 2013 startete eco — Verband der deutschen Internetwirtschaft — als Koordinator das EU-geförderte Projekt Advanced Cyber Defence Centre (ACDC) 📎: 28 Partner aus 14 europäischen Ländern, 16 Millionen Euro Gesamtbudget — davon 7,8 Millionen EU-Mittel — ein zentrales Clearing House für Botnetze und Netzwerkanomalien, acht vernetzte nationale Support Center, eine verteilte Sensor-Infrastruktur. Das war konzeptionell genau das, was heute als Cyber-Dome gebaut werden soll. ACDC lief bis Juli 2015 — dann endete die EU-Förderung, und das Projekt verschwand. Eine selbsttragende Nachfolgestruktur, die von Anfang an als Ziel formuliert war, entstand nicht.

Im selben Monat, März 2013, lancierte die Deutsche Telekom den Sicherheitstacho 📎: ein Honeypot-basiertes Echtzeit-Lagebild mit 97 Sensoren weltweit, entwickelt in Partnerschaft mit BSI und BITKOM. Er läuft bis heute — als private Unternehmensinitiative, nie in eine staatliche Lagebildarchitektur integriert.

Ich schreibe das nicht als Beobachter von außen. Als Conficker ab Ende 2008 Millionen Windows-Rechner infizierte, gab es ein strukturelles Problem, das niemand löste: Es existierte keine Infrastruktur, um betroffene Nutzer zu erreichen und Infektionsdaten automatisiert zwischen Providern auszutauschen. Ich habe auf den Plattformen von 1&1 — WEB.DE und GMX — Checks eingebaut, die Nutzer beim Login direkt informierten wenn ihr Anschluss betroffen war, und die Daten automatisiert an andere Provider weiterleiteten. Das funktionierte — aber es war eine provider-interne Lösung eines einzelnen Anbieters. Der Grundgedanke für botfrei war: Dieses Modell anbieter-neutral machen und auf den gesamten deutschen Markt ausweiten. Kein einzelner Provider als Treiber, sondern eine gemeinsame offene Infrastruktur, auf die alle ISPs zugreifen können. Das war das Modell, das ich bei eco eingebracht habe und das 2010 als Anti-Botnet-Beratungszentrum botfrei.de zum nationalen ACDC-Support Center wurde — mit BSI-Unterstützung und offenem Zugang für alle Provider.

Als DNS-Changer 2011/2012 zum nächsten Massenangriff wurde — eine Schadsoftware, die DNS-Einstellungen manipulierte und Nutzer unbemerkt auf gefälschte Seiten umleitete — war botfrei.de die operative Anlaufstelle: Der DNS-Changer-Check unter dnschanger.eu war ein Novum ohne Vorläufer, das in Echtzeit prüfte ob ein Nutzer betroffen war, mit direkter Reinigungsanleitung. BSI, BKA und Telekom verwiesen aktiv darauf. Ich war Ideengeber und Projektverantwortlicher für ACDC bei eco, Gründungsmitglied von botfrei, Leiter des Bereichs Cyber Defence. Die Conficker Working Group 📎 — die koordinierte internationale Reaktion auf den Wurm, an der Microsoft, ICANN, globale Registries und Sicherheitsfirmen aus Dutzenden Ländern beteiligt waren — war eine der bedeutendsten Public-Private-Partnership-Operationen der frühen 2010er Jahre.

Aus demselben Modell entstand 2014 in der Schweiz die Swiss Internet Security Alliance (SISA) 📎 — anbieter-neutral, mit ISPs, Banken und Behörden als gleichberechtigten Partnern, Bevölkerungssensibilisierung als Kernzweck. Dieselbe Architektur, dieselbe PPP-Logik, dieselbe Idee. SISA läuft bis heute. Botfrei ist tot.

Das war nicht mein einziger Berührungspunkt mit dem deutschen KRITIS-Krisenmanagement. Bei der allerersten UP KRITIS-Übung 2008/2009 — in der große Telekommunikationsanbieter wie die Deutsche Telekom und 1&1 gemeinsam mit dem BSI den Ausfall von Kommunikationsinfrastrukturen simulierten — war ich in einer Doppelrolle dabei: als SPOC für die Telekommunikationsbranche, also als operativer Ansprechpartner des BSI-Lagezentrums, und gleichzeitig als sogenannter „Störer“ — meine Aufgabe war es, das Übungsszenario durch zusätzliche, unerwartete Ausfälle in der globalen Infrastruktur realitätsnäher zu gestalten und die Teilnehmer mit Eskalationen zu konfrontieren, die über das geplante Drehbuch hinausgingen. Danach übernahm ich die SPOC-Rolle beim eco und bündelte in dieser Funktion die dahinterliegenden Mitgliedsunternehmen gegenüber dem BSI.

Und ich berate seit Jahrzehnten Energieversorger und andere KRITIS-Betreiber — ich weiß, wie die Strukturen, die im NCAZ-Bericht als gescheitert beschrieben werden, sich im Betrieb tatsächlich anfühlen.

Ich kenne die Architektur, die heute als Cyber-Dome skaliert werden soll, nicht aus Lehrbüchern. Ich kenne sie aus den Übungsräumen, in denen sie aufgebaut — und in denen sichtbar wurde, wo sie strukturell scheitert.

Das ist keine abstrakte Strukturkritik. Deutschland hatte die Instrumente. Die Blaupause für ein nationales Lagebild existierte — technisch, konzeptionell, mit europäischer Förderung und operativer Praxis. Was fehlte, war kein Wissen und keine Technologie. Es fehlte der politische Wille, das nach Förderungsende weiterzubauen, zu finanzieren und strukturell zu verankern. 15 Jahre sind seitdem vergangen. Behörden haben Berichte geschrieben, Ausschüsse getagt, Gesetze novelliert, Zuständigkeiten verteilt — und am Ende steht dasselbe Wimmelbild, das 2014 schon im Bundesrechnungshof-Bericht stand. Während Deutschland das Modell einstellte, baute die Schweiz es weiter. Jetzt kommt Israel und bringt mit, was Deutschland hätte selbst aufbauen können. Das ist die eigentliche Blamage. Nicht die Kooperation — sondern der Zustand, der sie notwendig gemacht hat.

Jetzt, da Deutschland anfängt dieses Modell auf staatlicher Ebene zu skalieren — mit israelischer Erfahrung als konzeptioneller Blaupause — sagt ein Experte, dessen Arbeitgeber vom Status quo der fragmentierten Beratungslandschaft profitiert, dass das ein Desaster sei.

Die Frage, die diese Kritik schuldig bleibt: Was wäre die Alternative? Welchen weiteren Anlauf, welchen weiteren Ausschuss, welches weitere EU-Projekt soll Deutschland starten — bevor es akzeptiert, dass andere Länder dieses Problem gelöst haben und Deutschland davon lernen kann?


Was eine konstruktive Kritik aussehen würde

Es gibt echte offene Fragen beim deutschen Cyber-Dome — und sie verdienen ernsthafte Analyse. Wir haben einige davon bereits strukturiert 📎.

Wer trägt die operative Verantwortung für die Entscheidung, auf eine erkannte Anomalie zu reagieren — und wann? Das BSI-Sensornetzwerk erkennt Anomalien in zehn Bundesländern. Welcher Kommunikationspfad führt von der Erkennung zur Reaktion, und wie schnell muss er sein? Das ist die operative Zuständigkeitsfrage, die in Deutschland strukturell ungelöst ist — und die im SOC-Kontext dieselbe Grundstruktur hat 📎: Detektion ohne geklärte Entscheidungsbefugnis ist kein Sicherheitsgewinn. Wie KI-Modelle unter Entscheidungsdruck reagieren, ist dabei kein akademisches Problem 📎 — es ist die operative Frage, die jede automatisierte Detektionsinfrastruktur beantworten muss, bevor sie in KRITIS-Umgebungen eingesetzt wird.

Eine weitere Frage, die Heise am 10. März 2026 präzise gestellt hat 📎: Die Bundesregierung ließ bislang offen, ob Systeme wie Palantir oder KI-Modelle aus dem israelischen Militärkontext für den deutschen Cyber-Dome geprüft werden — mit Verweis auf die sogenannte Third-Party Rule. Das ist eine belegbare, legitime Transparenzfrage, die beantwortet werden muss. Sie ist strukturell verschieden von Atugs unbelegter „Daten nach Israel“-Behauptung — aber sie gehört auf den Tisch.

Welche Zertifizierungsanforderungen gelten für Technologiekomponenten, die in das Sensornetzwerk eingebunden werden? Das ist die Einkaufs-Governance-Frage, die entscheidet, wer Zugang bekommt — und unter welchen Bedingungen.

Wie wird verhindert, dass das Sensornetzwerk selbst zur Angriffsfläche wird? Ein nationales Detektionssystem, das Anomaliedaten aus zehn Bundesländern bündelt, ist ein attraktives Primärziel für staatliche Angreifer — ein Muster, das wir auch bei SOC-Infrastrukturen beobachten 📎: Systeme, die erkennen sollen, werden selbst blind, ohne dass jemand es merkt.

Das sind die Fragen, die eine AG Kritis stellen sollte. Stattdessen wurde eine unbelegte Behauptung produziert, die sich wie eine Schlagzeile anfühlte und seither die Debatte vergiftet.


Ein abschließender Gedanke. Das israelische Cyber-Ökosystem hat seinen Reifegrad unter realem Angriffsdruck entwickelt — nicht im Seminar. Der INCD-Chef Yossi Karadi bestätigte auf der CyberTech Global Tel Aviv im Januar 2026 📎: 26.500 Vorfallsmeldungen im Jahr 2025, ein Anstieg von 55 Prozent gegenüber 2024. Viele davon wurden erkannt und gestoppt, bevor sie Schaden anrichten konnten. Was das für die Architektur autonomer Angriffs- und Verteidigungssysteme bedeutet, haben wir hier analysiert 📎. Das ist kein Dashboard-Ergebnis. Das ist das Ergebnis eines Jahrzehnts operativer Architekturentscheidungen unter Bedingungen, die Deutschland sich zu Recht nicht wünscht, aber von denen es lernen kann.

Wer pauschale Ablehnung betreibt, wo differenzierte Beschaffungskritik angebracht wäre, verhindert eine Debatte, die Deutschland braucht. Das ist — unabhängig von Motiven — das eigentliche Sicherheitsrisiko in dieser Diskussion.


Zur Transparenz dieses Textes

Dieser Artikel fordert von anderen Offenlegung. Dann gilt das auch hier.

Ich berate freiberuflich Technologieanbieter — vorwiegend israelische Cyber-Security- und Deep-Tech-Startups — beim Markteintritt in Deutschland und Europa. Das schließt regulatorische Anschlussfähigkeit nach NIS-2, KRITIS, BSIG und BSI-Grundschutz ein, Nachweisfähigkeit und Auditierbarkeit in sicherheitskritischen Umgebungen, Datensouveränität und nachweisliche Backdoor-Freiheit als Beschaffungsvoraussetzung sowie Go-to-Market-Strategien für hochregulierte Sektoren wie KRITIS, Luftfahrt und öffentliche Verwaltung. Mein Fokus liegt dabei auf strategischer Einordnung und operativer Anschlussfähigkeit — nicht auf Audit-Produkten oder Compliance-as-a-Service, von beidem halte ich strukturell wenig, wie dieser Artikel zeigen dürfte. Was das konkret bedeutet, ist hier beschrieben 📎.

Ich berate seit Jahrzehnten Energieversorger und KRITIS-Unternehmen und kenne ihre operative Realität nicht aus Stellungnahmen, sondern aus der Praxis. Ich weiß, wie KRITIS-Betreiber tatsächlich arbeiten — welche Entscheidungen sie unter Zeitdruck treffen, wo ihre Sicherheitsarchitektur im Alltag an Grenzen stößt und was sie von einem nationalen Detektionssystem wirklich erwarten würden. Diese Erfahrung prägt die Argumentation dieses Textes.

Das bedeutet: Ich habe ein direktes kommerzielles Interesse daran, dass israelische Cybersicherheitstechnologie in Deutschland als legitim, beschaffungsfähig und regulatorisch anschlussfähig gilt. Dieser Blog ist der publizistische Ausdruck dieser Perspektive — kein neutrales Beobachtungsprojekt.

Wer die Argumente dieses Textes mit diesem Hintergrund gewichten möchte, sollte das tun. Ich halte sie für belegbar — unabhängig davon, wer sie vorträgt. Aber das zu entscheiden ist Sache der Leserin und des Lesers, nicht meine.

Anmelden zu unserem Newsletter:

Vom Wissen zum Austausch: Sicherheit weiterdenken.

Diese Beiträge folgen der Überzeugung, dass echte Sicherheit dort beginnt, wo die bloße Compliance endet. Sie sind als Denkangebote zu verstehen – geformt aus der Praxis, aber offen für den Diskurs.

Ich schätze den fundierten Widerspruch ebenso wie die Ergänzung aus dem operativen Alltag. Ob als Gründer, Betreiber oder strategischer Entscheider: Ihre Sichtweise ist der Schlüssel zur Weiterentwicklung dieser Ansätze.

Lassen Sie uns den Dialog dort führen, wo er am fruchtbarsten ist – öffentlich in den Kommentaren oder vertraulich im direkten Gespräch. Substanz braucht Raum.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Translate »