DER NETZWERK INSIDER – Ausgabe Februar 2024
Hilfsmittel für Einstieg und Arbeiten mit der BSI-IT-Grundschutz-Methodik
von Oliver Flüs
Die BSI-Grundschutz-Methodik ist eine methodische Arbeitsbasis für Aufbau und Pflege von Informationssicherheit. Verschiedene Hilfsmittel sind über BSI-Webseiten zugänglich, man muss allerdings wissen, wo, wozu, von wem, usw.
Sie können den Einstieg erleichtern und Fortgeschrittenen helfen, neue Themen zu beherrschen. Voraussetzung für den erfolgreichen Einsatz solcher Vorlagen und Hilfen zur Selbsthilfe: „Gewusst, wo“, aufmerksames Lesen und Mut zur eigenen Entscheidung – also Mitdenken! Hierzu soll dieser Artikel einführen, das Auffinden erleichtern und Tipps aus Praxiserfahrung geben.
Sicherheitsmaßnahmen für Microsoft-365-Umgebungen
von Aaron Siller
Die Palette von Diensten in Microsoft 365, darunter Exchange Online, SharePoint, OneDrive und Microsoft Teams, erfordert spezifische Sicherheitsvorkehrungen, um Gefahren wie Phishing, Datenlecks und unbefugtem Zugriff wirkungsvoll entgegenzutreten. Der Prozess der Sicherheitshärtung sollte sämtliche Facetten der Umgebung umfassen, angefangen bei der Konfiguration und sicherheitstechnischen Optimierung der Dienste bis hin zur Überwachung sämtlicher Aktivitäten. Im nachfolgenden Artikel werden bewährte Methoden sowie technische Ansätze präsentiert, um die Sicherheit von Microsoft-365-Umgebungen effizient zu maximieren.
Was ist wichtiger: weniger Komplexität oder mehr Diversität?
von Dr. Behrooz Moayeri
In der letzten Insider-Ausgabe des Jahres 2023 bin ich auf die wichtigsten Netztrends in 2024 eingegangen. Ich habe darauf hingewiesen, dass die Ausfallsicherheit von Netzen fast immer mit redundanter Hardware in Verbindung gebracht wird. Es folgte die Warnung vor Ausfallszenarien, zu denen es trotz einer durchgängigen Hardware-Redundanz kommt. Aus Erfahrung merkte ich an, dass Software auf Netzkomponenten zum Single Point of Failure werden kann, wenn alle Geräte mit derselben fehlerhaften Software arbeiten. Ferner erwähnte ich die durchaus bewährte Robustheit des Internets, das unter anderem zwecks Ausfallsicherheit verschiedene administrativen Domänen (Autonome Systemen, AS) umfasst.
Wird Wi-Fi 7 der 5G-Killer?
von Dr. Joachim Wetzlar
Es ist so weit: Am 8. Januar hat die Wi-Fi Alliance ihr Zertifizierungsprogramm Wi-Fi CERTIFIED 7™ vorgestellt [1]. Sie kennen die Vorgehensweise bereits von früheren WLAN-Versionen: Der Standard ist seitens des IEEE noch lange nicht verabschiedet, Hersteller und Ausrüster einigen sich aber schon einmal auf die wesentlichen Details, um ihre Produkte einigermaßen investitionssicher vermarkten zu können. Immerhin rechnet man bei IEEE mit einer Verabschiedung des zugrundeliegenden Standards IEEE 802.11be noch in diesem Jahr [2]. Die Task Group 11be hat im Dezember 2023 die erforderliche Zustimmung zu ihrem Draft 5.0 erhalten. Jetzt ist als nächsthöheres Gremium die IEEE Standards Association dran.
Sicherer Betrieb von Container-Technologien
mit Dr. Markus Ermes sprach Christiane Zweipfennig
Container-Technologien als schnelle, ressourcenschonende und flexible Verteilung von Software gewinnen für moderne Anwendungen und Rechenzentren zunehmend an Bedeutung. Unternehmen, die Container-Technologien für die Entwicklung und den Betrieb von Software einsetzen, sollten Sicherheitsaspekte bereits vor der Einführung beachten. Dies setzt eine gute Planung voraus. Zusätzlich muss die Sicherheit während des gesamten Lebenszyklus der Container aufrechterhalten und verbessert werden. Dazu ist es erforderlich, dass alle Beteiligten wissen, welche Anforderungen zu beachten sind und über das entsprechende Know-how verfügen, diese auch umsetzen zu können.
Was ist wichtiger: weniger Komplexität oder mehr Diversität?
In der letzten Insider-Ausgabe des Jahres 2023 bin ich auf die wichtigsten Netztrends in 2024 eingegangen. Ich habe darauf hingewiesen, dass die Ausfallsicherheit von Netzen fast immer mit redundanter Hardware in Verbindung gebracht wird. Es folgte die Warnung vor Ausfallszenarien, zu denen es trotz einer durchgängigen Hardware-Redundanz kommt. Aus Erfahrung merkte ich an, dass Software auf Netzkomponenten zum Single Point of Failure werden kann, wenn alle Geräte mit derselben fehlerhaften Software arbeiten. Ferner erwähnte ich die durchaus bewährte Robustheit des Internets, das unter anderem zwecks Ausfallsicherheit verschiedene administrativen Domänen (Autonome Systemen, AS) umfasst.
Nun ist ein Unternehmensnetz per se EINE administrative Domäne. Für das Netz eines Unternehmens ist in der Regel eine organisatorische Einheit zuständig. Große Unternehmen delegieren schon mal den Betrieb von Teilbereichen ihrer Netze an lokale Einheiten oder spezialisierte Teams, die sich zum Beispiel um das RZ-Netz kümmern. Es gilt jedoch fast immer, dass für eine bestimmte Netzfunktion eine organisatorische Einheit zuständig ist. Zum Beispiel trägt das WAN-Team die Verantwortung dafür, dass verschiedene Standorte des Unternehmens miteinander kommunizieren können, unabhängig davon, wie die lokalen Netze an den Standorten aussehen und wie und von wem sie betrieben werden.
Insofern kann eine ganz wichtige Funktion, auf die das gesamte Unternehmen angewiesen ist, ausfallen, weil ein Team oder sogar eine einzelne Person einen Fehler gemacht hat. Davor sind nicht einmal große Hyperscaler wie Microsoft gefeit, wie einige Vorfälle in der jungen Vergangenheit gezeigt haben.
Software von Netzkomponenten als Fehlerquelle
Netzadministratoren sind nicht die einzigen Menschen, denen Fehler unterlaufen können. Auch die Entwickler von Software auf Netzkomponenten sind Menschen und können Software-Bugs produzieren. Zu Netzkomponenten zähle ich in diesem Zusammenhang nicht nur Switches und Router, sondern auch Firewalls. Eine der etablierten Antworten der Unternehmen auf zunehmende Cyber-Risiken ist die Segmentierung von Netzen mittels Firewalls. Angesichts der Wichtigkeit mancher segmentübergreifender Kommunikation, zum Beispiel Zugriff der Clients im Campusnetz auf Server im RZ-Netz, werden zum Beispiel Data Center Firewalls redundant ausgelegt. Das gängigste Modell dafür ist ein Cluster von zwei Firewall-Knoten desselben Herstellers, auf denen dieselbe Software läuft. Weist diese Software ein Problem auf, kann sie ausfallen, und mit ihr sämtliche Client-Server-Zugriffe.
Sollte man deshalb grundsätzlich für alle kritischen Funktionen mindestens zwei Produkte einsetzen, die von möglichst keiner einzelnen Fehlerquelle betroffen sein können? Ist es praktikabel, zum Beispiel ein RZ-Netz über Firewalls von zwei verschiedenen Herstellern mit dem Campusnetz zu verbinden? Die Antwort auf diese Frage ist nicht trivial. Die für eine IT verantwortlichen Personen sollten sich der Frage stellen, was wichtiger ist: weniger Komplexität durch einheitliche Produkte oder mehr Diversität als Vorbeugung vor sogenannten Single Points of Failure, einschließlich Software?
Weniger Komplexität reduziert die Wahrscheinlichkeit von Fehlern
Betreiber von komplexen Umgebungen können mehr Fehler machen als diejenigen, die einfachere Umgebungen am Leben halten. Insofern reduziert weniger Komplexität die Wahrscheinlichkeit von Fehlern und damit auch die Risiken von Ausfällen. Hinzu kommt, dass in einer einheitlichen Produktumgebung Automatismen leichter implementiert werden können als in einer heterogenen Landschaft. Es ist erwiesen, dass Automaten weniger Fehler unterlaufen als Menschen.
So ist Vereinfachung ein probates Mittel für mehr Robustheit. Trotzdem muss man sich fragen, wovon die größeren Risiken ausgehen: von den Fehlern durch komplexere Strukturen oder von fehlerhafter Software, die trotz Hardware-Redundanz zu Ausfällen führt.
Primat der Vereinfachung
Die meisten Organisationen folgen dem Primat der Vereinfachung, ja haben gar keine andere Chance als auf möglichst einfache, einheitliche Strukturen zu setzen. Welches Unternehmen kann sich in Zeiten knapper Personalressourcen die bewusste Entscheidung leisten, für jede kritische Funktion mindestens zwei Lösungen zu betreiben?
Trotz der grundsätzlichen Präferenz für einheitliche Lösungen gibt es jedoch Fälle, in denen es wichtig ist, auf zwei verschiedene Lösungen für dieselbe Funktion zurückgreifen zu können. In meinen Seminaren, die ich oft online und von zuhause aus halte, bringe ich regelmäßig ein Beispiel, das angesichts des Szenarios sofort einleuchtet. Zitat: „Liebe Teilnehmer, stellen Sie sich vor, die terrestrische Internet-Anbindung oder das WLAN in meinem Home Office fällt aus. Die gute Nachricht ist, dass ich binnen einer Minute oder gar weniger auf den Mobilfunk umschalten kann.“ Selbst für einen scheinbar unwichtigen Standort wie mein Home Office hält daher ComConsult zwei Lösungen der Internet-Anbindung vor. Selbstverständlich kostet das Geld, für zwei Netzadapter im Endgerät, für terrestrische und mobile Netzgebühren, für die Arbeitskraft der Menschen, die beides am Leben halten. Das Geld ist jedoch gut angelegt, wenn man etwa daran denkt, welchen Umsatz die ComConsult Akademie verlieren kann, wenn die Netzanbindung des Referentengerätes ausfällt.
Was für das Netz gilt, gilt auch für den Rest der IT
Damit eine IT funktioniert, braucht man unbedingt das Netz. Die IT besteht jedoch nicht nur aus dem Netz. Es gehören auch Endgeräte dazu sowie Server, Software, Storage etc. Immer muss man sich der Frage stellen, wie viel Diversität man sich leisten kann und muss, und wo mehr Diversität mehr Probleme verursacht als sie löst. Die Antwort auf diese Frage wird nicht einmal für die Ewigkeit gegeben werden können. Umstände ändern sich, und aus Erfahrungen wird man schlauer. Insofern wird uns die titelgebende Frage immer wieder beschäftigen: weniger Komplexität oder mehr Diversität?