WLAN-Planungstools im Vergleich – Ekahau Pro versus iBwave Design
von David Feuser und Michael Schneiders
Das Ergebnis einer Zellplanung, beispielsweise die korrekte Positionierung aller Access Points zwecks einer flächendeckenden und performanten WLAN-Ausleuchtung, lässt sich auf zahlreiche Weisen umsetzen. Die Methoden reichen von einer Ad-hoc-Beseitigung von Funklöchern oder einer bedarfsgetriebenen Access-Point-Montage auf Zuruf bis zu einer Zellplanung mithilfe von Ausleuchtungsmessungen vor Ort oder einer WLAN-Simulation mithilfe passender technischer Hilfsmittel. Ausgangsbasis für die Zellplanung sollte dabei immer ein wohl durchdachtes Konzept und eine vollständige Zusammenstellung der Anforderungen an das WLAN sein. In diesem Artikel konzentrieren wir uns auf die Software-gestützte WLAN-Simulation mit Ekahau Pro und iBwave Design.
Aufbau der IT-Infrastruktur für den Digitalpakt: Erfahrungen aus zwei Jahren Planung und Umsetzung
von Hartmut Kell
Der Schulalltag kehrt zurück, der Online-Unterricht wird zurückgefahren, und die Internet-Konnektivität jedes einzelnen Schülers oder Lehrers in den Räumen der Schule nimmt an Bedeutung zu. Digitale Kompetenzen und Inhalte sollen wieder in den Schulräumen vermittelt werden. Dies erfordert eine bessere Ausstattung der Schulen, die mit dem Digitalpakt erreicht werden soll. Dazu stellt der Bund seit 2019 Gelder zur Verfügung, die zum einen in die Anschaffung von digitalen „Endgeräten“ wie Whiteboards, Laptops, Beamer, Tablets o.Ä. gesteckt werden und zum anderen in die dazu zwingend notwendige Aufrüstung der IT-Infrastruktur. Da dieses Budget bis Ende 2024 „verbraucht“ werden darf bzw. muss, herrscht auf Schulämter und Schulen ein enormer Druck, diese Infrastruktur in 47.000 Schulen aufzubauen.
Technische und organisatorische Vorkehrungen gegen Netzausfälle
von Dr. Behrooz Moayeri
In einem Blog bin ich bereits auf die Facebook-Ausfälle am 04. und 09.10.2021 eingegangen. Laut Facebook war die Ursache die fehlerhafte Konfiguration des Border Gateway Protocol (BGP), welches das Routing zwischen dem Facebook-Netz und dem Rest der Welt (d.h. dem Internet) steuert. Geht man von dieser Facebook-Mitteilung aus, wurde also eine fehlerhafte Konfiguration zum Single Point of Failure. Im Folgenden möchte ich diesen Vorfall zum Anlass nehmen und darauf eingehen, warum Netze ausfallen und wie die Wahrscheinlichkeit solcher Ausfälle sowie deren Auswirkungen zu reduzieren sind.
Wer fordert Microsoft noch heraus?
von Nils Wantia
Wir haben ein Problem: Microsoft etabliert sich in mehr und mehr Feldern als Quasi-Monopolist. Man muss immer länger suchen, um noch Kunden zu finden, die nicht auf Microsoft Exchange setzen oder die kein Active Directory oder Microsoft Office nutzen. Und wenn man sie endlich gefunden hat, dann stellt sich in den meisten Fällen heraus, dass lediglich die Migration dorthin noch nicht abgeschlossen wurde. Doch die Entscheidung wurde längst getroffen.
Wettbewerb der Funktechniken ums IoT-Endgerät
von Dr. Joachim Wetzlar
Im Februar 2017, hat mein Kollege Dr. Dams im Netzwerk-Insider über die WLAN-Variante gem. IEEE 802.11ah berichtet. Er kündigte an, dass die Wi-Fi Alli-ance eine entsprechende Zertifizierung herausbringen wolle. Das ist jetzt nach “nur” vier Jahren Wartezeit geschehen: Am 2. November erblickte „Wi-Fi CERTIFIED HaLow“ [1] das Licht der Welt.
Ich fasse kurz zusammen, was sich hinter Wi-Fi HaLow verbirgt: Es handelt sich um WLAN für den Frequenzbereich unterhalb von 1 GHz (Sub 1 GHz, S1G). In Europa ist das der Bereich von 863 bis 868 MHz.
RZ-Umzug – was ist dabei an Vorbereitungen wichtig? – das Projektinterview
von Hartmut Kell
Datacenter sind das Herz jedes Unternehmensnetzwerks. Kommt es beim Umzug des Rechenzentrums zu Störungen, kann dies für das Unternehmen unter Umständen existenzgefährdend sein. Doch wie zieht man ein Rechenzentrum schadenfrei und geschützt um, ohne den laufenden Geschäftsbetrieb zu beeinträchtigen? Die Zeit, in der Server und Komponenten vom bisherigen in das neue Rechenzentrum gebracht werden müssen, ist knapp bemessen. Eine akribische Vorbereitung ist deshalb das A und O.
Technische und organisatorische Vorkehrungen gegen Netzausfälle
Fortsetzung
Warum Netze ausfallen
Ursachen von Netzausfällen können in folgenden Bereichen liegen:
- Hardware
- Software
- Konfiguration
Dabei können Schwächen von Hardware, Software oder Konfiguration durch ungünstige Umstände zum Netzausfall führen oder auch bewusst ausgenutzt werden. Im zweiten Fall liegt ein Angriff vor. Das Ziel eines solchen Angriffs kann auch die Beeinträchtigung der Verfügbarkeit des Netzes sein.
Ebenso kann eine Kombination von Umständen in den oben genannten Bereichen zu einem Netzausfall führen. Zum Beispiel ist es möglich, dass eine Hardware-Störung die Software von Netzkomponenten destabilisiert. Denken Sie etwa an einen defekten Transceiver. Dieser kann den Zustand einer physischen Verbindung mit ungewohnt hoher Frequenz ändern, wofür man den Begriff Link Flapping verwendet. Link Flapping kann Steuerungsprotokolle wie Routing-Protokolle, das Spanning-Tree-Protokoll oder andere Mechanismen der Control Plane (Steuerungsebene) des Netzes so stark in Anspruch nehmen, dass die Zustände im Netz undeterministisch werden. Ergebnis kann ein instabiles Netz sein.
Vorbeugende Gegenmaßnahmen
Fehler und Schwachstellen in allen oben genannten Bereichen, nämlich Hardware, Software und Konfiguration sind unvermeidbar. Mit einer Kombination von Mechanismen kann jedoch einerseits die Wahrscheinlichkeit von Ausfällen reduziert und andererseits deren Auswirkung minimiert werden. Zu diesen Mechanismen zählen:
- Redundanz: Redundanz dient dazu, die Netzfunktion bei Hardware-Ausfällen wie zum Beispiel Ausfall einer Netzkomponente oder einer Leitung aufrechtzuerhalten. Redundanz muss in einer Umgebung mit hohen Verfügbarkeitsanforderungen automatisch greifen. Deshalb müssen Prozesse auf Netzkomponenten permanent den Netzzustand überwachen und bei Entdeckung von partiellen Ausfällen die Wegewahl im Netz ändern. Genau diese Prozesse können jedoch selbst instabile Zustände hervorrufen, wenn die sie aktivierende Software oder Konfiguration die automatischen Redundanzmechanismen nicht bewältigen kann. Daher müssen Redundanzmechanismen auf jeden Fall einem Stresstest unterzogen werden, zum Beispiel unter Laborbedingungen.
- Geeignete Software-Wahl: Software auf Netzkomponenten ist komplex. Komplexe Software kann Fehler oder Schwachstellen enthalten. Diese sind unvermeidlich. Daher ist auf geeignete Software-Wahl für Netzkomponenten zu achten. Hersteller von Netzkomponenten sind dafür in die Pflicht zu nehmen; sie müssen stabile und getestete Software-Versionen bekannt geben.
- Einstellungen in der Konfiguration: Gegen instabile Zustände können bestimmte Konfigurationseinstellungen unter Umständen helfen. Zum Beispiel kann ein Automatismus bei Link Flapping einen Port abschalten und somit für klare Verhältnisse sorgen. Damit solche Automatismen die Netzverfügbarkeit nicht beeinträchtigen, sind natürlich redundante Strukturen und automatische Redundanzmechanismen erforderlich. Ferner müssen Änderungen wie die automatische Abschaltung eines Ports zu einem Alarm führen.
Design als Ausfallvorbeugung
Die oben genannten Gegenmaßnahmen sind bei jedem Netzdesign zu empfehlen. Doch auch das Netzdesign selbst muss als Mittel der Ausfallvorbeugung verstanden werden.
Im Rahmen dieses Artikels kann ich nur auf den folgenden Auszug aus den Leitlinien für ein robustes Netzdesign eingehen:
- Einander Redundanz gebende Systeme sollten nach Möglichkeit unabhängig voneinander sein. Es sollte realisierbar sein, solche Systeme einzeln aus dem Netz zu nehmen oder einem Neustart zu unterziehen, mit möglichst wenig Rückwirkung zwischen den Systemen. Einem solchen Design-Prinzip unterliegt zum Beispiel das weltweite Internet. Im weltweiten Netz können Betreiber von Teilnetzen (Internet Service Provider, Carrier) die Systeme in ihrem Zuständigkeitsbereich außer Betrieb nehmen oder neu starten, ohne dass das ganze Netz instabil wird. Voraussetzung hierfür ist eine verteilte Steuerungsintelligenz (Distributed Control Plane). Eine solche verteilte Intelligenz kann höheren Betriebsaufwand verursachen, weil die betroffenen Komponenten einzeln konfiguriert werden müssen. Daher gibt es immer einen Zielkonflikt zwischen Aufwandsminimierung durch eine netzweit greifende Konfiguration und der Minimierung der Ausfallwahrscheinlichkeit, die auch von Fehlern in einer netzweit greifenden Konfiguration oder Software beeinflusst wird. Zuletzt wurde beim zweifachen Ausfall des Facebook-Netzes am 04. und 09.10.2021 eindrucksvoll deutlich, dass Fehler in einer netzweit greifenden Konfiguration ein ganzes Konzernnetz stundenlang lahmlegen können.
- Auch wenn Zentralisierung und Konsolidierung den Betriebsaufwand reduzieren, ist eine Entflechtung von neuralgischen Punkten in einem Netz als vorbeugende Maßnahme zu erwägen. Durch eine solche Entflechtung kann die Auswirkung von Fehlfunktionen einzelner Komponenten reduziert werden. Ferner kann dadurch erreicht werden, dass die Hemmschwelle für den zwecks Netzstabilisierung gegebenenfalls notwenigen Neustart von Komponenten abgesenkt und ein solcher Neustart erleichtert wird.
- Prozesse für die Berechnung von Redundanzmechanismen und der Wegewahl im Netz sollten auf möglichst verschiedene Komponenten verteilt werden. Hierbei ist der Mehraufwand für Materialeinsatz (Komponenten) und Betrieb in Kauf zu nehmen, um mehr Robustheit des Netzes zu erreichen.
Organisatorische Maßnahmen
Die oben genannten Maßnahmen gehören ausschließlich in die Kategorie technischer Maßnahmen zur Stabilisierung von Netzen. Die Gesamtheit von technischen Maßnahmen kann jedoch eine Optimierung der Organisation des Netzbetriebs nicht obsolet machen, denn trotz aller technischen Maßnahmen können unvermeidbare Vorfälle und Probleme die Verfügbarkeit von Netzen beeinträchtigen. Nicht von ungefähr ist das effiziente Management von Vorfällen (Incidents) und Problemen (Problems) eine unverzichtbare Disziplin des Netzbetriebs, nämlich Incident & Problem Management.
Kommt es zu Störungen und Ausfällen im Netz, werden unter anderem benötigt:
- Ausreichende Befugnisse des Netzbetreibers, um nach Abwägungen schnellstmöglich auch Maßnahmen wie Neustart von kritischen Komponenten durchzuführen
- Transparente Kommunikation der Entscheidungen des Netzbetreibers, damit bei Bedarf nach umfassender Abwägung auch signifikante und gleichzeitig notwendige Eingriffe wie Neustart zentraler Komponenten samt ihrer Risiken und Folgen von allen Beteiligten akzeptiert und mitgetragen werden
- Personalstärke und Personalqualifikation, die der Komplexität der Netzkomponenten (Switches, Router, Load Balancer etc.) sowie der Sicherheitsinstanzen (Firewalls usw.), den bestehenden Verfügbarkeitsanforderungen und den Erfordernissen der Aufrechterhaltung des Netzbetriebs in der vorgegebenen Zeit (zum Beispiel rund um die Uhr) entsprechen
Fazit
Angesichts der Komplexität von Hardware, Software und Konfiguration von Netzkomponenten sind Schwachstellen in diesen drei Bereichen leider nicht zu vermeiden. Entsprechend kommt es zwangsläufig hin und wieder zu Netzausfällen. Mit geeigneten technischen und organisatorischen Maßnahmen können jedoch die Wahrscheinlichkeit solcher Ausfälle sowie deren Auswirkungen reduziert werden.
Näheres dazu erfahren Sie von meinen sehr erfahrenen Kollegen im Seminar Fehlersuche in lokalen Netzen.
Ihr Dr. Behrooz Moayeri
Dein Kommentar
An Diskussion beteiligen?Hinterlassen Sie uns Ihren Kommentar!