DER NETZWERK INSIDER – Ausgabe Januar 2024
Zukunftssichere WLAN-Zellplanung für Wi-Fi 6 und Wi-Fi 6E – Teil 2
von Felix Gilleßen und Michael Schneiders
Die Einführung von Wi-Fi 6 (802.11ax) und 6E liegt bereits einige Zeit zurück. Mittlerweile sind längst entsprechende Access Points und Endgeräte verfügbar und finden mehr und mehr Verbreitung. Nahezu jedes neu erworbene WLAN-fähige Endgerät, ob privat oder im Enterprise-Umfeld, unterstützt mindestens Wi-Fi 6, immer mehr Geräte auch 6E. Dennoch gibt es eine sehr große Basis an Endgeräten, die Wi-Fi 6 noch nicht unterstützen. Doch was bedeutet das für die WLAN-Infrastruktur im Unternehmen? Sind mit neuem Standard und neuem Frequenzband auch Anpassungen der bestehenden WLAN-Zellplanung erforderlich? Wie unterscheidet sich das Vorgehen von der bisherigen Planung? Und wie können Planungen neuer Gebäude aussehen? Diese und weitere Fragen wollen wir im vorliegenden Artikel klären, damit auch Sie den neuen Standard effektiv nutzen können. In Teil 1 dieses Artikels gehen wir auf die Besonderheiten hinsichtlich Wi-Fi 6 und speziell Wi-Fi 6E, also WLAN gemäß IEEE 802.11ax im 6-GHz-Band, ein. Im zweiten Teil des Artikels beschreiben wir die generelle Vorgehensweise bei der Planung von WLANs.
Sanierung alter Elektroanlagen
von Peter Steufmehl
Der Sanierung alter Elektroanlagen kommt in der modernen Elektrotechnik eine große Bedeutung zu. Viele Bestandsgebäude, sowohl im privaten und öffentlichen als auch im gewerblichen Bereich, verfügen über teilweise schon seit Langem veraltete Elektroinstallationen, die den heutigen Anforderungen an Sicherheit, Effizienz und Umweltverträglichkeit nicht mehr gerecht werden.
In diesem Artikel werden wir uns mit den Vor- und Nachteilen der Sanierung von alten Elektroanlagen befassen, sehen uns die rechtlichen Aspekte an, die dabei zu beachten sind, und betrachten aktuelle Normen, die hier berücksichtigt werden müssen.
Wohin mit den vielen Daten?
von Dr. Behrooz Moayeri
In 2023 habe ich in einem Krankenhaus-IT-Projekt mitbekommen, dass die bildgebenden Verfahren in der Medizin das Volumen der Bilddaten wöchentlich um 0,4 % vergrößern. Das entspricht einem jährlichen Wachstum von 23 %. Alle 40 Monate verdoppelt sich somit die Datenmenge.
Backup in der Welt von Ransomware
von Dr. Markus Ermes
Aktuell hört oder liest man immer wieder von Ransomware-Angriffen, die Unternehmen, Behörden oder Dienstleister für Wochen einschränken. In manchen Fällen, insbesondere bei Dienstleistern, kann ein solcher Angriff natürlich auch Auswirkungen auf deren Kunden haben – so zum Beispiel geschehen bei der Südwestfalen IT, wo viele Gemeinden betroffen waren. Dies ist jedoch beileibe kein Einzelfall und passiert immer wieder. Was macht die Angriffe so zerstörerisch? Es soll hier nicht das x-te Mal im Detail auf das Vorgehen eines Ransomware-Angriffs eingegangen werden. Ein Angreifer dringt ein, kopiert oder verschlüsselt Daten und erpresst das Opfer. So weit, so bekannt. Warum sind die Angriffe in vielen Fällen so katastrophal? Und was kann man tun?
Mobilfunkmessung bei einem Weltkonzern
mit Frederik Stückemann sprach Christiane Zweipfennig
Für Unternehmen ist eine einwandfreie und zuverlässige Mobilfunkverbindung im gesamten Gebäude von essenzieller Bedeutung. Ursachen für mangelnde Mobilfunkversorgung können eine zu große Distanz zum Mast des Mobilfunknetzbetreibers sein oder Bausubstanzen wie Metall und Stahl, die die Durchdringung der Funkwellen erheblich erschweren bis unmöglich machen. Doch was ist zu tun, wenn die Firmen-Endgeräte keinen Empfang haben?
Wohin mit den vielen Daten?
In 2023 habe ich in einem Krankenhaus-IT-Projekt mitbekommen, dass die bildgebenden Verfahren in der Medizin das Volumen der Bilddaten wöchentlich um 0,4 % vergrößern. Das entspricht einem jährlichen Wachstum von 23 %. Alle 40 Monate verdoppelt sich somit die Datenmenge.
Hätten wir es immer mit horizontal beliebig skalierbaren Speichersystemen zu tun, wären die durch das Datenwachstum verursachten Kosten einigermaßen berechenbar. Wir kennen den Preis verschiedener Datenträger. Wir wissen ferner die Wachstumsrate pro Jahr. Anhand eines Vergleichs über mehrere Jahre ist auch die Berechnung der Preisentwicklung pro Datenmenge möglich, auch wenn sie sich inflationsbedingt in den letzten zwei Jahren im Vergleich zur Situation vor zehn Jahren ganz anders zeigt.
Das Problem sind jedoch erstens die Sprungkosten. Wir haben in vielen Umgebungen für Speicher kein Scale-out-Konzept, d.h. keine Möglichkeit der unbegrenzten horizontalen Skalierung. Oft sind Speichersysteme im Einsatz, die nach Erreichen eines bestimmten Volumens nicht mehr ausgebaut werden können. Hersteller kündigen außerdem ihre Produkte irgendwann ab, sodass ein Systemwechsel zwingend erforderlich ist.
Zweitens speichern wir die Daten nicht nur, sondern wir bewegen sie auch, zum Beispiel im Rahmen der Datensicherung. Wegen der zunehmenden Risiken sind mehrere Backup-Stufen erforderlich, zum Beispiel vom Primärspeicher zum Disk-Backup und von Disk zu Tape. Größere Datenmengen bedeuten somit auch höhere Anforderungen an die I/O-Kapazität der Laufwerke und die Übertragungsleistung der Netze. Hier drohen zwei Missstände: Die Datensicherung kann in der vorgesehenen Zeit nicht durchgeführt werden, oder die Wiederherstellung dauert so lange, dass im Falle des Falles eine Organisation stunden- oder gar tagelang auf den Restore-Vorgang warten muss.
Bisher reagieren viele Organisationen auf diese Herausforderungen mit einer reinen Aufrüstungsstrategie. Sie erhöhen die Kapazität von Storage in immer kürzeren Abständen. Sie ersetzen Speichersysteme nach einer immer kürzer werdenden Nutzungszeit durch die nächste, schnellere Generation. Dieser Ansatz dreht immer schneller an der Kostenspirale. Daher gilt es, durch Optimierungsmaßnahmen die Lebenszeit von Speichersystemen zu verlängern.
Vergleich von Disk mit Tape
In der IEEE-Spectrum-Ausgabe vom Dezember 2023 ist ein Beitrag erschienen, der den Kohlendioxid-Ausstoß des Speichermediums Band mit ca. 3 % im Vergleich zu Disks angibt. Der Spectrum-Beitrag zitiert einen Report des Berkeley National Laboratory, der für 2014 den Energieverbrauch für Datenhaltung mit 1,8 % des gesamten Stromverbrauchs der USA angibt. Man kann davon ausgehen, dass dieser Wert in den letzten zehn Jahren signifikant gestiegen ist.
Laut einem Mitte 2023 veröffentlichten Beitrag im Motion Imaging Journal haben Festplatten eine mittlere Lebensdauer von 5 Jahren. Pro Jahr verursachen sie einen CO2-Ausstoß von 2,55 Kilogramm pro TB und Jahr. Im Vergleich dazu: 1 TB auf Tape verursacht nur 0,07 kg CO2-Ausstoß im Jahr. Ein Band hat gemäß einer Schätzung im selben Artikel eine mittlere Lebensdauer von 30 Jahren.
Auch der Preis bei Tape liegt weit unter dem Preis des Mediums Disk. Aktuelle Preise von Solid-State-Devices (SSDs) pro Terabyte liegen fast um den Faktor 100 höher als die entsprechenden Band-Preise.
Der Artikel in Spectrum zitiert eine Schätzung des International Data Corporation (IDC), dass die gesamte Datenmenge der Welt von 33 Zettabytes (ZB) in 2018 auf 175 ZB in 2025 steigen wird. Ein Zettabyte entspricht einer Milliarde Terabytes (TB). 1 Terabyte wiederum entspricht einer Milliarde Kilobytes (KB). Laptops mit TB-Kapazität und mehr werden heute verkauft. Eine Steigerung von 33 ZB auf 175 ZB binnen 7 Jahren entspricht einer jährlichen Steigerung von 26,9 %, interessanterweise relativ nah bei den 23%, die ich in meinem eingangs erwähnten Krankenhausprojekt in 2023 ermittelt habe.
IEEE Spectrum bezieht sich außerdem auf eine gemeinsame Schätzung der IDC und des Storage-Herstellers Seagate aus dem Jahr 2021, dass 62 % der Daten auf Festplatten, 9 % auf SSD und 15 % auf Tape gespeichert sind.
Auch wenn der Autor des Artikels im Motion Imaging Journal, Brad Johns, ein ehemaliger Mitarbeiter der IBM-Sparte ist, die zu den führenden Anbietern von Bandbibliotheken (Tape Libraries) zählt, sind seine Argumente nicht ganz von der Hand zu weisen. Es ist unstrittig, dass Daten auf Band kaum Energie verbrauchen, während die Rotation der Spindel einer Festplatte mit einem Stromverbrauch verbunden ist. Selbst ein sparsamerer SSD-Datenträger verbraucht pro Datenmenge mehr Energie als Tape.
Hot- versus Cold-Daten
Laut einem IDC-White-Paper aus dem Jahr 2019 besteht der gesamte Datenbestand hauptsächlich aus sogenannten Cold-Daten, d.h. solchen, auf die selten zugegriffen wird, die jedoch einen gewissen Wert haben und nicht gelöscht werden dürfen. IDC schätzt, dass 60 % der Daten „cold“ sind und trotzdem auf Festplatten belassen werden.
Ein Trend der letzten Jahre hat diesen Anteil sicher erhöht, nämlich die Ablösung von Backup to Tape (B2T) durch Backup to Disk (B2D). Aus verschiedenen Gründen haben einige Organisationen in den letzten Jahren die Datensicherung auf Band vollständig abgeschafft. Zu diesen Gründen gehören die folgenden:
- Bandbibliotheken sind teuer.
- Ist die interne Bandlagerungskapazität einer Bandbibliothek erreicht oder will man Bänder regelmäßig im Rahmen der Katastrophenvorsorge auslagern, d.h. zu einem anderen Standort transportieren und dort lagern, muss Personal vor Ort tätig werden.
- Die Wiederherstellung einzelner Objekte, zum Beispiel Dateien, dauert vom Band wesentlich länger als von Disk. Im Vergleich zu diesem Restore-Szenario kommt es zum Glück viel seltener dazu, dass man ganze Systeme wiederherstellen muss, weil sie oder ganze Standorte ausgefallen sind.
So führte in den letzten Jahren eine gewisse Bequemlichkeit zur teilweisen Ablösung von Tape durch Backup-Disks. Wenn man ohnehin viel schneller Daten von Disks wiederherstellen kann als von Tape, neigt man dazu, die Daseinsberechtigung von Tapes und Bandlaufwerken infrage zu stellen.
Ransomware verändert vieles
Während viele Backup-Verantwortliche emsig dabei waren, ihre Bandbibliotheken in die Rente zu schicken und den Tape-Bestand auf Null zu reduzieren, breitete sich Ransomware schnell aus. Mittlerweile vergeht kaum ein Tag, ohne dass man von einer erfolgreichen Ransomware-Attacke hört. Sicher hat die Verbreitung von Kryptowährungen dazu beigetragen. Die Spuren von Bitcoins und Co. kann man verwischen – das ist ja gerade der Grund, weshalb sie entwickelt wurden. Kryptowährungen sind die Lieblinge von Kriminellen geworden. Der Einbruch in die IT-Systeme entwickelte sich vom Hobby zum Geschäftsmodell. Der Angreifer kann mit Ransomware ganze Datenbestände verschlüsseln und Lösegeld in Kryptowährungen verlangen. In den letzten Jahren wurden viele Organisationen Opfer von Ransomware-Angriffen, von kommunalen Verwaltungen bis Krankenhäuser.
Ransomware entwickelte sich immer mehr zum Albtraum der IT-Verantwortlichen. Zitat aus einigen Gesprächen, die sie mit mir geführt haben: „Die Einschläge kommen näher“. Natürlich will man es am besten gar nicht dazu kommen lassen, daher die ganzen Anstrengungen gegen Phishing, das Haupteinfallstor von Ransomware, sei es durch mehr technische Maßnahmen zur Absicherung des Zugriffs auf das Internet, sei es mittels Sensibilisierung der Menschen.
Doch was passiert, wenn was passiert? Ohne einen Plan B finden viele IT-Verantwortliche keinen ruhigen Schlaf. Der Plan B ist die Datensicherung. Man will mit einem funktionierenden Backup die Daten auf einen Stand zurückstellen können, bei dem man von deren Integrität ausgehen kann. Es gibt Datensicherungsmaßnahmen, mit denen man erreichen kann, dass Ransomware, selbst wenn sie schon da ist und „Hot-Daten“ im Zugriff hat, technisch gar nicht imstande ist, die Integrität der Backup-Daten direkt zu gefährden. Das A und O dabei ist, dass der Zugriff auf Backup-Daten mit den Berechtigungen der von Ransomware befallenen Systeme, d.h. in der Regel Desktops bzw. virtuelle Desktops, gar nicht möglich ist.
Nun hat man jedoch immer mehr Möglichkeiten geschaffen, dass User selbst Daten wiederherstellen können, falls sie sie zum Beispiel aus Versehen gelöscht haben. Dies geschieht einerseits zur Entlastung der Backup-Administratoren – der Fachkräftemangel lässt grüßen – und andererseits mit dem Ziel einer besseren Service-Qualität für die Benutzer, die ihre Daten selbst „zurückholen“ können, wenn sie sie versehentlich gelöscht oder anderweitig verloren haben.
Im Prinzip muss man davon ausgehen, dass Ransomware alles kann, was der User auch kann. Wenn Ransomware zugeschlagen hat, fällt sie irgendwann bestimmt auf, spätestens wenn die Daten verschlüsselt sind und die Lösegeldforderung die Organisation erreicht. Ärgerlich, doch heilbar, mag man denken: Die Backups sind ja auch für einen solchen Fall da.
Die schlechte Nachricht: Backups werden nicht ewig aufbewahrt. Wenn zwischen dem Eindringen des Angreifers und der Feststellung des Eindringens durch das Opfer genug Zeit vergeht, können auch Backups verschlüsselt worden sein. Ein intelligenter Angreifer kann die Daten zum Beispiel zunächst unauffällig jede Nacht vor dem Backup verschlüsseln und nach dem Backup wieder entschlüsseln. So werden Nacht für Nacht unbrauchbare Backups mit verschlüsselten Daten generiert. Die ahnungslosen Opfer arbeiten tagsüber mit den noch nicht verschlüsselten Daten weiter, bis die Aufbewahrungszeit von Backups verstrichen ist und somit alle Backup-Stände verschlüsselt sind. Dann kommt es zum letzten und entscheidenden Schlag, der Verschlüsselung der Hot-Daten. Die Backups sind mittlerweile ausnahmslos unbrauchbar.
Weil die Speicherkapazität von Disks viel kleiner ist als die Bandkapazität, ging die Bandablösung häufig mit der Verkürzung der Aufbewahrungszeiten einher. Das ist einer der Gründe, weshalb Ransomware teilweise auch Backups befallen konnte.
Renaissance von Tape
Backup auf Tape hat neben der konkurrenzlosen Speicherkapazität und der unschlagbaren Energiebilanz den Vorteil, dass das Medium Band technisch offline gestellt und somit dem Zugriff durch Ransomware entzogen werden kann. Auch wenn es Backup-to-Disk-Verfahren gibt, die das Offline-Medium emulieren, führt die Furcht vor Ransomware zur Renaissance von Tape. Bei Tape weiß jeder, dass man durch die Entnahme des Bands aus dem Laufwerk einen sogenannten Air Gap bewerkstelligt und die Daten jeglichem Online-Zugriff und somit auch dem Zugriff durch Ransomware entzieht. Selbst ein in der Tape Library vorgehaltenes Band ist vor Online-Zugriffen sicherer als eine Nearline-Festplatte mit Cold-Daten.
Die zwischenzeitliche Hoffnung, man komme mit Objektspeichern auch ohne Band aus, erweist sich mit Blick auf die Preise von Object Storage immer wieder als Trugschluss. Selbstverständlich spielen Objektspeicher eine immer größere Rolle, zumal sie Formate unterstützen, die auch in externen Clouds genutzt werden. Der Simple Storage Service (S3) ist aufgrund des niedrigen Preises bei Nutzern von Amazon Web Services (AWS) beliebt und hat sich auch über AWS hinaus als der De-facto-Standard für die Haltung von großen Mengen von Daten etabliert, auf die nicht mit höchster Geschwindigkeit zugegriffen werden muss. Der Preisvorteil von S3 hat diese Technologie ebenso bei Administratoren beliebt gemacht, die Backup to the Cloud nutzen, sei es von außerhalb der Cloud oder für Daten, die primär in der Cloud verarbeitet werden.
Die OnPrem-Variante von Objektspeicher ist jedoch im Vergleich zu Tape nicht preiswert. Es kann sein, dass sich das ändert, zum Beispiel, wenn Hersteller wie IBM Produkte auf den Markt bringen, die nach außen die S3-Schnittstelle unterstützen und intern Bänder als Datenträger nutzen (S3 on Tape).
Es gibt nicht den einen Befreiungsschlag gegen das Ransomware-Risiko
Bevor der Eindruck entsteht, mit der Rückkehr zum Band als Backup-Medium gelinge DER Befreiungsschlag gegen Ransomware, hier der Warnhinweis: Einen solchen Befreiungsschlag mit einem einfachen Zurück zum Band gibt es nicht. Was ist, wenn der Angriff so lange unerkannt bleibt, bis auch die Aufbewahrungszeit von Backups auf Band verstrichen sind? Wenn man nichts anderes tut als das tägliche Kopieren der Primärdaten zum Backup, kann es dazu kommen, dass man genauso ahnungslos wie die Phishing-Opfer, die das Tor zum Angreifer unbewusst öffnen, jeden Tag brav Tapes mit verschlüsselten und damit unbrauchbaren Daten in einen Tresor stellt, bis der Safe keine brauchbaren Bänder mehr enthält.
Flankierend zum Offline-Backup – egal ob auf Disk oder Tape – braucht man daher weitere Maßnahmen, zum Beispiel die folgenden:
- Regelmäßige Restore-Tests vom Offline-Medium sollten so häufig durchgeführt werden, dass es nicht zur unbemerkten Fortpflanzung der boshaften Verschlüsselung von Datenstand zu Datenstand kommt. Man kann zum Beispiel den Restore der Backup-Daten in eine Testumgebung hinein durchführen und die Daten prüfen.
- Lösungsanbieter für Backup wie auch Storage-Hersteller bieten Funktionen wie die Messung der Entropie von Daten. Verschlüsselte Daten weisen nämlich eine erkennbar höhere Entropie (Zufälligkeit) der Daten auf als unverschlüsselte Daten.
- Es gibt Software, die verdächtige Zugriffe auf Daten erkennt.
Information Lifecycle Management
Zurück zum Titel dieses Beitrags: Wohin mit den vielen Daten? Ich habe oben erwähnt, dass die reine Aufrüstungsstrategie, also die Einführung immer größerer und immer schnellerer Speicher in immer kürzeren Abständen, nicht wirtschaftlich ist. Ferner habe ich andere Publikationen zitiert, die von einem hohen Anteil von Cold-Daten ausgehen. Wir erleben eine Phase, in der die Gleichbehandlung von Hot- und Cold-Daten immer unwirtschaftlicher wird.
Hier kommt mit ILM ein Stichwort ins Spiel, das regelmäßig in Vergessenheit gerät, um nach einigen Jahren wieder die Runden zu machen. ILM ist die Abkürzung von Information Lifecycle Management. Nach einer 20 Jahre alten Definition der SNIA, der Storage Networking Industry Association, besteht ILM aus Richtlinien, Prozessen, Praktiken und Werkzeugen, mit denen der Einklang zwischen dem geschäftlichen Wert von Information einerseits und einer möglichst verhältnismäßigen und kostenoptimierten IT-Infrastruktur andererseits geschaffen wird, von der Zeit der Entstehung bis zur endgültigen Löschung von Information.
Ein Werkzeug im Rahmen von ILM kann Storage Tiering sein, d.h. die Einteilung von Storage in verschiedene Stufen mit unterschiedlichen Zugriffsgeschwindigkeiten, Kapazitäten und Kosten pro Kapazitätsmenge. Speichersysteme nutzen zum Beispiel SSD-Cache zur Aufbewahrung der am häufigsten abgerufenen Daten und preiswertere Festplatten zur Speicherung von Daten, auf die nicht häufig zugegriffen wird.
Storage Tiering unter automatisierter Kontrolle eines Storage-Controllers ist jedoch nur innerhalb eines Speichersystems wirksam. ILM ist ein breiterer Ansatz. Bei ILM geht es auch um systemübergreifende Prozesse. Nehmen Sie das Beispiel der Medizin, mit der ich diesen Artikel begonnen habe. Eine medizinisch genutzte IT-Lösung kann alle Bilddaten wie Röntgen- sowie CT- und MRI-Aufnahmen gleich behandeln und als Hot-Daten im Zugriff halten, oder alternativ nach einer bestimmten Zeit die Bilder archivieren, d.h. zu preiswerteren Medien verlagern.
Während im medizinischen Bereich Archivsysteme hohe Anforderungen an die Unveränderbarkeit von Daten und die Zertifizierung der dafür angewandten Lösung erfüllen müssen, sind in anderen Bereichen einfachere und damit preiswertere Archivierungsverfahren denkbar. Bei ComConsult sorgt seit Jahrzehnten ein regelmäßig angewandter Prozess dafür, dass die Daten abgeschlossener Projekte nach einer gewissen Zeit auf Datenträger verlagert werden, die dem schreibenden Zugriff, außer dem Zugriff durch Administratoren, entzogen sind. Die Archivdaten müssen nicht so häufig wie die Hot-Daten gesichert werden.
Fazit
Das Datenwachstum, die zunehmende Abhängigkeit von Geschäftsabläufen von der Integrität und Verfügbarkeit von Daten und die steigenden Fälle der Angriffe auf die Datenintegrität sind Anlass, die Richtlinien und Verfahren für Datenhaltung zu überdenken. Einerseits steigt wieder die Nachfrage nach Bändern als bewährte Medien, die sich als Langzeitspeicher mit großer Kapazität, niedrigem Energieverbrauch und der Möglichkeit des Medienbruchs, d.h. der Verhinderung von Online-Zugriffen, bewährt haben. Andererseits wird es immer wichtiger, die Lebenszeit von Speichersystemen durch Optimierungsmaßnahmen zu verlängern, allen voran durch mehr Differenzierung von Hot-Daten, die im schnellen Zugriff sein müssen, und Cold-Daten, die aufzubewahren sind, jedoch nicht unbedingt auf den schnellsten Medien, weil auf die Cold-Daten nur selten zugegriffen wird.