Der Netzwerk Insider Oktober 2020
Der Flaschenhals der Cloud
Im heutigen Zeitalter ist vieles vernetzt. Dieser Trend geht unumstößlich weiter. Cloud-Ressourcen nehmen in vielen Bereichen eine immer größere und nicht mehr wegzudenkende Rolle ein. Besonders in der Anfangsphase der Coronavirus-Krankheit-2019 (COVID-19) sind viele Arbeitsplätze fast ausschließlich in die heimischen vier Wände verlagert worden. Dies hat den bereits vorhandenen Ansturm auf Cloud-basierte Dienste beschleunigt.
Ein präsentes Beispiel aus dem privaten und geschäftlichen Umfeld sind Webkonferenzen, bei denen Menschen mit anderen Menschen weiter in Kontakt bleiben. Die Remote-Zugänge waren in vielen Unternehmensnetzen überlastet, und an etlichen Stellen fehlte es an ausreichenden Lizenzen. In Konsequenz profitierten auf den ersten Blick die Unternehmen, die bereits ihre Kommunikation in die Cloud verlagert hatten.
Ausschreibung von IT-Dienstleistungen
Es gibt wohl kaum ein Unternehmen, eine Institution oder Behörde, deren IT-Abteilungen nicht auf die Leistungen eines oder gar mehrerer externer IT-Dienstleister zurückgreifen.
Die Leistungsinhalte können dabei äußerst unterschiedlich sein und z.B. einen Managed-WAN-Service, die Entwicklung einer Spezial-Software, die Betriebsunterstützung oder sogar die volle Verantwortung für den Betrieb der LAN- und Security-Infrastruktur umfassen.
Eines haben sie jedoch gemeinsam – sie sollen (im Idealfall) – nach klar vorgegebenen „Spielregeln“ wirtschaftlich erbracht werden.
Martin Egerter
ComConsultRisiken veralteter IT
In den 00er Jahren verabschiedete sich ein ehemaliger IT-Manager von mir vor seinem Übergang in den Ruhestand. Er teilte mir mit, er würde gerne gelegentlich arbeiten und verwies auf seine COBOL-Kenntnisse. Das Jahr 2000 war schon vorbei, und die Überprüfung alter Software auf zwei oder vierstellige Jahreszahlen war nicht mehr erforderlich. Deshalb teilte ich meinem alten Bekannten mit, dass ich nicht mit Aufträgen rechne, bei dessen Ausführung COBOL-Kenntnisse erforderlich wären. Ich bekam die folgende abschließende Antwort: „OK, ich hätte lieber in COBOL programmiert als zuhause Staub gesaugt. Dann eben Staub saugen.“ Das hat seine Frau bestimmt gefreut. Und da ich beide Eheleute kennengelernt habe, revidiere ich meine damalige Antwort nicht. Aber Anlass dafür gäbe es.
Dr. Behrooz Moayeri
ComConsultZentrale Ereignisprotokollierung – leichter gesagt als getan
Die systematische Protokollierung von Ereignissen ist eine wesentliche Grundlage für die Analyse und Behandlung von (Informationssicherheits-)Vorfällen und ist daher traditionell Bestandteil der Maßnahmenkataloge der Informationssicherheit. Der Standard ISO 27001 fordert hier lapidar in Maßnahme A.12.4.1 zur Ereignisprotokollierung: „Ereignisprotokolle, die Benutzertätigkeiten, Ausnahmen, Störungen und Informationssicherheitsvorfälle aufzeichnen, werden erzeugt, aufbewahrt und regelmäßig überprüft.“
Dr. Simon Hoff
ComConsultRisiken veralteter IT
Fortsetzung
Wenn eine Programmiersprache mit einem chemischen Element verwechselt wird
Millionen US-Amerikaner haben während der Pandemie wochenlang auf staatliche Unterstützung warten müssen, weil alte COBOL-Programme den Behörden Probleme bereiteten. Als Reaktion darauf meinte der Gouverneur des Bundesstaates New Jersey, es müsse geklärt werden, wie zum Kuckuck es zum dringenden Bedarf nach „Cobalt“-Programmierern gekommen sei. COBOL ist mit seinen 61 Jahren schon so alt, dass ein führender Politiker nie davon gehört hat.
Viele Mainframe-Programme sind in der 1959 entwickelten Programmiersprache COBOL geschrieben. Die Entscheider in der IT (damals hieß die IT Elektronische Datenverarbeitung, EDV) haben jahrzehntelang nach der Devise gehandelt, dass niemand gefeuert werde, der bei IBM einkaufe. („Nobody is fired because of buying IBM.“) In den 1990er Jahren habe ich einen unserer Kunden dabei beraten, leistungsfähige Netze aufzubauen. In jener Firma gab es die Technik-Fraktion, die schon Ethernet-Netze betrieb, und die kaufmännische IT mit ihrem Großrechner und Token-Ring-Netzen als Mainframe-Anhängsel. Mir wurde die Anekdote erzählt, der EDV-Leiter sei in den 1960er Jahren im Zuge der Einführung des IBM-Großrechners zu seinem Posten gekommen, nachdem es auf dem Vorgänger-System Probleme mit Gehaltsabrechnungen gegeben hatte und der IBM-Großrechner im Eiltempo eingeführt wurde.
Drei Jahrzehnte danach wollte derselbe altgediente EDV-Leiter die ganze Firma mit Netzkomponenten von IBM ausstatten. Ich habe davon abgeraten, weil es eine bessere Lösung gab. Unter dem Druck der Entwicklungsabteilung wurde meine Empfehlung befolgt. Wenige Jahre danach überließ IBM die eigene „Network Hardware Division“ genau demselben Hersteller, dessen Lösung in dem besagten Unternehmen statt der IBM-Lösung zum Zuge gekommen war. Dort ist über 20 Jahre später der in den 90ern eingeführte Hersteller immer noch der Haus- und Hoflieferant. Was von dieser neuen jahrzehntelanger Treue zu halten ist, ist hier nicht das Thema.
Nicht nur die Programme machen Probleme
Mit IBM-Netzkomponenten verschwanden die Großrechner nicht. Sie wurden besser und schneller, die darauf laufenden Programme blieben. Und es gibt die Großrechner mit den darauf laufenden COBOL-Programmen immer noch. Wehe, wenn man sie ändern und darin Fehler beseitigen muss. COBOL stand schon während meiner Studienzeit in den 1980er Jahren nicht mehr auf dem Lehrprogramm der Unis; stattdessen habe ich die Assemblersprache der /360er IBM-Großrechner gelernt. Das heißt, COBOL-Programmierer sind fast ausnahmslos älter als ich, bestenfalls in ihren 60ern.
Aber tickende Zeitbomben sind nicht nur die COBOL-Programme. Auch die Großrechner-Hardware wird von kaum einem Aktiven mehr beherrscht. Mainframe-Betreiber, die RZ-Georedundanz einführen und die Großrechnerkopplung über Infiniband und DWDM-Multiplexer implementieren müssen, können ein Lied davon singen. In einem aktuellen Projekt wurde die Ursache eines Problems zunächst bei den Multiplexern gesucht. Gelöst wurde das Problem aber mit einem Reset der Netzadapter auf dem Mainframe.
Auch die Frage nach dem tolerierbaren Abstand zwischen zwei Großrechnern desselben Verbunds bleibt in der Regel offen. Oder sie wird lapidar mit dem Satz beantwortet, das hänge von den Applikationen ab. Diese Antwort könnten andere Hersteller auch geben. Das tun sie aber nicht. Von Firmen wie VMware, Oracle und Dell/EMC bekommt man teilweise sehr präzise Angaben.
Kein böser Wille
Ich möchte niemandem bösen Willen unterstellen. Ingenieurstätigkeit lebt von Erfahrung. Wenn die Erfahrenen alle in Rente sind und die meisten Jüngeren eine Programmiersprache mit einem chemischen Element verwechseln, ist nicht viel zu erwarten.
Laut dem IEEE-Magazin Spectrum, Ausgabe September 2020, gaben Unternehmen und Staaten in den letzten 10 Jahren ca. 35.000 Milliarden US-Dollar für IT aus. Davon entfielen drei Viertel, also über 26.000 Milliarden US-Dollar, auf Betrieb und Instandhaltung bestehender Technik. Und von den restlichen 9.000 Milliarden Dollar machten gescheiterte Projekte zum Ersetzen alter Technik 720 Milliarden US-Dollar aus.
Im Grunde folgen die IT-Entscheider der Parole „Never touch a running system“. Das ist aber sehr kurzfristig gedacht. Ein laufendes System kann morgen schon ins Stocken geraten. Wenn es keine Herstellerunterstützung und keine Expertise dafür gibt, kann es dann nicht nur zum Stocken, sondern zum Infarkt kommen.
Gerade sehr zuverlässige Systeme, wie Mainframes nun mal sind, laufen Gefahr, so unauffällig zu werden, dass mit der Zeit niemand mehr da ist, der weiß, wie sie funktionieren. Oder die Wissenden haben es schon vergessen. Das kennt man auch vom privaten Alltag. Der DSL-Router läuft jahrelang vor sich hin, ohne auszufallen. Dann muss man irgendeine Konfiguration ändern. Wie ging das nochmal?
Und was ist mit Security?
Hardware bzw. Software, die nicht aktualisiert wird, birgt bekanntlich Sicherheitsrisiken. Großrechner und die darauf laufenden Betriebssysteme und Programme wurden zu einer Zeit entwickelt, in der es weder das Internet noch die heutigen vielfältigen Verbindungen zwischen Netzen gab. Nun wird über diese Verbindungen auf alte Hardware zugegriffen, auf der alte Software läuft. Man braucht keine hyperaktive Phantasie, um sich vorzustellen, dass alte Hardware und Software auch Sicherheitslücken haben können. In einer vernetzten Welt sind diese Schwachstellen in der Lage, große Risiken hervorzurufen. Die Vorstellung, Hacker konzentrieren sich auf PCs und Windows als leichte Beute, ist gefährlich. Angreifer brauchen keine echten Mainframes, um Security-Löcher in Großrechnern zu finden. Dank leistungsfähiger Hardware kann man heute Mainframe-Betriebssysteme auf PCs ausführen. Es wird sich für Angreifer bestimmt lohnen, sich die auf Hosts genutzten Betriebssysteme, Tools und Programme näher anzuschauen. Auch wenn sie auf den Mainframes selbst nicht fündig werden, können sie andere, angreifbare Systeme, die mit den Mainframes kommunizieren, für Angriffe auf Mainframe-basierende Ressourcen und Daten nutzen. Die Wiederherstellung dieser Ressourcen und Daten kann an fehlender Expertise und Herstellerunterstützung scheitern.
Gefragt ist Mut zur Erneuerung
Auch in der IT sind Mut zur Erneuerung und langfristiges Denken vonnöten. Bei dieser Erneuerung muss man ein paar alte Weisheiten über Bord werfen. Bei den Großen einkaufen geht nicht immer gut. Ich würde eine Technik bevorzugen, die von der breitestmöglichen Gemeinde von Ingenieuren und Informatikern, aber auch vom breitestmöglichen Ökosystem an Systemhäusern und Lieferanten beherrscht wird sowie von weltweit diversifizierten Bezugsquellen erhältlich ist.
Mut ist nicht mit Leichtsinn zu verwechseln. Alte Hardware und Software werden auch deshalb nicht abgelöst, weil sie täglich kritische Abläufe unterstützen. Die Ablösung solcher Hardware und Software bedarf sorgfältiger Planung und Vorbereitung. Wer jedoch damit nicht anfängt, handelt fahrlässig.
Dein Kommentar
An Diskussion beteiligen?Hinterlassen Sie uns Ihren Kommentar!