Die Kombination aus den Vorträgen und den Führungen kam bei den Teilnehmern sehr gut an. Darüber hinaus konnten wir anhand der zahlreichen, von den Teilnehmern gestellten Fragen feststellen, womit sich die IT-Abteilungen zurzeit beschäftigen und welche Probleme sie lösen müssen.
Hier eine Aufzählung der am häufigsten gestellten Fragen:
- Sind die Hersteller mit ihren proprietären Ansätzen für Campusnetze erfolgreich? Diese Frage wurde überwiegend verneinend beatwortet. Die meisten Organisationen setzen offenbar weiterhin auf standardbasierende Netz-Designs.
- Besteht bei Cloud-Computing nicht die Gefahr einer Abhängigkeit von Cloud-Anbietern? Die Skepsis im Forum war spürbar. Viele Organisationen machen sich Sorgen und fragen, ob der Weg zurück aus einer Cloud überhaupt offen ist. Umso wichtiger waren die Einblicke in die Art und Weise, wie Clouds funktionieren. Nur mit diesem Wissen ist eine bewusste Cloud-Exit-Strategie auszuarbeiten.
- Auch die Frage nach den Cloud-Kosten wurde gestellt. Die Antwort: Wenn die Nutzung der Cloud sicher und zuverlässig funktionieren soll, sind mit Cloud Computing kaum Kosteneinsparungen zu erreichen. Denn es gilt das Prinzip der Verantwortlichkeit: Auch wenn der Cloud-Betreiber viele Zuständigkeiten übernehmen kann, bleibt eine Organisation verantwortlich, vor allem für die Sicherheit. Letztere kostet Geld.
- Ein Beispiel dafür, warum Sicherheit Geld kostet, ist die dringend erforderliche operative IT-Sicherheit. Die Darstellung einer mittelgroßen Umgebung mit einer mittleren sechsstelligen Investition in ein Security Information and Event Management (SIEM) plus Betriebsaufwand war für die Teilnehmer eine wichtige Orientierung.
- Wie weit sind die Digitalisierung und „Smart Everything“? Wie die Führungen zeigten, ist die Entwicklung sehr weit fortgeschritten. Die größte Achillesferse der Digitalisierung ist die Sicherheit. Damit es nicht zu „Smart Unsecure Everything“ kommt, muss man mehr machen als den letzten und schicksten Trends nachzulaufen.
- Auf die Frage, wie man die großen Datenmengen bewältigen und zugleich hohe Leistung beim Datenzugriff sicherstellen kann, gibt es eine Antwort: Von HPC (High-Performance Computing) lernen („HPCisierung“). Das bedeutet vor allem die Nutzung von Standardhardware und Scale-out statt Scale-up, d.h. verteiltes Computing und verteilter Storage statt monolithischer Systeme.
- Der bestbewertete Vortrag war der Wireless-Überblick von Dr. Wetzlar. Daran wurde deutlich, dass die Wireless-Welt keine Verdrängung von 5G oder WLAN erleben wird. Vielmehr wird es ein Nebeneinander der beiden Technologien und auch andere Wireless-Verfahren geben.