Expert Views

Published on Oct 12, 2016

Das Rechenzentrum: Die logistische Drehscheibe der Digitalisierung

Digitalisierung. Es ist schon erstaunlich, wie es ein einzelner Terminus geschafft hat, in so kurzer Zeit zu einem Albtraum für Unternehmenslenker und IT-Entscheider weltweit aufzusteigen und zu einer Chance für Startups und neue Märkte zu werden. Was bereits seit vielen Jahren ununterbrochen fortschreitet und mit Kodak oder Blockbuster schon vor Jahren erste Opfer hervorgebracht hat, zeigt seit geraumer Zeit auch deutliche Auswirkungen in anderen Industrien und auf Unternehmen jeglicher Größe.

Die Geschäftsführung steht unter Druck

Die Digitalisierung setzt die Führungsetagen heutzutage insofern unter Druck, dass sie einerseits ihre bestehenden Geschäftsmodelle hinterfragen und sich neu erfinden müssen, um mit einem digitalisierten Unternehmen dem Wettbewerb gegenüberzutreten. Andererseits haben sie die Aufgabe ihre persönliche Digitale Agenda zu entwickeln, mit der sie es schaffen müssen, sich mit ihren Kunden, Partnern und Lieferanten im großen Maße zu vernetzen und hierfür alle erforderlichen Prozesse neu zu definieren und diese als essentiellen Bestandteil des digitalen Unternehmens zu begreifen.

Um diese Anstrengungen zu bewältigen, haben sich im Laufe der Jahre neue Technologien und Konzepte entwickelt, von denen bereits viele Unternehmen profitieren. Hierzu zählen insbesondere:

  • Internetworking: Die Verbindung weltweiter Computernetzwerke zu einem riesigen und stetig wachsenden vollvermaschten Netzwerk, dem Internet. Insbesondere junge Unternehmen und Startups nutzen dies zu ihrem Vorteil, um neue Geschäftsmodelle zu entwickeln und neue Zielgruppen zu erreichen.
  • Cloud Computing: Der Bezug von IT-Ressourcen wie Infrastrukturen, Plattformen und Services über eine Datenverbindung (bevorzugt das Internet) nach Bedarf in einem „as-a-Service“-Modell.
  • Mobile Computing: Die Art und Weise, anhand einer mobilen Datenverbindung ortsunabhängig und zu jeder Zeit auf Webseiten, Systeme, Applikationen und Daten zuzugreifen.
  • Big Data Analytics: Das Sammeln, Speichern, Abfragen, Auswerten und Visualisieren großer, strukturierter und unstrukturierter Datenmengen, die sich über mehrere Systeme, Applikationen und Services verteilt befinden können.

Diese technologischen Entwicklungen auf infrastruktureller Ebene bilden einen wesentlichen Teil der Grundlage der heutigen Digitalisierung von Unternehmen aller Branchen sowie des öffentlichen Sektors. Nur auf Basis von Cloud-Infrastrukturen und einer Digital Infrastructure Platform lassen sich Lösungen entwickeln, die dabei helfen, unsere Umwelt intelligenter zu machen und damit unser Leben zu vereinfachen. Hierzu gehören im Rahmen des „Internet of Things“ etwa „Smart Cities“, in denen eine Stadt vollständig mit Sensoren ausgestattet ist, über die sämtliche Daten erfasst und in einer Cloud gespeichert werden. Auf Basis der ausgewerteten Daten wird das Stadtleben effizienter gestaltet. Beispiel: „Smart Parking“, bei dem ein Autofahrer daraufhin gewiesen wird, wo ein nächster freier Parkplatz zu finden ist.

Aber auch für Unternehmen ist es entscheidend von der Digitalisierung heute Gebrauch zu machen und den Kunden beharrlich in den Mittelpunkt ihres Interesses zu stellen. Digitalisierung bedeutet heute den Vernetzungsgrad mit Kunden, Partnern und Lieferanten zu maximieren und anhand Smarter Produkte, Machine Learning Technologien und Künstlicher Intelligenz alle Gruppen besser verstehen zu lernen, um auf dieser Basis zu erkennen, welche Bedürfnisse existieren, um darauf proaktiv reagieren zu können. Hierzu gehört es mit „Data Driven Apps“ soviel qualitative Daten wie möglich zu erheben und diese am Ort des Geschehens (Digital Touchpoint) für den Kunden, Partner und Lieferanten gewinnbringend einzusetzen und damit die Digital User Experience zu erhöhen.

Das Rechenzentrum steht im Mittelpunkt der Digitalisierung

Im Hinblick auf die stetig wachsende Bedeutung der Digitalisierung und dem Megatrend „Internet of Things“ werden wir in den kommenden Jahren ein explosionsartiges Wachstum des Datenverkehrs in den weltweit verteilten Rechenzentren sehen. Dies aus einem einfachen Grund. Rechenzentren sind die logistischen Drehscheiben unserer Zeit. Denn sie sind es, in welchen die riesigen Datenmengen in Echtzeit gelenkt und gespeichert werden. Rechenzentren erleben durch die heutige Digitalisierung ihre Blütezeit und sind wichtiger als jemals zuvor.

data-growths

Cisco prognostiziert für Ende 2019 weltweit ein jährliches IP-Datenaufkommen von 10,4 Zettabyte (ZB) bzw. 863 Exabyte (EB) pro Monat. Im Vergleich dazu betrug das jährliche IP-Datenaufkommen im Jahr 2014 noch 3,4 Zettabyte bzw. 287 Exabyte pro Monat.

Heruntergebrochen auf den weltweiten Datenverkehr, welcher durch die Cloud erzeugt wird, geht Cisco davon aus, dass das jährliche IP-Datenaufkommen zu Ende 2019 etwa 8,6 Zettabyte bzw. 719 Exabyte pro Monat betragen wird. Im Jahr 2014 lag das jährliche IP-Datenaufkommen noch bei 2,1 Zettabyte bzw. 176 Exabyte pro Monat. Der globale Cloud IP-Traffic wird 2019 demnach vier Fünftel (83 Prozent) des weltweiten Rechenzentrumsverkehrs ausmachen. Crisp Researchs Prognosen deuten an dieser Stelle in die gleiche Richtung.

Ein Blick auf das Datenaufkommen, das im direkten Zusammenhang mit dem Internet of Things entsteht, zeigt dessen wichtige Bedeutung für Unternehmen und Organisationen weltweit. Laut Cisco wird die Menge an Daten, die nur durch das Internet of Things entsteht, bis 2019 etwa 507,5 Zettabyte pro Jahr bzw. 42,3 Zettabyte pro Monat ausmachen. Im Jahr 2014 betrug dieser Anteil noch 134,5 Zettabyte jährlich bzw. 11,2 Zettabyte pro Monat. In 2019 werden die weltweiten Datenmengen, die nur durch das Internet of Things (IoT) entstehen damit 269-mal größer sein als die Daten, die lediglich nur von Endnutzer-Geräten in die Rechenzentren übertragen werden. Diese IoT-Daten werden zudem 49-mal größer sein als der gesamte weltweite Rechenzentrumsverkehr in 2019.

Technologien für die IT-Infrastruktur-Agenda 2020

Angesichts dieser drastischen Entwicklung sind neue Technologien und Konzepte notwendig, um zum einen den Anstieg der Datenmengen zu beherrschen und zum anderen die Nutzer, deren Endgeräte und alle weiteren Objekte im Internet of Things schnell, sicher und zuverlässig zu erreichen und einen stabilen Verkehr der Daten und deren Verarbeitung sicherzustellen. Hierzu sollten die folgenden Konzepte berücksichtigt werden.

  • Interconnectivity: Für das Internet of Things sind neue Konzepte und Architekturen erforderlich, um den dafür benötigten nahezu unendlichen Vernetzungsgrad (Interconnection) zu erhalten. Zudem werden Lösungen benötigt, um Systeme, Services und Applikationen, im besten Fall über mehrere Anbieter hinweg, mit einer eigenen IT-Infrastruktur zu verbinden und integrieren.
  • Cloud Computing: Cloud Computing bezeichnet den Bezug von standardisierten IT-Ressourcen wie Infrastrukturen, Plattformen und Software in einem „as-a-Service“-Modell über eine Datenverbindung, bevorzugt über das Internet. Allerdings steht die Cloud auf Grund ihrer Integration von zahlreichen Infrastrukturen und Plattformen auch für die maximal flexible Vernetzung vieler unterschiedlicher Bereiche unserer Welt, die heutzutage so nicht vorstellbar wären.
  • Edge Computing (Fog Computing): In Zukunft wird es immer wichtiger, dass Daten und Informationen schneller an den Endnutzer ausgeliefert werden. Das ist im Kern die Aufgabe des „Fog Computing“. Der Fog sorgt dafür, dass Cloud Services, Rechenleistung, Speicherplatz, Workloads, Anwendungen und große Datenmengen an jegliche Ecken (Edge) eines Netzwerkes (Internet) auf einer echten verteilten Art und Weise bereitgestellt werden.
  • Ende-zu-Ende Sicherheit: Systeme, Plattformen, Services und Applikationen werden heute nicht mehr nur innerhalb der eigenen IT-Infrastruktur betrieben. Folglich muss der Schutz dieser Ressourcen ganzheitlich über alle verwendeten IT-Umgebungen hinweg erfolgen und dabei sowohl physikalische, virtuelle als auch Cloud-basierte Architekturen berücksichtigen. Das schließt sowohl alle selbst betriebenen Systeme als auch diejenigen ein, die auf Infrastrukturen von Public Cloud-Anbietern ausgelagert sind. Schlussendlich dürfen Hybrid- und Multi-Infrastruktur-Szenarien unter keinen Umständen vernachlässigt werden. Die Sicherheitskonzepte dürfen nicht an den Grenzen einer Infrastruktur oder Architektur enden, sondern müssen vom IT-Backend bis zum Endgerät eines IT-Nutzers reichen.
  • Software-defined Infrastructure (SDI): Für die Flexibilisierung auf Infrastruktur-Ebene setzen sich immer häufiger Software-defined Infrastructure (SDI) Umgebungen durch. Hierbei handelt es sich um ein Konzept, bei dem die gesamte technische Infrastruktur-Umgebung auf Basis von Software und Automation und mit geringer menschlicher Interaktion gesteuert wird. Moderne Infrastrukturen werden bereits aufgebaut und konfiguriert, indem sie mit Programmcode oder Skripten programmiert werden. Die Infrastruktur arbeitet dabei unabhängig von einer bestimmten Hardwarekonfiguration, besitzt keine technischen Abhängigkeiten und ist programmatisch erweiterbar. Die Idee hinter dem Konzept besteht darin, die Infrastruktur je nach den Anforderungen einer Applikation zu definieren, automatisch herzuleiten und aufzubauen.
  • Infrastructure as Code und Microservices: Infrastructure as Code ist der wichtige Evolutionsschritt auf dem Weg zu einer Digital Infrastructure Platform. Es handelt sich dabei um die essentielle Grundlage, um Cloud-Infrastrukturdienste, die mittels APIs auf Cloud-Plattformen zur Verfügung gestellt werden, anhand von Befehlen über die Kommandozeile programmatisch zu konfigurieren. Für Administratoren heißt es daher skripten statt schrauben. Denn nur so lassen sich auf Basis von Microservices-Architekturen die Automatisierung der Bestell-, Konfigurations-, Deployment- und Administrationsprozesse einer Public Cloud-Infrastruktur umsetzen.
  • Hoher Automatisierungsgrad: Die Fähigkeit, einen hohen Automatisierungsgrad zu erreichen, zeigt die Güte und den Reifegrad einer Digital Infrastruktur Platform. Denn darin spiegelt sich das Streben nach Effizienz wider, von der auch die Kunden, seien es interne oder externe, profitieren. So lässt sich mit einem hohen Automationsgrad beispielsweise die Zeit bis zur Bereitstellung von neuen Systemen von Monaten auf Stunden verkürzen und ermöglicht es den Nutzern durch ein vollständig automatisiertes Self-Service-Modell virtuelle Maschinen, Speicherplatz, Loadbalancer oder andere Ressourcen zu beziehen.
  • Autonomous Infrastructure: Einer durch die Software-defined Infrastructure aufkommender Trend ist „Autonomous Infrastructure“. Basierend auf Konzepten aus dem Machine Learning, Cognitive Computing und Künstlicher Intelligenz, geht es hierbei um den Aufbau und den Betrieb von selbstlernenden bzw. regelbasierten und damit einhergehend selbstheilenden Infrastruktur-Umgebungen.

Das Rechenzentrum ist der Taktgeber und eine maßgebliche Größe der Digitalisierung. Denn hier laufen am Ende alle Fäden zusammen und ermöglichen auf der technischen Seite erst die Digitale Transformation von Unternehmen und Organisationen weltweit.