Die optimale Cloud-Infrastruktur
Trends wie IoT oder Blockchain erfordern eine verteilte IT – und breitbandige Verbindungen zu allen Providern.
Big Data, Internet der Dinge, künstliche Intelligenz, Deep Learning, Blockchain – die Zahl der mit großem Echo und viel Optimismus eingeführten Technologien reißt nicht ab. Sie haben neben großen Effizienzversprechen und dem Hype eine auffällige Gemeinsamkeit: Sie erfordern enorme Kapazitäten im Rechenzentrum und nutzen als In- oder Output teils gigantische Datenmengen.
So trägt es der Begriff „Big Data“ schon im Namen: Wer Massendaten beispielsweise aus sozialen Netzwerken oder aus den aggregierten Einkaufsvorgängen in einem Webshop auswerten will, benötigt viel Speicherplatz und Rechenleistung. Auch das Internet der Dinge ist ein Datenmonster. Vor allem im industriellen Bereich erzeugt es enorme Mengen an Maschinendaten, die in irgendeiner Form per Kommunikationsnetz übertragen und in einem Rechenzentrum oder einer Cloud gespeichert werden müssen.
Künstliche Intelligenz und Deep Learning stellen hohe Anforderungen an Speichertechnologien und die Rechenleistung der eingesetzten Computer. Denn neuronale Netzwerke müssen erst einmal mit großen Datensätzen im Gigabyte-Bereich trainiert werden, bevor sie praktisch anwendbar sind. Und die Blockchain hat ebenfalls erhebliche Anforderungen an Rechenleistung und Speicherung. So zeichnet sie sich dadurch aus, dass jede Transaktion innerhalb der Blockchain dauerhaft gespeichert wird. Gelöschte Daten werden niemals entfernt und jedwede Änderung der Daten wird inklusive der Ursprungsdaten vollständig aufgezeichnet.
Industrial IoT steigert das Datenvolumen
Diese wenigen Anmerkungen zeigen bereits, dass neue Technologien zu den Treibern des viel zitierten Wachstums des Datenvolumens gehören. Nach einer Studie von Dell EMC soll sich das gesamte Datenaufkommen bis 2020 verzehnfachen. Die Unternehmen stehen damit vor einer großen Herausforderung. Wer bei neuen Anwendungsgebieten und Geschäftsmodellen mithalten will, muss eine Strategie für den Umgang mit dem Datenwachstum entwickeln.
So steigert sich zum Beispiel im Moment das IoT-Datenvolumen in den Kommunikationsnetzen besonders stark durch das Thema „Predictive Maintenance“ (vorausschauende Wartung). Dabei überwachen Sensoren permanent den Zustand von Maschinen und Anlagen und senden die Daten in die Cloud. Die übernimmt dann die Aufgabe der Auswertung und weist beispielsweise auf Verschleißteile hin, die bald ausgetauscht werden müssen.
Dieser Anwendungsbereich ist bei den Unternehmen sehr beliebt, da er rasch zu geringeren Ausfallzeiten, höherer Produktionseffizienz und sinkenden Kosten führt. Zudem lässt sich digitale Überwachung auch bei Altanlagen durch nachträglichen Einbau moderner Sensoren verwirklichen (Retrofitting). Dadurch wird das Datenvolumen weiter steil ansteigen, denn die für diesen Zweck verbauten Sensoren übertragen ihre Daten im Sekundentakt. So entstehen in großen Anlagen enorme Datenmengen, die über Kommunikationsnetze übertragen werden müssen.
Hinzu kommt ein Phänomen, das durch den Aufschwung der Cloud Services bedingt ist: Viele Unternehmen nutzen mehrere unterschiedliche Dienste in der Public Cloud, häufig flankiert durch eine Private Cloud und traditionelles Application-Hosting. Für die unterschiedlichsten Workload-Anforderungen müssen optimale Hybrid- und Multi Cloud-Strategien erstellt werden. Häufig sind die erwähnten neuen Technologien einer der Gründe. So bieten viele bekannte Cloud Provider vorkonfektionierte und vergleichsweise einfach zu nutzende Services für Business Analytics, IoT-Anbindungen, Deep Learning oder die Blockchain an.
Auch hier ist wieder ein Blick auf das Predictive-Maintenance-Beispiel hilfreich. Da die von den Sensoren ermittelten Daten sich bereits in der Cloud befinden, ist es sinnvoll, sie auch dort auszuwerten. Dafür können sie beispielsweise mit Anwendungen für Business Analytics analysiert und in einem Cloud-Dashboard für das Management aufbereitet werden. Solche kombinierten Lösungen aus IoT-Plattform und Analytics bieten viele der bekannten Cloudprovider. Hinzu kommen noch Schnittstellen zu anderen Anwendungen wie ERP und CRM oder ganz klassisch zur Office-Lösung, um die Daten auch außerhalb des Kreises der Cloud-Anwender präsentieren zu können. Eine flexible Gestaltung der Infrastruktur für eine zukunftsorientierte Datenlogistik wird notwendig.
Hypes as a Service – Treiber der Multi-Cloud
Doch wie können Unternehmen mit dieser Situation umgehen? Viele Unternehmen binden sich nicht gerne an einen einzigen Cloud-Anbieter. Eine Multi-Cloud-Umgebung kommt diesem Wunsch nach Diversifizierung nach und verhindert den als einschränkend empfundenen Vendor Lock-in. In der undurchsichtigen Gemengelage aus Cloud-Anbietern, Anforderungen der Applikationen und Datenschutzbestimmungen stellt sich die Frage nach dem „richtigen“ Anbieter. Um als Unternehmen auch in Zukunft flexibel bleiben und auf neue Entwicklungen rasch reagieren zu können, sollten Housing und Konnektivität optimal miteinander interagieren. Meist sind spätere Änderungen an der Cloud-Infrastruktur sehr aufwendig, sofern nicht schon in der Planungsphase eine Cloud-Exit-Strategie (Clexit) geplant wird. So werden langfristige Konsequenzen durch die Wahl des Cloud-Anbieters vermieden.
Eine sinnvolle Lösung ist ein Outsourcing-Partner, der klassische und moderne Einsatzbereiche verbindet. Einerseits sollte er den gewohnten Rechenzentrumsbetrieb aufrechterhalten und das Hosting von traditionellen Geschäftsanwendungen anbieten. Andererseits sollte er Gateways zu den großen Cloud-Providern anbieten – am besten in Form einer „Cloud-Drehscheibe“, um die Hochverfügbarkeit und Ausfallsicherheit der Anwendungen sicherzustellen. Dies verhindert Situationen, in denen mehrere Anwendungen bei unterschiedlichen Providern unverbunden nebeneinanderstehen und über womöglich störanfällige Einzelverbindungen angesprochen werden müssen. Passgenaue und individuelle Cloud-Lösungen werden gebraucht.
Vor allem die Marktführer im Cloud-Business bieten „As-a-Service“-Lösungen für Deep Learning oder die Blockchain. Für die Nutzer erleichtert das den Einsatz der Technologien: Sie müssen weder die notwendige Software lizenzieren und installieren noch entsprechende IT-Ressourcen bereitstellen. Es bleibt allerdings die Anforderung, die bunte Vielfalt an Diensten und Interconnects auch zu managen – Multi-Cloud heißt auch Multi-Administration.
Eine moderne, umfassend vernetzte Rechenzentrumsplattform wie ITENOS Data LogistIX erleichtert seinen Nutzern den Umgang mit den Anforderungen beim Einsatz modernster Technologien. Einerseits gibt es die üblichen Vorteile eines Colocation-Rechenzentrums, andererseits kann das Unternehmen mit seinem Service „Cloud Connect“ eine zuverlässige und performante Verbindung zu den bekannten großen Cloud-Anbietern garantieren. So wird ein Vendor-Lock-in vermieden und maximale Flexibilität gewahrt. Auf Wunsch sind auch zehn Gigabit pro Sekunde möglich – genügend Bandbreite, nicht nur für Entwicklungsumgebungen, sondern auch für den produktiven Einsatz der digitalen Lösungen.
Dieser Artikel wurde erstmals im September 2017 auf DigitalBusiness-Cloud.de veröffentlicht.