Die Verfügbarkeit der Cloud
Wolkige Aussichten
Erklärungsansätze
Die weltweite Wirtschaftskrise macht auch vor IT-Investitionen nicht halt. Für die Verantwortlichen auf diesem Gebiet soll IT deswegen vor allem flexibel, skalierbar und billig sein, sowie einen wirtschaftlichen Mehrwert bringen. Ins Zentrum der Aufmerksamkeit sind edaher vor allem Projekte im Bereich Cloud Computing gerückt, denn sie versprechen, durch Auslagerung und Vernetzung Geld zu sparen. Marktforscher von Ovum bestätigen diese Entwicklung. Doch dahinter steckt mehr als nur die Marketinghülse: Die passende Hardware, Software und leistungsfähige Netzwerke machen erst gemeinsam aus, was so wolkig klingt.

Einen möglichen Erklärungsansatz bietet das Beratungshaus Forrester Research – demnach steht Cloud Computing für einen »Pool aus abstrahierter, hochskalierbarer und verwalteter IT-Infrastruktur, die Kundenanwendungen vorhält und nach Verbrauch abgerechnet wird«. Cloud Computing lässt sich also so gesehen als Weiterentwicklung des SaaS-Konzepts begreifen.
Nicht nur das Hosting von Anwendungen oder auch Speichersystemen wandert in »die Wolke«, sondern auch die Software-Entwicklung und ergänzende Dienste. Dafür stehen mittlerweile komplette Cloud-Plattformen inklusive Entwicklungs-Tools und der benötigten IT-Infrastruktur zur Verfügung.
In einer Sache sind sich die Experten einig: Cloud Computing ist vor allem der Beginn einer neuen Ära, in der meist das Internet (und manchmal auch Firmennetze in der »private cloud«) im Mittelpunkt steht und Anbieter IT-Dienste wie herkömmliche Gebrauchsgüter bereitstellen. So könnten sich laut einer IDC-Umfrage die weltweiten Ausgaben für Cloud-Dienste wie SaaS
oder Online-Speicher bis zum Jahr 2012 auf 42 Milliarden Dollar erdreifachen. Das entspräche zehn Prozent der gesamten IT-Ausgaben.
Die Wolke wächst
Bekannte Softwareunternehmen wie IBM bieten schon seit 2007 Cloud Computing-Dienste an. Amazon bietet schon seit mehr als zwei Jahren Cloud-Dienste über Amazon Web Services an und Microsoft stellte 2008 die Cloud-Plattform Azure vor. Weitere Dienste sind beispielsweise AT&Ts Synaptic Hosting Service, Google Apps oder aber auch Force.com des SaaS-Pioniers salesforce.com.

(Bild: zahlreiche Cloud-Dienste sind per Web erreichbar. Quelle; Sam Johnston via Wikipedia)
Virtualisierung, Grid Computing oder Provisioning-Software sind inzwischen ausgereift und praxiserprobt. Doch erst die nun allgemein verfügbaren hohen Bandbreiten für den Zugang zur »Compute Cloud« machen anspruchsvolle Angebote möglich.
Die Vorteile des Cloud Computing liegen gerade in Krisenzeiten auf der Hand – wie beispielsweise die theoretisch unbegrenzte Skalierbarkeit der Dienste und die Option, IT-Services rasch an veränderte Anforderungen anzupassen. Nicht nur große, sondern auch kleine und mittlere Unternehmen können davon profitieren, denn das Hoch- und Herunterschrauben von Infrastruktur und genutzten Diensten kann sich näher am momentanen Bedarf orientieren.
Hürden des Cloud Computing
Neben all den positiven Fakten stellen sich viele IT-Verantwortliche zurecht die Frage, ob Cloud-Computing-Dienste vor allem in Bezug auf Sicherheit und Verfügbarkeit wirklich reif sind für den Unternehmenseinsatz.
Auch wenn Anbieter wie Amazon oder Google Verfügbarkeiten bis zu 99,9 Prozent garantieren, muss dabei bedacht werden, das Cloud Computing sämtlichen Datentransfer, der früher lokal stattfand, in das Internet verlagert. Zwar können Nutzer von jedem beliebigen Ort aus über das Netzwerk ihres Netzwerkanbieters auf Dienste und Lösungen zugreifen, doch beeinflusst hier die Internetverbindung selbst die Erfahrungen der Anwender ganz entscheidend. So kommt oft der Verbindung, die vom Dienstanbieter zur Verfügung gestellt wird, eine höhere Bedeutung zu als der eigentlichen Anwendung. Indirekt wird somit also der Dienstanbieter zum Anbieter des Anwendungs-Zugangs.

Auch der immer einfachere Internet-Zugang über mobile Endgeräte hat gravierende Auswirkungen auf die Geschäftsmodelle der Dienstanbieter – besonders in Hinblick auf die Anforderungen an Bandbreite und Netzwerke. Diese »neue« Verfügbarkeit des Internets und somit der virtuellen Dienste sprengt die Reichweite klassischer drahtloser Netzwerke. Darüber hinaus
forcieren neue Geräte wie das iPhone 3G, das Google Nexus 1 und weitere Smartphones durch einfache Handhabung und zahlreiche Anwendungen von Drittanbietern diesen Trend.
Konsequenz – neue Anforderungen an die Netzwerk-Architektur
Die oben beschriebenen Trends zwingen Anbieter, ihre Netzwerk-Architektur, allgemeine Infrastruktur und Modelle zur Bereitstellung ihrer Dienste den neuen Anforderungen anzupassen. Eine optimierte Architektur muss flexibel sein und die Kapazitäten bieten, rasch auf Kundenanforderungen reagieren zu können und die Zeit zwischen Auftrags- und Ertragseingang zu minimieren. Das ist nur möglich, wenn die Netzwerk-Ressourcen dynamisch und mit minimalem personellen Aufwand umkonfiguriert werden können, um sich auf neue Aufträge einzustellen.
Laut einer neuen Studie der McKinsey Group »kann eine softwaregestützte Netzwerk-Architektur bei der Erstaufstellung von Diensten die Probezeit und Zeit der Bereitstellung um 20 Prozent reduzieren, bei einer Optimierung der Leitungen (Bandbreite, Servicetyp, Quality-of-Service, etc) sogar um bis zu 70 Prozent«. Gewissenhafter Planung und Netzwerk-Expertise kommt bei der Implementierung einer neuen Lösung daher entscheidende Bedeutung zu. Das Netzwerk, das die Anwendung liefert, ist also enorm wichtig.
Grundsätzlich müssen Netzwerke dynamischer und verstärkt softwaregesteuert werden. Drei Punkte sind hierbei entscheidend:
– Time-to-market: Netzwerkanbieter müssen in der Lage sein, ihre Dienste schnell zu entwickeln, zu aktivieren und bereitzustellen. Dies ist besonders relevant in Metro- und Access-Netzwerken
– Differenzierung von Diensten: Anbieter müssen ihre Dienste über Service Level Agreements (SLAs) abgrenzen, um verschiedene Anforderungsprofile zu identifizieren und im Endeffekt mehr Umsatz pro Kunde zu erzielen. Dafür müssen Dienstanbieter ein erhöhtes Service-Denken entwickeln, damit sie eine verbesserte Abstufung ihrer Dienste, beispielsweise über QoS (Quality of Service), bieten können.
– Flexibilität: Dienstanbieter müssen ihre Netzwerkkapazität ohne großen Aufwand bereitstellen und skalieren können, um dynamisch auf unvorhersehbare Schwankungen in der Nachfrage zu reagieren. Niemand kann mit Sicherheit sagen, welches Gerät, welche Anwendung oder welcher Dienst der nächste große Cloud-basierte »Bandbreitenfresser« wird.
Fazit: Telekommunikationsfirmen müssen aufstocken
Nach Einschätzung des Marktforschungs- und Beratungsunternehmens Gartner wird es noch einige Jahre dauern, bis Cloud Computing wirklich die volle Marktreife erreicht und sich zu einem etablierten IT-Produkt entwickelt hat. Doch der Markt für Cloud Computing befindet sich in einer aktiven, wachstumsträchtigen Phase mit viel Potential. Deswegen empfiehlt Gartner
Unternehmen »mit einer technologisch offensiven Anwendungsentwicklung«, Cloud Computing für taktische Projekte bereits bis zum Jahr 2011 in Betracht zu ziehen. Bis dahin werde sich der Markt weiter entwickeln und zunächst von einer kleinen Gruppe von Anbietern beherrscht werden. Nach dieser Phase prognostiziert Gartner, dass der Markt eine Flut von neuen Anbietern und eine anschließende Konsolidierung erleben wird – da C
loud Computing dann für
deutlich mehr etablierte Anwendungsentwickler reizvoll wird. Bis zum Jahr 2015 schließlich soll Cloud Computing zum Massenprodukt und zur bevorzugten Lösung für viele Anwendungs-Entwicklungsprojekte werden.
Gleichzeitig zeichnet sich ab, dass traditionelle Netzwerkstrukturen und Bereitstellungsmodelle diese rasanten Entwicklungen nicht mehr lange tragen können. Deswegen benötigen Dienstanbieter in einer Cloud-dominierten Ära eine fundamental neue Herangehensweise – weg vom heutigen Modell des einfachen Bereitstellens von Anwendungszugängen hin zu intelligenten, automatisierten und dienstleistungsorientierten Netzwerken.
Damit die beteiligten Unternehmen aus den neuen Diensten Kapital schlagen können, muss sich die Infrastruktur weiterentwickeln, um sich den durch Cloud Computing getriebenen Innovationen und Änderungen flexibel anzupassen.