Stärken und Schwächen der Virtualisierungs-Techniken
Virtualisierung kennt viele Facetten
Eine Fülle von Virtualisierungs-Methoden
Virtualisierung wird häufig mit den Methoden und Produkten von VMware und der Servervirtualisierung gleichgesetzt. Der Anbieter hat die Konzepte der Virtualisierung, obgleich sie in der IT schon immer angewandt wurden, auf breiter Front bekannt gemacht. Mit dem ESX-Server hat man einen Standard zur Servervirtualisierung geschaffen. Dessen Nutzen liegt in der Konsolidierung vieler physischer Server-systeme und der darauf befindlichen Anwendungssysteme. Somit lassen sich die unzähligen Server, die zum Betrieb eines Mail-, ERP- oder der Warenwirtschafts-Systems angeschafft wurden, auf einen Rechner zusammenfassen. Dies spart Server und reduziert die Verwaltungskosten.
Mittlerweile haben sich die Konzepte der Virtualisierung auch auf andere Bereiche ausgedehnt. Doch jedes der Modelle hat unterschiedliche Anforderungen, Vorteile und Nutzen, die wir hier durchleuchten wollen.
Virtualisierung kennt viele Facetten
Der Begriff der Virtualisierung steht heute für völlig unterschiedliche Konzepte. Und VMware ist nicht mehr alleine im Markt. Zur Konsolidierung von Serversystemen und der Servervirtualisierung liefern mittlerweile auch Citrix, Virtuozzo und Microsoft entsprechende Lösungen.
Bild: Virtuozzo wurde unlängst in der Version 4.0 neu aufgelegt. Den Umfang und das Management hat der Hersteller dabei erweitert. (Kick aufs Bild=volle Ansicht)
Hardwareseitig werden die Virtualisierungskonzepte außerdem von den führenden Server-herstellern, wie etwa HP, IBM oder Dell unterstützt. HP wird seine ProLiant-Server in Zukunft auch mit dem XenServer von Citrix ausliefern.
Unterstützung gibt es auch von Seiten der CPU-Hersteller. Intel und AMD haben ihre Prozessoren um Virtualisierungsfunktionen erweitert und liefern somit Unterstützung für virtuelle Techniken direkt in ihren CPUs.
Applikationsvirtualisierung vereinfacht Software-Verteilung
Daneben stehen weitere Virtualisierungskonzepte in den Startlöchern. Durch die Applikations-Virtualisierung erfolgt eine vereinfachte Software-Verteilung auf die Clients. Die Applikations-Virtualisierung hat folglich einen völlig anderen Fokus als die Server-Virtualisierung. Erstere dient einer effizienten Versorgung der Client-Arbeitsplätze mit Programmen, die Server-Virtualisierung wiederum hat den Rechenzentrumsbetrieb im Fokus.
Bei der Applikationsvirtualisierung werden die Programme nicht mehr fest auf den Benutzergeräten installiert, sondern bei Bedarf geladen. Hierbei spricht man auch vom Streaming der Applikationen. Dazu sind diese vorher auf einem zentralen Server zu Paketen zu schnüren. Der Benutzer erhält dann Links auf seinem Desktop zu diesen Paketen. Damit der Benutzer diese Applikation starten kann, muss er folglich eine Verbindung zum zentralen Server besitzen.
Für Notebooks gilt dies jedoch nicht immer. Um auch mobile Geräte durch die Applikations-Virtualisierung zu unterstützen, haben die Hersteller die Konzepte erweitert. Nunmehr lassen sich die gestreamten Anwendungen auf der Clientseite auch zwischenpuffern und für spätere Aufrufe vorhalten.
Bild: Neuer Star am Microsoft-Himmel – Der Hyper-V löst den Virtual Server von Microsoft ab und beherrscht mehrere Virtualisierungsmethoden (Klick aufs Bild=volle Ansicht).
Präsentations-Virtualisierung zentralisiert Rechenleistung
Eine dritte Variante ist die Virtualisierung der Präsentationsschicht. Auch diese Virtualisierungsvariante ist im Prinzip nicht neu und wird heute vor allem durch den Citrix Presentation Server oder die Terminal Services von Microsoft abgebildet.
Der größte Vorteil der Präsentations-Virtualisierung ist die vereinfachte, weil zentrale, Verwaltung von Benutzerapplikationen. Auch bei Präsentations-Virtualisierung entfällt die Software-Verteilung im klassischen Sinne. Stattdessen muss der Administrator den Benutzern lediglich die Applikation zuweisen. Ausgeführt werden die Applikationen dann aber ausschließlich auf dem zentralen Server.
Das unterscheidet sie wiederum von der Applikations-Virtualisierung, denn dabei laufen die Applikationen auf der Client-Seite. Der Benutzer erhält leidglich die Bildschim-Ausgaben übermittelt. Seine Mausaktionen und Tastatureingaben werden wieder auf den zentralen Sever zurückübertragen. Der Nachteil liegt im Zwang der permanenten Netzwerk-Anbindung des Desktops zu seinem Server, ohne diese ist kein Betrieb möglich.
Der nächste Schritt: Desktop-Virtualisierung
Relativ neu ist die vierte Variante der Virtualisierung – die des Desktop. Hierbei wird der komplette Desktop eines Benutzers zentral vorgehalten. Dies geht über die Virtualisierung der Präsentationsschicht hinaus. Bei der Desktop-Virtualisierung erhält der Benutzer einen eigenen Rechner zugewiesen. Dieser steht aber nicht an seinem Arbeitsplatz sondern im Rechenzentrum.
Bild: XenDesktop virtualisiert den Benutzerdesktop. Die Rechenleistung wird auf dem zentralen Server erbracht. (Klicken Sie auf das Bild für die volle Ansicht)
Damit erhält der Benutzer seinen gewohnten Desktop – dessen Verwaltung allerdings ist zentralisiert. Diesen Vorteil erkauft man sich aber durch im Vergleich zu Desktop-PCs weitaus teurere Server-Hardware. Anders als einzelne Nutzer-PCs sind virtualisierte Rechner auf dem Server allerdings leichter für Administratoren zu handhaben.
Fazit
Die Virtualisierung hat mittlerweile viele Facetten zur Bereitstellung von Programmen für die Benutzer hervorgebracht. Die feste Installation einer Applikation auf den Client-Gerät ist damit nicht mehr die einzige Variante zur Applikations-Bereitstellung. Doch die wachsende Vielfalt der Modelle verändert auch deren Verwaltung. Der Zwang zur festen Installation mit den Mühen eines Software-Rollouts entfällt. Nun aber gilt es zu unterscheiden, wo eine Applikation liegt – und wie sie zum Benutzer kommt.