Das ist neu bei Windows Server 2012

CloudNetzwerkeServerSoftware

Windows-Server 2012 bildet die große Klammer um reale und virtuelle Systeme und erfreut so laut Microsoft große wie kleine Firmen. In Umfragen unter Testkunden hab man “exzellentes Feedback” von allen Seiten bekommen, erklärte Kai Göttmann, der im Januar die Bereichsleitung zu “Server, Tools und Cloud-Business” bei Microsoft Deutschland übernommen hatte, anlässlich eines Workshops im Herbst zum nun fertigen Produkt.

Nur wenige der Erweiterungen des Windows Servers sind in dieser Liste der “Top-Neuerungen” aus dem Microsoft-Marketing erwähnt. Zu viel, so dachte sich wohl die Marketing-Abteilung, verwirrt die Nutzer eher (Bild: Microsoft).

Die neuen Funktionen, so Göttmann, waren auch Ergebnis weltweiter Umfragen unter Administratoren – und so sei Microsoft den Anforderungen entgegengekommen. Produktmarketing-Manager Dietmar Meng assistiert: “73 Prozent der befragten Unternehmen planen oder nutzen bereits eine private Cloud”.

Einfache Virtualisierung war gestern. Microsoft glaubt an eine Zunahme der IT-Nutzung vor allem in privaten Clouds und an starke Nutzung öffentlicher Cloud-Dienste. Der klassische PC ist nur noch ein minimaler Bestandteil der gesamten IT (Bild: Microsoft).

Microsoft positioniert die Funkionen seines neuen Serverproduktes so, dass es einerseits kleineren Unternehmen hilft, vorhandene Technik preiswert in Pools zusammenzuführen, als handle es sich um ein großes Rechenzentrum. Andererseits unterstützt es auch riesige Ansammlungen virtueller Rechner und physischer Geräte im Unternehmensnetz, in der Private Cloud und in öffentlichen Clouds, die damit als ein solides Ganzes verwaltet werden können. So erscheinen auch Cloud-Dienste dem Admin, als seien sie Teil des Unternehmensnetzes.

Windows Server 2012 soll geteilte Ressourcen so verwalten können, als seien sie reale Geräte. Das Konzept der “Spaces”, das Citrix im Sommer propagiert und in viele Produkte verteilt hatte, nimmt Microsoft auf und steckt es kostenfrei in ein einziges Produkt – seinen Server. So gibt es verteilte Rechenpower-Ressourcen oder Speicherservices, die aus vielen schon vorhandenen Pools genommen und bereitgestellt werden. Der Pool-Gedanke gilt für alle Bestandteile, also auch für die Nutzergruppen und Sicherheitsrichtlinien, für verteilte Speicherkapazitäten im Netz oder anderswo, und so weiter.

Administratoren stellen über Oberflächen, wie sie schon aus bisherigen Windows-Server-Versionen bekannt sind, die Pools zusammen – die Vielzahl von Neuerungen erscheint so nicht auf den ersten Blick, denn die Admins müssen sich nicht sonderlich umgewöhnen. Doch oft steckt im Detail Vieles, was bisher mit separaten Tools erreicht werden musste. Trotzdem ist zunächst die neue Mischung von Windows-8-ähnlicher Startoberfläche im Metro-Design und dahinterliegender Tools als GUI sowie der etwas komplexeren Powershell gewöhnungsbedürftig, wie etwa das US-Blog “Discoposse” eines Windows-Server-Administrators beschreibt.

Der Windows-Server-2012-Startbildschirm entspricht dem neuen Windows-8-Look&Feel, während die Funktionen dahinter noch ein wenig komplizierter sind als die Kacheloptik am Anfang vermuten lässt (Bild: Discoposse)

Automatisierungen zahlreicher Aufgaben, etwa die Belieferung einzelner Rechner mit neuer Software oder die Bereitstellung von Ressourcen wenn sie benötigt werden, sollen die Netzwerk-Verantwortlichen entlasten und den einzelnen Nutzern gar nicht zeigen, dass mal eben eine Festplatte hinzugesteckt oder ein Update aufgespielt wurde.

“Shared Nothing” – der Poolgedanke im Server

Eines der Hauptkonzepte ist das “Shared Nothing”-Prinzip, das etwa Migrationen ganzer Rechnerpopulationen im Livebetrieb erlaubt. Dass sein virtueller PC nun auf einem anderen Server gehostet wird, merkt der Nutzer gar nicht. So können auch virtuelle Server oder Storage-Systeme in Gruppen von einem Server-Cluster auf den anderen verschoben werden.

Windows-Server 2012 - der Poolgedanke
Alles in Pools oder “Spaces” zu packen ist der wichtigste Grundgedanke hinter dem Windows Server 2012, der hier in einer Präsentation vorgestellt wird (Bild: Microsoft).

Im Grunde also könne alles virtualisiert werden, erklärt Meng, und dadurch sei ein Umzug sehr leicht. Sogar das Netzwerk ist virtuell – IP-Adressen, Subnetze oder Security Policies werden bei einem Umzug auf andere Servr automatisch migriert, ohne dass sich der Administrator um die Einstellungen in einzelnen Systemen kümmern muss.

Hinter der Migration vieler virtueller Systeme, die nun auch parallel stattfinden kann, steckt die Funktion “Hyper-V Replica”, die zuerst die gespeicherten Eigenschaften eines “Master-PCs” überspielt und dann die einzelnen System-Änderungen, die von den Nutzern vorgenommen wurden, auf die jeweiligen Systeme überträgt.

Dietmar Meng sieht dies wie den Unterschied zwischen Hotelzimmern und Eigentumswohnungen: Das “Gold-Image” ist quasi eine Pool-VM, die wie ein Hotelzimmer immer wieder genutzt werden kann, für jedes einzelne Zimmer werden jedoch die “Deltas” für die “Personal VM” gespeichert – also im Grunde das Sondereigentum wie in einer Wohnanlage mit Einzelwohnungen, die jeder gestalten kann, wie es ihm beliebt.

Nichts gehe verloren und dennoch könne eine Migration auf andere Server-Cluster viel schneller ablaufen als bisher. Durch die Shared-Nothing-Funktionalität kann zudem auch Speicher im Livebetrieb umkonfiguriert werden.

Ressourcen (fast) ohne Grenzen

Windows Server 2012 kann inzwischen Arbeitsspeicher von bis zu einem Terabyte pro VM, bis zu 1024 virtuelle Maschinen pro Server und bis zu 64 TByte große (virtuelle) Festplatten je virtueller Maschine verwalten. Insgesamt kann die Server-Software sogar mit Pools von bis zu 8000 VMs pro Cluster arbeiten (in der Vorversion erreichte Windows Server 1000). Pro VM sind bis zu 64 virtuelle CPUs nutzbar – sie werden zuvor über die Admin-Oberfläche zugewiesen. Bis zu 1024 VMs können gleichzeitig aktiv sein.

Die Ressourcen besser zu verwalten, war auch das Ziel bei der Umstellung auf das neue Dateisystem REFS (“Resilient File System”) – es verwaltet die Daten mit viel weniger Speicherbedarf als das früher genutzte NTFS. Dennoch zeigt “File Info” noch die Dateigröße an, die ein File in herkömmlichen Systemen einnimmt – womit Migrationen besser zu planen sind. Das REFS hatte Microsoft bereits für Windows 8 eingeführt und überträgt diese Neuerung auf den Server. So könnte man 100 MByte locker auf einem 80-MByte-Laufwerk speichern, scherzten Microsoft-Mitarbeiter auf dem Server-Workshop.

So sieht die Struktur des neuen Dateisystems REFS aus. Die neue Anordnung soll viel Platz auf der Festplatte sparen (Bild: Microsoft).

Die neue Speicheroption SMB 3.0 schließlich verwaltet angeschlossene und dem Speicherpool hinzugefügte Storage-Komponenten so, als würde man in einem Storage-Area Network (SAN) arbeiten. Laufwerke gleich welcher Art können hinzugefügt werden, ohne dass der Nutzer es merkt – er hat einfach nur Zugriff auf seinen Speicherpool und muss nicht wissen, welche Hardware-Drives laufen oder ausgefallen sind.

Speicherpools können in Windows Server 2012 aus verschiedenen Quellen zusammengestellt werden, bevor sie als vermeintliche Gesamtlaufwerke im Netz bereitgestellt werden (Bild: ZDNet.com).

Auf die ketzerische Frage, ob man damit schließlich auf SANs wie die von NetApp, EMC oder Hitachi verzichten könne, weil man ja beliebige Festplatten einfach “poolen” könne und damit in Windows Server ein SAN emuliere, antwortet Microosfts Technik-“Evangelist” Chris Bayer vorsichtig damit, dass man sie sicher nach wie vor benötige und einfach als weitere Ressource über den Windows Server 2012 einbinde. Aber man könne sich schon vorstellen, dass es in Zukunft SANs gebe, in denen Windows Server 2012 integriert ist.

Verarbeitung leicht gemacht

Um die Arbeit für Nerzwerkverantwortliche weiter zu erleichtern, hat Microsoft dem Produkt neue Fernwartungsfunktionen verpasst: Vieles, was bisher nur über die “Powershell” machbar war, kann nun auch per GUI gesteuert werden. So lassen sich jetzt entfernte Server und Gruppen über die Oberfläche fernsteuern, Remote Access über Installationen, Policy, und so weiter sind möglich.

Die Powershell bleibt jedoch bestehen und ist noch immer Zentrum vieler Administrationsaufgaben. Doch auch diese hat Microsoft um Neuheiten erweitert: Die neue “Powershell ISE” arbeitet ähnlich wie aktuelle Suchmaschinen und zeigt schon während der Eingabe die häufigst ausgewählten Funktionen an. Die Automation soll die Administratorentätigkeit beschleunigen.

Auch bei der Bearbeitung und automatischen Durchsetzung von Sicherheitsrichtlinien für Nutzergruppen hat Microsoft geschraubt. So sind ewa bei “Verhaltensstörungen” im Netzwerkverkehr auch Einschränkungen für dynamische IP-Adressen möglich – wenn man nicht weiß, wer gerade netzwerkschädliche Aktionen startet, muss auch der Ausschluss der Unbekannten möglich sein.

Mit der Funktion “Direct Access” werden automatisch sichere Verbindungen zu Netzwerk-Resourcen geschaffen – Windows Server öffnet quasi wie von selbst VPN-Verbindungen und schafft seine “Tunnel” selbst. Diese Selbsteinrichtung funktioniert sowohl unter IPv4 als auch iPv6 – viele externe Tools benötigten bisher für derartige automatische VPNs erst einmal dedizierte IPv6-Netze.

Und nutzt ein Anwender oder eine Gruppe zu viel Prozessor-Power, so ist auch ein “CPU-Throtteling” möglich, um die Ressourcen noch für andere Abteilungen im Unternehmen bereitstellen zu können. Der Server kann also mit Prozessorkraft das tun, was Telekommunikations-Unternehmen schon lange bei der mobilen Bandbreitenzuweisung tun, wenn ein Nutzer “zu viel” mit seinem Smartphone surft: Die Nutzung der Ressourcen einschränken.

Die Ressourcen besser zu verwalten war auch das Ziel bei der Umstellung auf das neue Dateisystem REFS (“Resilient File System”) – es verwaltet die Daten mit viel weniger Speicherbedarf als das früher genutzte NTFS. Dennoch zeigt “File Info” noch die Dateigröße an, die ein File in herkömmlichen Systemen einnimmt – womit Migrationen besser zu planen sind. Das REFS hatte Microsoft bereits für Windows 8 eingeführt  und überträgt diese Neuerung auf den Server. So könnt man 100 MByte locker auf einem 80-MByte-Laufwerk speichern, scherzten Microsoft-Mitarbeiter auf dem Server-Workshop.

Vielen Unternehmen fällt es bei all der Virtualisierung schwer, den tatsächlichen Verbrauch von Systemressourcen zu messen und so zu ermitteln, wie viel davon welcher Teil des Unternehmens verbraucht. Um dies zu ermöglichen, führt Microsoft mit dem “Ressource Metering” eine Reporting-Funktion ein, die genau sagt, welche Abteilung/Nutzergruppe welche Ressourcen wie stark nutzt. Ob Prozessorpower, Nutzung der Anwendungen, Cloud-Dienste oder der Internetverbindungen: Die Ergebnisse helfen der Firmenleitung, die richtigen Investitionen zu tätigen oder zu vermeiden und die Kosten den passenden Abteilungen zuzuweisen.

Unzählige neue Funktionen

Microsoft hat seinem “All-inclusive-Server” tausende neuer Funktionen spendiert. Darunter sind solche, die eine Einbindung in andere Infrastrukturen erleichtern (etwa in iSCSI- und Fibrehannel-Umgebungen) oder NFS-Unterstützung, Transparentes Failover für den besseren Umgang mit ausfallender Hardware, Thin Provisioning, geteilte Server-Cluster, QoS-Funktionen, und und und…

Die neuen Fuktionen werden als “Apps” präsentiert, bevor es ins “Eingemachte” in die Bearbeitungsfenster geht-

Microsoft spricht von insgesamt 88 Prozent Reduktion der Netzwerkverwaltungszeiten bei den befragten Kunden und einer Steigerung der Netzwerkverfügbarkeit um 4,75 Prozent sowie Verringerung der Ausfallzeiten um 23 Prozent.

Und wichtig für das Verständnis der Kosten ist auch die Vereinfachung der Lzenzierung: Bezahlen müsen Kunden nicht für reale Prozessoren und Prozesorkerne, nicht für die Anzahl der verwalteten virtuellen Maschinen, sondern für die Anzahl der CPU-Sockel. Der Server kostet also nicht mehr, wenn ein Prozessor mit 64 Kernen eingebaut wird und auch nicht, wenn  viele virtuelle Ressourcen hinzugefügt oder erzugt werden.

Lesen Sie auch :
Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen