Enterprise Computing
Opteron- gegen Xeon-Server
Enterprise Computing
IBM hat Presse und Analysten über seine neuen Server informiert, die auf den neuesten Server-Chipsets aufgebaut sind. Angesichts der Tatsache, dass die meisten anderen Chip-Hersteller dieses Feld aufgegeben haben, macht IBM ein ziemliches Gewese darum, wie Server-Chipsets wirklich die Leistung verändern können.
Als Teil der Kampagne holte IBM einige Journalisten in seine Labs in Raleigh, North Carolina, wo verschiedene Server-Technologien beleuchtet und die Unterschiede zwischen den 64bit-Prozessoren Opteron von AMD und Xeon EM64T von Intel erläutert werden sollten.
Trotz der größten Mühen der Leute aus dem Serial-ATA-(Sata)-Lager, das Gegenteil zu beweisen, kann die niedrige Geschwindigkeit von Festplatten-Sub-Systemen die Server-Leistung einschränken.
SCSI mag eine bessere Leistung bieten als Sata, hat aber den Nachteil des höheren Stromverbrauchs. SCSI-Festplatten drehen sich normalerweise schneller als alternative Technologien, so dass sie zum Ausgleich ein besseres mechanisches Design und bessere Komponenten benötigen. Zusammengenommen ist das bei kompakten und daher relativ fragilen Server-Designs, wie etwa Blades, ein echtes Problem.
IBM präsentierte einige Zahlen, die die Unterschiede illustrieren. Der sequentielle Lesedurchsatz ist bei SCSI um 22 Prozent höher als bei Sata – beim sequentiellen Schreiben ist dagegen Sata sechsmal besser. Wenn es um zufällige Lese-/Schreib-Operationen geht, gewinnt SCSI mit 2,4-mal besserer Leistung. Da die meisten Server mehrere Lese-/Schreib-Operationen gleichzeitig durchführen, macht SCSI in den meisten Fällen zur besseren Wahl.
Wenn es um Prozessoren geht, liegt der wesentliche Unterschied zwischen Xeon und Opteron in der Speicherarchitektur. Xeon verwendet einen Front-Side-Bus (FSB), den sich die Prozessoren in einem Server teilen, so dass sämtlicher Zugang zum Speicher durch die FSB-Transfer-Rate begrenzt wird. Opteron verwendet einen internen Memory-Controller für jeden Prozessor, der an etwas RAM angeschlossen ist.
Bei einem Multiprozessor-Server hat jeder Prozessor sein eigenes RAM und ist durch HyperTransport-Verbindungen an die anderen Prozessoren angeschlossen.
Diese Anordnung ist ein Non-Uniform-Memory-Architecture-(Numa)-Design und bietet schnellen Zugriff auf das RAM jedes einzelnen Prozessors. Der Zugang zu Speicher, der von anderen Prozessoren in einem Multiprozessorsystem gesteuert wird, ist jedoch langsamer.
Server laufen in der Regel unter Multi-Thread- und Multi-User-Belastung, wodurch viel willkürliche Speicheraktivität entsteht. Das macht die Speicher-Latenz zu einer wichtigeren Frage als die Speicher-Bandbreite, wenn es um die Bestimmung der Systemleistung geht. Die Latenz wird teilweise von der Speichertechnologie bestimmt, die in dem System verwendet wird. Sie ist aber auch eine Funktion der Speicherverwaltungs-Chips, und hier behauptet IBM, mit dem neuen X3-Chipset in dem x366-Server im Vorteil zu sein, der im letzten Monat angekündigt wurde und in diesem Frühjahr ausgeliefert werden soll.
Opteron-Prozessoren bieten zwar weniger Latenz beim Zugriff auf RAM, das direkt mit dem Prozessor verbunden ist – sogenanntes Near-RAM. Dieser Vorteil wird jedoch aufgehoben durch den relativ langsamen Zugriff auf Speicher, der weiter entfernt ist Speicher, der an die anderen Prozessoren in einem Multiprozessor-system angebunden ist.
Es ist schwer zu sagen, dass ein System besser ist als das andere, da die beste Option sich mit der Arbeitsbelastung ändert. Wo diese in den Prozessor-Cache passt, ist die Prozessor-Frequenz der Schlüssel, und hier ist Xeon im Vorteil aber die Server-Arbeitsbelastung passt selten in den Cache.