dmmfree

Case: Wettrennen um virtualisierten Storage–GAD setzt auf Microsoft-SAN

Print Friendly

GAD_LogoSowohl Microsoft als auch VMware arbeiten an neuartigen Techniken zur Storage-Virtualisierung. Microsoft verfolgt dabei einen Ansatz, der teure SANs ersetzen könnte. Die GAD eG hat dieses System bereits zweimal intensiv getestet.

 

GAD, ein Spezialist für Banken-IT, betreibt nach eigenen Angaben eines der sichersten Rechenzentren Europas. Dort hatte GAD für einen Großtest 12.000 virtuelle Maschinen in einem einzigen Hyper-V-Cluster installiert.

Virtualisierter Storage versorgt Mega-Cluster

Hierbei kamen auch neue Storage-Funktionen zum Einsatz. „Windows Server 2012 R2 bietet mit dem Scale-out File-Server und dem Übertragungsprotokoll SMB 3.0 erstmals die Möglichkeit, Datei-Server als Shared Storage für Hyper-V-Cluster einzusetzen“, erläutert Büdenbender, Systems Engineer bei der GAD in einer Casestudy, die Microsoft hier veröffentlicht hat. Der Scale-out File-Server dient dabei als Speicher für Applikationsdaten, besonders für VM-Images und SQL-Datenbanken. Als Storage-System stand zunächst noch ein SAN zur Verfügung.

Thomas Büdenbender und sein IT-Team sind Technical Adoption Partner von Microsoft und besitzen daher einiges Know-how bezüglich Windows Server 2012 und Hyper-V.

„In dem Cluster mit zunächst 8000 und dann 12.000 virtuellen Maschinen konnte die Storage-Architektur gut mithalten und der Scale-out File-Server erwies sich als sehr performant“, erläutert Büdenbender. (Weitere Details über diesen habe ich in einem eigen Bericht Tecchannel veröffentlicht).

Virtueller Speicher im Test

Nach diesem erfolgreichen Test beschlossen Büdenbender und sein IT-Team, die virtuelle Technik in einem Proof of Concept zu testen und nun statt eines SANs drei JBODs (Just a Bunch of Disks) mit SSD- und SAS-Platten einzusetzen.

Dabei hat die GAD ein interessantes Hardware-Konzept verfolgt: Kombiniert man die Scale-out File-Server mit JBODs, kann man sie zusammen mit der Maschine für die virtuellen Server in ein Rack packen und über Standradkomponenten vernetzen. So entsteht eine Einheit, die GAD als Building Block bezeichnet.

Der Building-Block-Ansatz überzeugt

Für die Verbindung zum Netzwerk kamen 40-GBit-Switches und RDMA-Netzwerkkarten (Remote Direct Memory Access) zum Einsatz. „Das gleicht einem Quantensprung im Storage-Netzwerk“, berichtet Büdenbender. „Wir sprechen dabei nicht mehr von einer 4- oder 8-GBit-Anbindung der Hyper-V-Umgebung an ein SAN, sondern über eine 40-GBit-Verbindung.“

Der Proof of Concept bestätigte die Ergebnisse des ersten Tests. „Scale-out File-Server lief sehr sauber und die 40-GBit-Technik lieferte überzeugende Performance-Raten“, bestätigt Büdenbender. Auch die Storage Spaces stellten immer einen ausreichend schnellen Speicher bereit, hatten aber noch Probleme, wenn einzelne Platten oder ein komplettes JBOD ausfallen. (Der genaue Testaufbau und die Ergebnisse sind in einem weiteren Tecchannel-Beitrag beschrieben).

Hyper-V-Host
Im POC kamen drei JBODs mit jeweils 12 Server-SSDs und 36 HDDs zum Einsatz, die GAD zu zwei Storage Spaces bündelte. Für die Anbindung an das Hyper-V-Cluster nutzte die GAD RDMA-fähige Switche mit 40 GBit.

Mit dem November-Update vom Windows Server 2012 R2 wurden mittlerweile alle offenen Probleme im Bereich Ausfallsicherheit behoben. „Wir haben also nun ein stabiles System, welches auch einen Ausfall von einzelnen Komponenten gut verkraften kann“, erläutert Büdenbender.

Virtualisierung samt Storage in einem

„Mit dem Building Block sinkt auch die Komplexität. Wir müssen uns für die Bereitstellung des Systems weder mit den Netzwerk- und Firewall- noch mit den Storage-Kollegen abstimmen“, berichtet Büdenbender.

Die Arbeit steckt eher darin, die Zuständigkeit im Rechenzentrum neu zu organisieren. Mit dieser Architektur wird die Speichervirtualisierung direkt im Betriebssystem verankert und kann via grafisches Interface oder über die Powershell verwaltet werden. „Wer wird künftig den Storage und das Netzwerk administrieren  – die Kollegen aus der Netzwerk- und Storage-Abteilung oder die Administratoren?“ fragt Büdenbender.

Wie auch immer die Zuständigkeiten künftig verteilt sein werden, Büdenbender rechnet damit, dass er Anfang 2015 das System erstmals produktiv nutzen kann: „Ich bin sicher, das wird eine unserer künftigen Storage-Technologien für die Virtualisierung werden.“