Großrechner bei Fujitsu und IBM sind nicht nur IT-Geschichte

Der fitte Senior in der IT – der Mainframe und was man von ihm lernen kann

Seite: 3/4

Anbieter zum Thema

Die Virtualisierung geht weiter

Verfügt beispielsweise ein System über vier Netzadapter mit je zwei Ports, dann stehen diese acht Ports jeder Betriebssystem-Instanz voll zur Verfügung. „Jedes Betriebssystem glaubt, diese acht Ports gehören ihm alleine. Der Hypervisor sorgt dann dafür, dass jeder das bekommt, was er braucht“, beschreibt Trauner ein Beispiel. Der Hypervisor regelt also den Verkehr und die Gewichtung zwischen den logischen Partitionen.

Bildergalerie
Bildergalerie mit 7 Bildern

Innerhalb der logischen Partitionen kann bei IBM nochmal ein anderer Hypervisor benutzt werden, der eigentlich auch ein Betriebssystem ist: VM. Damit können in der logischen Partition wieder mehrere Betriebssysteme gefahren werden. „Manche Mainframe-Anwender nutzen nur Linux auf dem Großrechner und nutzen VM als Hypervisor“, berichtet Trauner aus der Praxis.

Das hat sich in solch einer Konstellation bestens bewährt, da Linux großen Speicherbedarf hat und VM mehr Memory vorgaukelt, als tatsächlich vorhanden ist, eine Technik, die sich „Memory Overcomitment“ nennt. „PR/SM ist also der Hardware-Hypervisor und VM kann als Software-Hypervisor bezeichnet werden“, fasst Trauner zusammen.

Cluster und Emulation

Hardware-Partitionierung findet man seit langem in verteilten Systemen und auch die Unterteilung der Ressourcen über Software hat dort – etwa bei Suns-Container-Technik – Einzug gehalten. „Jetzt geht es bei den verteilten Systemen darum, wie sauber die Partitionen isoliert sind und ob Mandantenfähigkeit erreicht wird“, beschreibt Fujitsu-Manager Strotmann das Szenario. Er glaubt, dass der Mainframe in puncto Virtualisierung schon noch Vorteile bietet allerdings sei in dieser Technik so viel Momentum enthalten, „dass vielleicht einiges auch zurück zum Mainframe kommt“.

Fujitsu-Manager Strotmann: "Jetzt geht es bei den verteilten Systemen darum, wie sauber die Partitionen isoliert sind und ob Mandantenfähigkeit erreicht wird.“
Fujitsu-Manager Strotmann: "Jetzt geht es bei den verteilten Systemen darum, wie sauber die Partitionen isoliert sind und ob Mandantenfähigkeit erreicht wird.“
(Bild: Fujitsu)

Baut man Cluster aus PCs auf, dann steht meist Rechner neben Rechner. Jeder hat seine Festplatte und man teilt die Ressourcen normalerweise nicht. Dieses Prinzip des „shared nothing“ steht beim Mainframe-Verbund das Gegenteil, „shared everything“, gegenüber. Besonders die Plattenbereiche werden gerne gemeinsam genutzt.

Das hat dann etwa den Vorteil, dass eine Datenbank auf mehr als einer Maschine betrieben werden kann, wie IBM-Manager Trauner beschreibt: „Die Mainframes sind dann über „Parallel Sysplex“ gekoppelt und die Datenbank ist auf allen Systemen gleichzeitig aktiv, das heißt: „Auf allen Maschinen kann gleichzeitig gelesen und geschrieben werden.“

Synchronisierung und Konsistenz

Für die Datenkonsistenz trägt die Coupling Facility Rechnung. Der Ausfall eines Systems hat praktisch keine Bedeutung für den laufenden Betrieb.

Ein Beispiel dafür, dass Mainframes Cluster-Techniken von verteilten Systemen nutzen, ist die Programmiertechnik „Transactional Memory“, die IBM bei seinem Unix-System „BlueGene“ eingesetzt hat. Ziel dabei ist es, die Synchronisierung im Rechnerverbund sicherzustellen, das Tempo aber zu erhöhen.

Früher schlossen Locking-Mechanismen aus, dass bei einer Änderung im Memory andere Rechner auf diesen Bereich zugreifen konnten, das war zwar sicher aber umständlich. Mit dem neuen Verfahren entfällt die Blockade, weil es statistisch gesehen, sehr unwahrscheinlich ist, dass genau das zu verändernde Feld nochmal aufgerufen wird.

Artikelfiles und Artikellinks

(ID:42527661)