Das Stichwort Cloud-Services und Virtualisierung ist in der IT-Welt in aller Munde. Die Idee dahinter hat ja auch durchaus eine Berechtigung – anstelle mehrerer physikalischer Rechner die nur teilweise ausgelastet sind, nimmt man einen großen oder gar einen ganzen Cluster im Falle der Cloud und verteilt die Arbeit möglichst gleichmäßig. Im Idealfall wird dadurch stets die optimale Leistung der Hardware auch wirklich genutzt. Das Verteilen und Managen braucht zwar auch Ressourcen, aber ein nur mäßig ausgelasteter Server dreht in der Regel doch eher Däumchen als etwas zu arbeiten – Strom und Kühlung braucht er dann dennoch.
Nachdem ich ja schon Ende 2009 meinen Heimserver mit permanenter Anbindung abschalten musste, weil ich ihn nicht mehr betreuen konnte (mal eben was reparieren, wenn man 6000km weit weg ist, das geht einfach nicht). Meine Wahl fiel damals auf einen VServer – für den Bedarf den ich hatte war das optimal – niedrige Kosten von unter 10 EUR pro Jahr und die Performance ist auch ausreichend.
Erste Probleme hatte ich bei der Einrichtung – denn ich bin nunmal jemand der seine Sachen gerne selbst regelt – das Management Interface „Plesk“ war da für mich eher hinderlich denn sinnvoll – daher musste ich dann das System erstmal auf ein „nacktes“ Linux umstellen – viel Auswahl war nicht, aber CentOS funktioniert doch recht leidlich und ist gut gepflegt. Damit war es dann auch möglich den Mailserver selbst in die Hand zu nehmen und nach den eigenen Wünsche zu konfigurieren – auch die nötigen Freiheiten in Sachen Apache, PHP und MySQL waren dann vorhanden.
Von einigen Problemen bei Wartungsarbeiten in Rechenzentrum und beim Umzug des Rechenzentrums (der Server kam dabei nie von alleine wieder richtig in die Gänge) ist die Arbeit mit dem Gerät eigentlich wirklich nichts anderes als mit einem physikalischen Rechner. Zugriff hat man ja sowieso nur per SSH oder anderen Remote-Zugängen. Für Linux ist das aber unerheblich – und wenn ich es jemals brauchen würde wäre sogar ein Tunnel mit X-Forwarding ein gangbarer Weg.
Nach den letzten Wartungsarbeiten hatte ich unerwartete Probleme die ich so bisher nicht kannte – der Server lief am Anschlag der Belastungsgrenze – es gab kuriose Abstürze die mir teilweise den Mailempfang lahmgelegt haben. Anfänglich habe ich mir bei dem Ausfall nicht viel gedacht, aber die Symptomatik blieb – also doch etwas tiefer einsteigen in die Sache. Das Ergebnis war ernüchternd: Neben den schönen beworbenen Eigenschaften des Servers bezüglich CPU und RAM-Verfügbarkeit gibt es bei der Virtualisierung Fallstricke, die man auf Anhieb nicht sieht und von denen ich auch in den Vertragsunterlagen erst mal nichts genaueres gefunden habe. Problematisch stellte sich für mic aus – der Kopf überrdet den Unterbau jede Runde – man motiviert sich, dass es ja nicht mehr so weit ist. Noch 12 Runden sind es, im Kopf beginnt sich das Bild einer rückwärtslaufenden Analog-Uhr zu bilden – mit jeder Runde schiebe ich den Zeiger gedanklich eine zwölftel Umdrehung nach hinten, Ziel sind dabei immer die markanten Punkte 9, 6 und 3 Runden die noch vor mir liegen. Wichtig wird dabei vor allem das Treppenhaus bergan. Mittlerweile fordert das nämlich seinen Tribut. In Runde zehn vor dem Ende machen sich leichte Krampfansätze in der Kniekehle bemerkbar – ich laufe die Runde dann bewusst mit streckenden Schritten und kippe zwei Becher Iso in mich hinein. Der große Krampf ist somit abgewendet.
Noch 5 Runden – nicht mehr ganz 4km – ich überlege wo ich wohl auf meinen Heimatstrecken gerade wäre, und zähle laut vor jedem Anstieg: h nämlich tatsächlich der genutzte Arbeitsspeicher heraus – der war für den Mailserver samt Viren- und Spam-Scanner doch etwas knapp – dazu setzte ich als „Klebe-Software“ Amavisd ein, das sorgt für die Kommunikation zwischen den Komponenten und führt die Scans durch. Wenn diese Software dann mit einer Fehlermeldung „not enough memory“ absemmelt, dann ist das Schlamassel vorprogrammiert – denn eine mail mit der Fehlermeldung geht dann natürlich auch nicht mehr. Nun dachte ich mir anfänglich auch hier: Ist ja nicht schlimm – das Problem mit dem zu klein geratenen Arbeitsspeicher kannte ich ja von meinem physikalischen Server stellenweise auch – dort habe ich kurzerhand eine SWAP-Partition eingerichtet und schon hatte die Kiste wieder Luft zum Atmen.
Das ein Swapfile auf die Performance geht ist mir dabei bewusst, aber lieber ein etwas langsameres Swapfile als ein abgestürzter Prozess. Nur eines war an meinem VServer komisch: Der hatte kein Swap-File und anlegen lies sich auch keines. Schritt für Schritt wurde mir dann klar, dass es sich hierbei um eine Restriktion der Virtualisierung handelt – zugegebener Maßen eine ziemlich ekelhafte. Denn für mehr Arbeitsspeicher möchte der Anbieter natürlich auch gleich mal mehr Geld. Das macht keinen Spaß, wenn man den Arbeitsspeicher immer nur punktuell mal entsprechend braucht.
Ich habe jetzt erst mal die Prozesse etwas eingeschränkt und ein paar Sparmaßnahmen eingläutet – das geht zu Lasten der Performance, aber damit muss ich jetzt erst mal leben. Als langfristige Abhilfe werde ich mir wohl oder übel etwas überlegen müssen – wahrscheinlich ein vollwertiger Root-Server auf dem ich dann auch tun und lassen kann was ich will – kostet natürlich auch mehr aber die Restriktionen im VServer sind mir erstmal etwas zu heftig und vor allem gibt kaum ein Anbieter da freiwillig Auskunft drüber, welche Beschränkungen er wo angezogen hat. Auch überdenkenswert wäre es, sich wieder einen eigenen Rootserver daheim hinzustellen – aber das ist halt nicht wirklich so einfach und von den Kosten her nicht unbedingt günstiger. Wobei man bei den Kosten ggf. auch gegenrechnen muss, was man mit dem Server an Heizkosten in der Wohnung einspart – meine Erfahrungen diesbezüglich sagen mir: Man braucht keine Heizung wenn man einen Rechner 24h am Tag laufen hat – die Raumtemperatur sinkt dann auch im Winter nicht übermäßig ab. Dafür hat man dann ggf. den Lärm und von einer wirklich breitbandingen Anbindung kann man in aller Regel auch nur träumen. Einen Server an einer DSL-Leitung zu betreiben ist zwar durchaus möglich aber wirklich Durchsatz kann man da natürlich nicht erwarten. Oder man zahlt sich dumm und dämlich bei einem Profi-Anbieter – zumal ja auch eine feste IP notwendig wird.
Insgesamt stand ich der Sache mit Virtualisierung und Cloud immer schon recht skeptisch gegenüber – Hardware die man anfassen kann ist doch durch nichts zu ersetzen – nach dieser Erfahrung bin ich da noch vorsichtiger geworden. Mal sehen wann der Hype der Cloud vorbei ist und man die Techniken wieder so einsetzt wie es sinnvoll ist.