Green IT oder Greenhorns?

03.07.2012 21:20 von /cbx, derzeit 2.23470 Kommentare

Send to Kindle

Die Medien haben es in den letzten Tagen schon weit über das erträgliche Maß breitgetreten. Deshalb ist genau jetzt die absolut perfekte Zeit für mich, dem Thema doch noch hinterher zu hecheln. Und zwar so:

Es dürfte sicherlich absolut niemandem entgangen sein, dass schon am Ende des 30. Juni 2012 beinahe die Welt, wie wir sie kennen, ein knappes halbes Jahr zu früh aufgehört hätte zu existieren. Um 0:00 Uhr UTC raste eine von fanatischen Astronomen erzwungene Schaltsekunde einem Tsunami gleich durch die Rechenzentren dieses Planeten und zwangen unzählige Linux-Server in eine Endlosschleife, die deren CPU-Auslastung sprunghaft auf 100% ansteigen ließ.


[Ein Stück Himmel auf dem Weg zur Hölle?]

Die Konsequenzen waren vielschichtig. Viele wichtige Internet-Dienste waren nach diesem Vorfall nur mehr eingeschränkt erreichbar, darunter nicht nur Spaßseiten wie Quantas Airlines, sondern auch lebenswichtige Infrastrukturen wie Reddit, FourSquare oder LinkedIn. Es mag für viele als unwiderlegbarer Gottesbeweis gelten, dass facebook nicht betroffen war. Und auch von meinen vier Servern waren genau 0 betroffen, auch wenn ich das definitiv nicht als Gottesbeweis werten möchte.

Mit diesem Kommentar könnte man es schon beinahe bewenden lassen – die blindwütigen Flamewars der Top-Experten von eigenen Gnaden in den diversen Online-Foren füllen ganze Plattenracks und gehen doch kaum über tumbe Schwanzvergleichs- und Religionsrhetorik hinaus. Ich möchte nur einen eigenen Satz dazu beitragen (zu welcher Kategorie der gehört, mag dann jeder selbst entscheiden): “Ein Bug, dessen Trigger durchschnittlich einmal im Jahr für knapp eine Sekunde auftreten kann, darf auch echten Könnern gelegentlich durch die Lappen gehen”

Was mich weitaus mehr beeindruckt hat, ist ein Mail, das wir heute von der Hetzner AG, unserem Hostingprovider bekommen haben:

Sehr geehrter Herr /cbx,

in der Nacht vom 30.06.2012 auf den 01.07.2012 registrierten unsere internen Überwachungssysteme einen Anstieg des IT-Stromverbrauchs um etwa ein Megawatt.

Grund für den enormen Anstieg ist die zusätzliche geschaltene Extrasekunde, die auf Linux-Rechnern zu dauerhafter CPU-Auslastung führen kann. […]

Ich schreibe das nochmals fett hin: Allein bei Hetzner sorgte der Fehler für einen einen Anstieg des IT-Stromverbrauchs um etwa ein Megawatt. Ein Megawatt! Mit dieser Leistung könnte man einen mittleren Stadtteil (oder ein ganzes Dorf) mit Strom versorgen. Dabei beziffert diese Zahl lediglich den “IT-Stromverbrauch”, Folgeverbrauch durch gestiegene Kühllast und dergleichen sind dabei also noch nicht einmal berücksichtigt.

Wenn man jetzt bedenkt, dass in einem durchschnittlichen Rechenzentrum nur zwischen 1% und 3% der (physischen oder virtuellen) Rechner problembedingt mit voller Last arbeiten (genau genommen nicht arbeiten), dann wird plötzlich ganz anschaulich klar, welche enormen Mengen an Energie in Rechenzentren vernichtet (→in Wärme umgewandelt) werden, nur damit narzisstische Idioten wie ich ihre persönliche Befindlichkeit jederzeit an einer desinteressierten Weltöffentlichkeit vorbei dokumentieren können.

An dieser Stelle kann nun jeder den Weltungergangsbeitrag seiner eigenen Blogaktivitäten überschlagen (mein Umweltgewissen ist rein). Ich aber möchte abschließend noch einen kleinen Schritt weiter gehen.

Das aktuelle Beispiel zeigt drastisch, dass der Energiebedarf moderner Rechner (anders als in der 8bit-Zeit) extrem von deren Auslastung abhängt. Deshalb macht es heute einen enormen Unterschied, welche Serverhardware man betreibt und auch mit welcher Software. Es war eine goldrichtige Entscheidung, unseren Server curacao von einem alten dedizierten AMD-Athlon-XP-1700 auf einen günstigen virtuellen Server zu migrieren. Curacao wird im Durchschnitt nicht mehr als 5% ausgelastet (obwohl er ohnehin schon auf der kleinsten und billigsten virtuellen Instanz läuft), er teilt sich die Hardware mit 10 bis 100 virtuellen Kollegen, womit sich der Grund-Energieverbrauch anteilig auf die virtuellen Instanzen verteilt.

Unser Hauptserver dominica benötigt gelegentlich mehr CPU-Power und Speicher, sodass wir hier bei einem dedizierten Server geblieben sind. Seit ein paar Tagen aber weiß ich, dass auch die Softwareausstattung maßgeblich zum Verbrauchsprofil beiträgt. Fette Werkzeuge wie der Webserver Apache, besonders in Verbindung mit php und MySQL stellen sicher eine suboptimale Kombination dar, wenn es darum geht, sparsam mit dem kostbaren Strom umzugehen. Effizientere Webserver wie nginx, modernere Tools wie Ruby on Rails und eine schlankere Datenbank (Vorschläge anyone?) würden hier sicher in der Jahresbilanz eine deutliche Verbesserung bringen. Multipliziert man dies mit der Anzahl von Servern in einem Rechenzentrum, so dürften am Ende dieser Berechnung sogar sehr ansehnliche Zahlen stehen.

In der Praxis aber verrechnet Hetzner den Energiebedarf der Server nicht gesondert, weshalb mein Beitrag zur Errettung des Planeten wohl noch etwas auf sich warten lassen wird…

/cbx, Kategorie: Linux LeidenSchaf(f)t -

 

Eigener Senf dazu?

  1. Hanz Moser gab am 4. Juli 2012, 01:20 folgenden Senf dazu:

    Wie wäre es mit DB2? Das unterstützt sogar check Klauseln!
    Nein, Scherz, DB2 stinkt einfach nur zum Himmel und ist so fett, dass es gerne mal fast ne Minute nur zum Erstellen einer leeren DB braucht…

    Versuch doch mal was zu finden, das auf SQLite basiert. Das sollte relativ schlank sein.

    Und was die Betrachtungen zum Stromverbrauch angeht:
    In Zeiten von Röhrenmonitoren hätte es gigantische Einsparungen gegeben, hätte Google einen schwarzen Hintergrund gehabt.
    Mit den andauernd hoch und runter dimmenden LEDs und der enormen Menge an Zeit, die auf den Seiten der Googlesuche verbracht werden, wäre das auch fast wieder eine Idee.

    Man müsste auch, um das MW in Relation setzen zu können, wissen, wie der normale Verbrauch aussieht. Gehen wir mal davon aus, dass eine hängende CPU etwa 100W frisst. Die TDP erreicht so ein Deadlock idR nicht, aber es hängt ja noch Peripherie dran…
    Dann sind ein kW 10 CPUs, ein MW also 10000. Gehen wir mal davon aus, dass während der Schaltsekunde so ziemlich alles idle war. Dann ist das immer noch ein verdammt dickes Rechenzentrum, und natürlich ausnahmslos jedes System betroffen.

    Jetzt hat Hetzner, afaik, zwei dicke Rechenzentren von jeweils gut 1000m², eines davon in der Sigmundstraße in Nürnberg. Das wären also rund 1kW Mehrbelastung pro Quadratmeter. Je nach dem wie dicht so eine Bude bepackt ist, sind 1kW bis 4kW pro m² normal, 8kW und mehr gibt es aber durchaus.

    Meine Vermutung wäre, da ja bei weitem nicht alle Server betroffen waren, dass das extra Megawatt für die gesamte Sigmundstraße, bzw. das Rechenzentrum da, galten. Das Ding hat, iirc, irgendwas um die 40.000qm. Wenn wir da von 10000 CPUs ausgehen, ist das eine pro 4qm. Scheint wieder wenig zu sein, aber wenn wir realistischer von 50 extra Watt pro CPU ausgehen, oder weniger, ist es eine pro 2m².

    Jetzt müsste man AusfallQUOTEN von den Linuxbüchsen kennen. Dann könnte man abschätzen, was realistischer ist…

    /cbx meint dazu:

    Solche Rechenspielchen habe ich gestern auch veranstaltet. Dann hat Hetzner Heise freundlicherweise ein Diagramm zukommen lassen. Das RZ ist also von ungefähr 8 auf ungefähr 9MW gesprungen - das sind immerhin 10% und damit deutlich mehr als ich angenommen hatte.

    Ach ja. Mir gefallen auch die scharfen Peaks im Lastdiagramm, die von den sekundengenau stündlich gestarteten Cronjobs stammen...

  2. Hanz Moser gab am 4. Juli 2012, 20:41 folgenden Senf dazu:

    Interessant. Die 10% erstaunen mich jetzt aber nicht. Ich weiß ja auch nicht, wie viel Prozent der Rechner betroffen waren…

    Und ja, das Problem mit der Synchronität gewisser Dinge kenne ich. Man wecke die 50 Rechner gleichzeitig auf, dann gehe man zum Sicherungsschrank, schalte 3 Sicherungen wieder ein und passe seine WoL Routine an…

    /cbx meint dazu:

    Ja, dieser typisch menschliche Hang zu glatten Zahlen. Meine Cronjobs laufen alle zu ganz schrägen Zeiten. Ich habe es aber beispielsweise bis heute nicht geschafft, unserem Konstrukteur klar zu machen, dass es im Jahr 2012 ziemlich egal ist, ob ein Maß 380mm oder 379.725mm ist. Den CNC-Maschinen ist das nämlich herzlich egal und nachmessen....

Kommentarfunktion für diesen Artikel geschlossen.