Doppelter Schutz durch Georedundanz: So funktioniert 1&1 Dual Hosting

Mit 1&1 Dual Hosting bieten wir seit Mai 2011 den doppelten Schutz der Georedundanz – alle Daten werden in zwei Rechenzentren an unterschiedlichen Standorten doppelt gespeichert. Mit unseren neuen Hosting-Plattform können wir eine 99,99 prozentige Verfügbarkeit von Webspace, Datenbanken und E-Shops garantieren. Welche Technik eigentlich hinter Dual Hosting steht, wollen wir euch mit diesem Beitrag erklären.

[youtube]JIzxOlIywfI[/youtube]

Die Websites und Datenbanken im so genannten Shared-Hosting – hier teilen sich mehrere Kunden Hard- und Software – werden auf neuester Cluster-Hardware betrieben. Diese Technologie sorgt auch unabhängig von der Geo-Redundanz bereits für eine Absicherung gegen Ausfälle einzelner Komponenten. Die neue Shared-Hosting-Plattform ist modular, so dass beispielsweise die Frontends mit den Webservern von den Storage-Einheiten, dem eigentlichen Datenspeicher, getrennt sind. Das eröffnet viele neue Möglichkeiten, die zur Verbesserung von Leistung, Verfügbarkeit und Qualität beitragen – etwa die Replikation von Daten oder die flexible Zuordnung von Festplatten-Speicherplatz.

Leistungsstarke Infrastruktur

Die Hardware besteht auf Seiten der Frontend-Server aus IBM Bladecentern, die pro Blade mit einem Intel Xeon Quadcore Prozessor mit 2,5 GHz und bis zu 12 GB Arbeitsspeicher bestückt sind. In jedem Rechenzentrum gibt es aktuell etwa 1.000 dieser Frontends. Gespeichert werden die Daten auf erweiterbaren externen Storageeinheiten mit SAS-Festplatten und derzeit bis zu 20 TB Speicherplatz pro Einheit. Etwa 150 dieser Einheiten sind pro Rechenzentrum vorhanden. Die Bladecenter sind mit einer 1-GBit/s-Netzwerkanbindung mit den Storageeinheiten verbunden. Bei hoher Auslastung können jederzeit weitere Links aufgeschaltet werden, um die Bandbreite zu erhöhen. Zusätzlich gibt es noch ca. 250 MySQL-Datenbankserver pro Rechenzentrum. Alle Netzwerkkomponenten sind ebenfalls doppelt vorhanden, und alle Infrastrukturbestandteile erfüllen mindestens eine n+1 Redundanz.

Als Betriebssystem nutzen wir ein modifiziertes Debian-Linux. Zur Erhöhung der Sicherheit gegen Angriffe aus dem Netz wurde der Linux-Kernel mit verschiedenen Erweiterungen angepasst, darunter auch das Sicherheitsframework grsecurity. Diese Kernel-Erweiterungen verfeinern die RBAC (Role-Based-Access-Control) deutlich über das im Standard-Kernel vorhandene Maß. So bekommen Nutzer nur die Rechte, die absolut notwendig sind. Neben vielen anderen Verbesserungen sorgt grsecurity auch dafür, dass ein Ausbrechen aus einer chroot-Umgebung deutlich erschwert wird. Auch PaX, das unter anderem diverse Speicherschutzfunktionen beinhaltet, ist in grsecurity integriert. Als Webserver setzen wir einen mit hauseigenen Modifikationen versehenen Apache ein. Auf den Linux-Frontends startet dieser Prozesse der Kunden (z. B. PHP) in einer chroot-Umgebung. Um die CPU- und Speicherressourcen dynamisch zwischen den Kunden zu verteilen, kommt unter anderem das Linux-eigene rlimits in einer leicht modifizierten Variante zum Einsatz. Bei Kunden, die sich für Windows entscheiden, läuft das Web-Frontend mit Windows Server 2008. Die Storage-Infrastruktur ist mit der der Linux-Kunden identisch.

Die Überwachung der gesamten Infrastruktur wird mit der Nimsoft Monitoring Solution, einem Message-Bus-basierten Push/Pull-System, vorgenommen. Dieses ebenfalls georedundante System wurde mit umfangreichen hauseigenen Monitoring Probes angepasst.

Synchronisation der Rechenzentren

Das Entscheidende an einer Hochverfügbarkeits-Lösung ist natürlich eine einwandfreie Synchronisation und die möglichst schnelle Umschaltung im Fehlerfall. Um die Datenbestände auf den Servern synchron zu halten, kommt das Open-Source-Software-Modul DRBD (Distributed Replicated Block Device) zum Einsatz, das bereits zum Standardumfang vieler Linux-Distributionen gehört. Über dieses Modul lassen sich blockbasierte Speichereinheiten über Netzwerke hinweg synchronisieren. Die Synchronisationsverbindung zwischen den Rechenzentren läuft über ein internes geschütztes Netz.

Kommt es zu einer Störung, dauert es ca. 100 Sekunden, bis die Umschaltung auf den zweiten Server vollständig erfolgt ist. Zunächst müssen alle Dienste auf dem ausgefallenen  Rechner beendet sein. Ist das der Fall, kann die Datenpartition auf dem Gegenüber aktiviert und die Replikationsrichtung umgekehrt werden. Nachdem ein Frontend zugeordnet wurde, müssen noch die Dienste gestartet und das IP-Routing über das Border-Gateway-Protokoll (BGP) auf den neuen Standort umgeleitet werden. Umschaltungen zwischen den Einheiten sind vom ganzen Rechenzentrum bis zur kleinsten Granularität möglich. Auch bei Wartungsarbeiten wird vorübergehend auf das zweite Rechenzentrum umgeschaltet, um eine längere Downtime zu vermeiden. Zusätzlich zu der beschriebenen Hochverfügbarkeitslösung werden in einem dritten, ebenfalls in Karlsruhe befindlichen Rechenzentrum regelmäßige Backups erstellt.

Durch die Realisierung der Kernkomponenten des Systems mit Open-Source-Lösungen und hauseigenen Entwicklungen wurde eine kostensparende und sehr flexible Umsetzung ermöglicht. Damit auch in Zukunft eine schnelle und sichere Hosting-Plattform angeboten werden kann, werden die Systeme in naher Zukunft auf Debian Squeeze aktualisiert und außerdem vollständig IPv6-tauglich gemacht.

 

 

Kategorie: Produkte | Server & Hosting
7 Kommentare
  1. 7. Juni 2011 um 13:06 |

    Sehr objektive, ehrliche und sachliche technische Erklärung und kein Markeintg bla bla. Sehr schön! Sowas liest und hört man gerne.

  2. 7. Juni 2011 um 14:11 |

    Hallo,
    ich finde eure technischen Artikel immer höchst interessant und lese sie (als ITler) sehr gerne!
    Wenn ihr mal ein paar Ideen für weitere technische Artikel braucht:

    * Wie sieht eure VOIP-Infrastruktur aus (Software? Asterisk? Mit welchen Gateways regelt Ihr den Übergang in das POTS)
    * Mailserver-Architektur
    * Details über die Storage-Systeme
    * Aufbau der Netze (VLans, etc)
    * Wie funktioniert das BGP-Protokoll

    Gruß
    christian

    1. 7. Juni 2011 um 14:13 |

      Hallo Christian,
      vielen Dank für die Vorschläge, wir nehmen sie gern mal auf.
      Grüße,
      Deborah Overstreet, 1&1

    2. 7. Juni 2011 um 20:19 |

      Kann mich dem nur anschließen. Sehr interessantes, sachliches Video mit sehr guten Hintergrundinformationen. Tiefergehende Videos vor allem vom RZ wären auch ganz interessant. ;)

  3. 7. Juni 2011 um 16:02 |

    Hallo,

    Sehr gut. Gefällt mir sehr. Wollte schon immer wissen, wie es bei “euch” innen aussieht :-)

    Schön wäre es, wenn man auch mal die Servertechnik ansich vorstellt, d.h. das Rechenzentrum mal etwas zeigt :-)

    Gruß,

    Christopher

Die Kommentare sind geschlossen.