Anforderungen an den Server im IT-Netzwerk: Redundanz im System

In der Client/Server-Architektur sind Server der Kern des unternehmensweiten IuK-Netzwerks. Redundanz des Systems bürgt für Ausfallsicherheit und Leistung.

Einzelne Rechner-Komponenten steigern zwar die Leistung eines Rechners – wichtig ist jedoch, dass die Einzelkomponenten im System insgesamt zusammenpassen. Das gilt insbesondere für den Server im Firmennetzwerk. Die hierarchische Client/Server-Architektur dominiert heute in Firmennetzwerken. Clients (oder: Workstation, Arbeitsstation, Frontends) nehmen die Dienste von spezialisierten Rechnern (Servern oder Backends) in Anspruch. Zum Beispiel fordert der Client Daten an, die der Server für ihn bereitstellt.

Die schiere Rechenleistung muss bei Client- oder Server-Rechner nicht einmal bedeutend differieren. Ausfallsicherheit und Zuverlässigkeit bezeichnen die wichtigsten Unterscheidungsmerkmale zwischen einem Server und einer normalen Arbeitsstation im Netz. Prozessorgeschwindigkeit, Bussystem und Festplattencontroller mit dem Speichermedium müssen beim Server optimal zusammenwirken. Insbesondere ist aber Redundanz vonnöten: und zwar zum einen im Server selbst, zum anderen innerhalb des kompletten Server-Systems, d.h. also eine Redundanz von Servern.

Client-Server-Netze im Vergleich zu Mainframe-Systemen

Die Definition der Client/Server (C/S) – Architektur sagt zunächst nichts darüber aus, welchen Anteil der Applikation der Client beziehungsweise der Server übernimmt. Die entfernte Datenbank ist momentan die Standardtechnik in lokalen Netzen: ein spezieller Server-Rechnerbeherbergt und verwaltet die Datenbank. Oft wird der Begriff der entfernten Datenbank sogar gleichgesetzt mit der C/S-Architektur, obwohl Letztere nur ein Sonderfall innerhalb des Client-Server-Prinzips ist.

Server sind nicht nur beim Modell der entfernten Datenbank der zentrale Punkt, von dem das gesamte Wohl und Wehe einer Firma abhängt. Ob Bank oder Rechtsanwaltsbüro – wenn die Daten auf dem Server weg sind, geht gar nichts mehr, ist die Firma eventuell sogar nicht mehr geschäftsfähig. Ist die Datenbank mit unternehmenskritischen Daten nicht verfügbar, sind Verluste in Millionenhöhe für größere Unternehmen eine gar nicht abwegige Horrorvision.

Auch wenn Großrechner-Systeme lange Zeit als Dinosaurier der EDV galten: Gegenüber Mainframe-Systemen weisen C/S-Netze Mängel auf, was Input/Output (I/O)-Leistungen und Ausfallsicherheit angeht. Ein gut ausgestatteter Server mag einen Großrechner in der reinen Performance des Hauptprozessors hinter sich lassen. Mit eigenen Prozessoren ausgestattete Subsysteme gewährleisten aber beim Großrechner einen I/O-Durchsatz auch bei sehr hohen Nutzer-Zahlen, den bisher kein Server erreicht. Bei Großrechnern kann man außerdem von nahezu 100 Prozent Verfügbarkeit ausgehen – selbst notwendige Wartungsarbeiten werden im laufenden Betrieb ausgeführt, indem nur Subsysteme heruntergefahren werden.

Server als Single Point of Failure

Das Grundproblem für EDV-Leiter und Administratoren stellt deswegen die Tatsache dar, dass jeder Server ein Single Point of Failure (SPOF) ist. Fällt der Server aus, steht das ganze Netzwerk still, kann kein Anwender mehr weiterarbeiten (es sei denn, alle Daten stünden ihm zusätzlich auch lokal zur Verfügung).

Aber auch ein stabiler und verfügbarer Server nutzt gar nichts, wenn er die Daten zu langsam ins Netz beziehungsweise zu den Anwendern bringt. Bislang beseitigte man Performance-Probleme vor allem durch schnellere Prozessoren und mehr Speicher. Das reicht aber lange nicht mehr, denkt man an die Unterstützung Tausender von Usern oder gar an multimediale Dienste, die der Server bieten muss.

Mehr zum Thema

  • Heterogene Netze und Network-Computing in der Netzwerkarchitektur
  • Peer-to-Peer und Client/Server-Systeme in IT-Netzwerken
  • Workstations, Midrange, Mainframes – IT-Grundlagen Rechnersysteme

Verfügbarkeit und Zuverlässigkeit lassen sich durch Redundanz erhöhen. Zwei Wege sind dabei gangbar: Redundanz im Server selbst oder Redundanz der Server. Bei ersterem sind die Subsysteme wie Festplatten, Controller, Netzwerkkarte oder Netzteil im Server mehrfach vorhanden. Bei letzterem sind es die Server selbst, die mehrmals verfügbar sind.

Daneben gehört zu den grundlegenden Maßnahmen auch die Kontrolle der Umgebungsdaten wie Raumtemperatur und Feuchtigkeit sowie der entsprechenden Parameter im Server selbst. Speziell für Server ausgelegte Motherboards von Asus oder Abit überwachen die Drehzahl der diversen Lüfter, die CPU-Temperatur, Luftfeuchtigkeit, Raumtemperatur und andere physikalische Daten. Managementspezifikationen wie „Wired for Management“ stellen die entsprechenden Schnittstellen bereit, um die so gesammelten Daten auch per Software überwachen und auswerten zu können.

Übersicht: Anforderungen an Server

  • Zuverlässigkeit
  • Verfügbarkeit
  • Performanz (Geschwindigkeit)
  • Wartbarkeit

Optimierung einzelner Komponenten: Netzteil und USV

Die wohl am häufigsten redundant ausgeführten Subsysteme im Server sind die Netzteile. Mindestens zwei sollten es sein, besser noch drei. In professionellen Geräten z.B. von IBM teilen die Netzteile die Last unter sich auf, sodass nicht ein Modul am Rand des Zusammenbruchs steht, während das andere im Leerlauf vor sich hin dümpelt. Eine leistungsfähige USV (Unterbrechungsfreie Stromversorgung) ist außerdem Pflicht. Um das IT-System möglichst leistungsfähig und sicher auszulegen, ist der Prozessor diejenige Server-Komponente, die ein Hauptaugenmerk erhält.

Zusammenfassung: Redundanz im Server

Einzelne Komponenten steigern die Leistung eines Rechners – wichtig aber: die jeweils besten Einzelkomponenten zusammenzufügen, bringt nichts: das System muss insgesamt zusammenpassen.

  • Netzteil
  • USV
  • Prozessor: Leistung (in MIPS) abhängig von
    • Taktfrequenz
    • Breite des Datenbusses
    • Anzahl parallel laufender Prozessoren
  • Arbeitsspeicher (RAM)
    • Für Server gilt: „Nichts ersetzt Arbeitsspeicher als noch mehr Arbeitsspeicher!“
    • Leistung abhängig von Zugriffszeit
    • SDRAM für RAM-Cache, DDRAM für „normalen“ Hauptspeicher
  • Festplatte und Controller
    • Speicherkapazität
    • Zugriffszeit
    • Datenübertragungsrate (vom Controller abhängig)
    • RAID für bessere Performance und Ausfallsicherheit
  • Netzwerkkarte
    • Redundante Verbindungen zwischen Servern und Netzwerkkomponenten erhöhen die Ausfallsicherheit und erlauben höheren Datendurchsatz.
    • Redundante Netzwerkkarten Voraussetzung für Load Balancing.
  • Hot Plugging: Auswechseln von Rechnerkomponenten im laufenden Betrieb zur Erhöhung der Verfügbarkeit
    • Komponenten müssen hot-pluggable sein
  • Racksysteme – Vorteile:
    • skalierbar
    • wartbar (man kann schnell an die jeweiligen Baugruppen gelangen)

Kurz und Knapp:

Redundanz in und von Servern sichert Hochverfügbarkeit und Performance

Einzelne Server sind immer ein Single Point of Failure (SPOF).

Webserver-Konzepte

  • Server-Farm besteht aus mehreren Servern, die die gleiche Dienste-Art zur Verfügung stellen und mit gespiegelten Datenbeständen arbeiten. Jeder Server ist für eine besondere Aufgabe zuständig.
  • Load Balancing: Fällt ein Server aus oder ist er überlastet, leitet der Load-Balancer Anfragen auf einen verfügbaren Server in der Server-Farm weiter.
  • Clustering: Mehrere Rechner teilen sich eine Aufgabe.
  • Redundantes Netzwerkdesign.

Backup

  • am sichersten mit Bandlaufwerken
  • Methoden: Restore-Window, 3-Generationen-Methode, Komplett/Inkremental/Differential-Backup, Online-Backup

Snapshot-Techniken: „Schnappschuss“ des Systems

  • SAN (Storage Area Network): eigenes Netzwerk nur für Massenspeicher, an das die Server angeschlossen werden.
  • NAS (Network Attached Storage): ans Netzwerk angeschlossener Speicher – wie Festplatte oder Rechner mit Netzwerkanschluss, allerdings ohne I/O-Möglichkeiten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.