Data Center Architecture

Die moderne Rechenzentrumsarchitektur hat sich von einer lokalen Infrastruktur zu einer Infrastruktur entwickelt, die lokale Systeme mit Cloud-Infrastrukturen verbindet, in denen Netzwerke, Anwendungen und Arbeitslasten in mehreren privaten und öffentlichen Clouds virtualisiert werden. Diese Entwicklung hat die Architektur von Rechenzentren beeinflusst, da alle Komponenten eines Rechenzentrums nicht mehr an einem gemeinsamen Standort liegen und unter Umständen nur noch über das öffentliche Internet füreinander zugänglich sind.

Werfen wir einen Blick auf die neuesten Fortschritte in den Netzwerk-, Rechen- und Speichertechnologien des Rechenzentrums.

Demo anfordern IDC Hybrid Rechenzentrum Einkaufsführer

Datenverarbeitung im Rechenzentrum

Fortschritte bei der Virtualisierung von Infrastrukturkomponenten ermöglichen es den Mitarbeitern, Systeme und Anwendungen je nach Bedarf schnell hochzufahren, um den Anforderungen gerecht zu werden. Beispielsweise isolieren Hypervisor-Umgebungen die von Virtuelle Maschine (VMs) verwendeten Rechen- und Speicherressourcen von den Ressourcen der Bare-Metal-Hardware. Containersysteme stellen virtuelle Betriebssysteme bereit, auf denen Anwendungen ausgeführt werden können. Sowohl VMs als auch containerisierte Anwendungen sind portierbar und können je nach Bedarf vor Ort oder in einer öffentlichen Cloud ausgeführt werden.

 

Während Virtuelle Maschine und Anwendung eine schnellere Bereitstellung von Infrastruktur und Anwendung ermöglichen, löst Edge Computing ein anderes Problem und verlagert Rechenressourcen an den Rand, wo sich die Daten befinden, wodurch die Latenz- und Bandbreitenprobleme reduziert werden, die beim Transport auftreten.

 

Ein primärer Anwendungsfall, den Edge Computing löst, ist die Verarbeitung der Daten, die von Remote Internet der Dinge Gerät generiert werden. Echtzeitanwendungen wie die Videoverarbeitung und -analyse für selbstfahrende Autos und Robotik erfordern eine Verarbeitung in Randnähe. Es sind Mikrorechenzentren entstanden, bei denen es sich um verteilte und kompakte Einheiten handelt. Diese Einheiten sammeln, verarbeiten, analysieren und speichern Daten in der Nähe des Edge-Geräts, das die Daten sammelt und das Ergebnis der Analyse in Echtzeit benötigt.

 

Die heute bekannten Mikroprozessoren, die mehrere CPU in einem einzigen Chip enthalten, haben seit ihrer Erfindung in den frühen 1970er Jahren einen langen Weg zurückgelegt. Im Laufe der Zeit hat sich die Verarbeitungsgeschwindigkeit von Allzweck- CPU erhöht und profitiert vom Mooreschen Gesetz, das eine Verdoppelung der Anzahl der Transistoren auf einem Mikrochip alle zwei Jahre vorhersagte. Für einige Aufgaben ist die Struktur der CPU jedoch möglicherweise nicht geeignet.

 

Mit dem Aufkommen von künstlicher Intelligenz (KI) und maschinellem Deep Learning wurde festgestellt, dass Grafikprozessoren (GPUs) beim Training neuronaler Deep-Learning-Netzwerke 250-mal schneller als CPUsein können . Ihre Struktur macht sie effizienter als die Allzweck-Zentraleinheiten (CPU) für Algorithmen, die große Datenblöcke parallel verarbeiten.

Speicher im Rechenzentrum

Die Speicherung von Daten – sowohl der eigenen als auch der Kundendaten – gehört zu den zentralen Aufgaben eines Rechenzentrums.  Da die Speicherung kostengünstiger und effizienter wird, werden lokale und Remote-Backups immer häufiger eingesetzt, wodurch die Datenspeicherung weiter zunimmt.

 

Rechenzentrumsbesitzer verfügen über Notfallwiederherstellungspläne, um verlorene Daten wiederherzustellen. Zu den Sicherungstechniken gehören das Speichern von Daten auf einem physischen Medium und das anschließende Speichern der Daten lokal oder remote, das direkte Übertragen der Daten an einen anderen Standort oder das Hochladen der Daten in die Cloud. Beispielsweise werden Daten häufig auf mehrere, räumlich getrennte Rechenzentren verteilt. Wenn ein Rechenzentrum durch einen Waldbrand, ein Erdbeben oder eine andere Naturkatastrophe gefährdet wird, können auf diese Weise die verlorenen Informationen aus den Backup-Inhalten des Rechenzentrums wiederhergestellt werden.

 

Fortschritte bei Datenspeichertechnologien wie SDS (Software-Defined Storage), NVMe und NVMe-oF verändern die Art und Weise, wie Rechenzentren Daten speichern, verwalten und nutzen. Die Verwaltung von Daten über Software-Abstraktion (SDS) ermöglicht die Automatisierung und senkt die Verwaltungskosten für die Datenverwaltung.

 

NVM Express (NVMe) und Solid State Drives (SSD) ersetzen herkömmliche rotierende Festplatten und die SATA- und SAS-Schnittstellen, die für den Zugriff darauf mit geringerer Latenz und besserer Leistung verwendet werden. Während NVMe für PCI-Express-Schnittstellen in einem Speichersystem gilt, ermöglicht NVMe über Glasfaser einem Computer den Zugriff auf Blockspeichergeräte, die an einen anderen Computer angeschlossen sind, über direkten Remote-Speicherzugriff über das Netzwerk. Dies ermöglicht es Unternehmen, ein leistungsstarkes Speichernetzwerk mit sehr geringen Latenzen aufzubauen.

Netzwerke im Rechenzentrum

Der Bandbreitenbedarf des Rechenzentrums hängt von der Anwendung und der Anzahl der internen und externen Systeme sowie der mit dem Netzwerk verbundenen Benutzer ab. Spitzenwerte müssen über Storage Area Netzwerk (SANs), Local Area Netzwerk (LANs), externe und Internetverbindungen hinweg mithilfe von Überwachungstools überwacht werden, um festzustellen, wann ein Wechsel zur nächstgrößeren Leitung erforderlich ist, z. B. wenn regelmäßig 50 % der Kapazität erreicht werden .

 

An jedem Anschlusspunkt kann es zu Engpässen im Verkehrsfluss kommen. Insbesondere sollten Manager sicherstellen, Firewall, Load Balancer, IPS und WAFs die gesamten Durchsatzanforderungen unterstützen können. Für die WAN-Konnektivität sollten Manager genügend Bandbreite einplanen, um gelegentliche Verkehrsspitzen zu bewältigen und sicherzustellen, dass Sprach- und Videoanforderungen, Internetzugang, MPLS und SD-WAN-Dienstanforderungen erfüllt werden. Im Vergleich zu einem schlechten Benutzererlebnis ist die Bandbreite ein kleiner Kostenfaktor.

 

Eine Rechenzentrum-Netzwerkarchitektur ist eine baumbasierte Netzwerktopologie, die aus drei Schichten von Netzwerk-Switches besteht. Der Zugriff ist die unterste Ebene, auf der Server eine Verbindung zu einem Edge-Switch herstellen.

 

Die Aggregatschicht ist eine mittlere Schicht, die mehrere Access-Layer-Switches miteinander verbindet. Aggregate-Layer-Switches sind durch Core-Layer-Switches der obersten Ebene miteinander verbunden. Eine gängige Praxis ist hier die Bereitstellung von Firewall, Load Balancern und Anwendungsbeschleunigungskarten auf Switches.

 

Core-Layer-Switches verbinden das Rechenzentrum mit dem Internet. Core-Switches verfügen über hohe Switching-Fähigkeiten und können Datenverkehrsspitzen bewältigen. Um die Anzahl der einzelnen Serveradressen, die Core-Switches verarbeiten müssen, zu minimieren, leiten Core-Switches den Datenverkehr an Batches oder Pods weiter und kodieren Datenpakete so, dass der Core nur wissen muss, an welchen Pod er den Datenverkehr weiterleiten muss, anstatt einzelne Serveranfragen zu bearbeiten .

 

Eine der neuesten Entwicklungen im Rechenzentrum Netzwerk sind Hyperscale-Netzwerk-Sicherheitstechnologien . Dabei handelt es sich um die Fähigkeit, sich entsprechend zu verbessern und zu skalieren, wenn dem System mehr Bedarf hinzugefügt wird. Dem System können dynamisch mehr Ressourcen zugewiesen werden, was zu einem starken, skalierbaren und verteilten System führt.

 

Moderne Rechenzentrumsnetzwerke nutzen auch Software-Defined Networking (SDN), das es Netzwerkmanagern ermöglicht, Netzwerkressourcen in Software zu konfigurieren, zu verwalten, zu sichern und zu optimieren. SDN abstrahiert eine Netzwerkinfrastruktur in eine Anwendungs-, eine Steuerungsebene und eine Datenebene. Die Steuerung des Netzwerks wird dann direkt programmierbar, was eine automatisierte Bereitstellung und richtlinienbasierte Verwaltung von Netzwerkressourcen ermöglicht. Zu den Vorteilen von SDN zählen die Reduzierung der Betriebskosten, eine zentralisierte Betriebskontrolle und die Möglichkeit, Dienste wie Sicherheit bei Bedarf zu skalieren.

Die Entwicklung der Rechenzentrum-Architektur geht weiter

Änderungen in den Rechen-, Speicher- und Netzwerktechnologien haben dramatische Auswirkungen auf die Architektur und den Betrieb von Rechenzentren.  Da sich die Technologie ständig weiterentwickelt, müssen Unternehmen sicherstellen, dass sie über Lösungen zum Schutz ihrer sich ständig verändernden digitalen Angriffsflächen verfügen.

×
  Feedback
Diese Website verwendet Cookies für ihre Funktionalität sowie für Analyse- und Marketingzwecke. Mit der weiteren Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in unserem Cookies Hinweis.
OK