Data Center Architecture

L'architecture moderne des centres de données a évolué, passant d'une infrastructure sur site à une infrastructure qui relie les systèmes sur site à des infrastructures cloud où le réseau, application et les charges de travail sont virtualisés dans de multiples infrastructures privées et publiques. cloud. Cette évolution a influencé l'architecture des centres de données, car tous les composants d'un centre de données ne sont plus situés au même endroit et ne peuvent être accessibles les uns aux autres que par l'internet public.

Jetons un coup d'œil aux dernières avancées en matière de technologies de réseau, de calcul et de stockage des centres de données.

Demander une démo Guide d'achat IDC Hybrid centre de données

Informatique des centres de données

Les progrès réalisés dans la virtualisation des composants de l'infrastructure permettent au personnel d'activer rapidement les systèmes et de consulter le site application en fonction des besoins. Par exemple, les environnements d'hyperviseurs isolent les ressources de calcul et de mémoire utilisées par les machines virtuelles (VM) des ressources du matériel nu. Les systèmes de conteneurs fournissent des systèmes d'exploitation virtuels sur lesquels application peut fonctionner. Les VM et les conteneurs application sont tous deux portables et peuvent être exécutés sur place ou sur un site public cloud, selon les besoins.

 

Alors que les machines virtuelles et le site application permettent une livraison plus rapide de l'infrastructure et du site application, l'informatique en périphérie résout un problème différent et déplace les ressources informatiques en périphérie, là où résident les données, réduisant ainsi les problèmes de latence et de bande passante qui surviennent lors du transport.

 

L'un des principaux cas d'utilisation de l 'informatique en périphérie est le traitement des données générées par les appareils L'internet des objets distants. Le traitement en temps réel application, tel que le traitement et l'analyse vidéo utilisés dans les voitures auto-conduites et la robotique, doit être effectué à proximité de la périphérie. Des micro-centres de données, distribués et compacts, ont vu le jour. Ces unités collectent, traitent, analysent et stockent les données à proximité de l'appareil périphérique qui collecte les données et a besoin du résultat de l'analyse en temps réel.

 

Les microprocesseurs que nous connaissons aujourd'hui et qui contiennent plusieurs processeurs dans une seule puce ont parcouru un long chemin depuis leur invention au début des années 1970. Au fil du temps, la vitesse de traitement des processeurs à usage général a augmenté et a bénéficié de la loi de Moore, qui prévoyait un doublement du nombre de transistors sur une puce électronique tous les deux ans. Mais la structure du Processeur peut ne pas être adaptée à certaines tâches.

 

Avec l'émergence de l'intelligence artificielle (IA) et de l'apprentissage profond des machines, il a été constaté que les unités de traitement graphique (GPU) peuvent être 250 fois plus rapides que le Processeur dans l'entraînement des réseaux neuronaux d'apprentissage profond. Leur structure les rend plus efficaces que les unités centrales de traitement à usage général (Processeur) pour les algorithmes qui traitent de grands blocs de données en parallèle.

Stockage des centres de données

Le stockage des données - les siennes et celles de leurs clients - est au cœur des missions d'un centre de données.  Le stockage devenant moins cher et plus efficace, l'utilisation de sauvegardes locales et à distance devient plus courante, ce qui accroît encore le stockage des données.

 

Les propriétaires de centres de données ont mis en place des plans de reprise après sinistre pour récupérer les données perdues. Les techniques de sauvegarde comprennent l'enregistrement des données sur un support physique, puis le stockage des données au niveau local ou à distance, le transfert direct des données vers un autre site ou le téléchargement des données sur le site cloud. Par exemple, les données sont souvent réparties entre plusieurs centres de données physiquement séparés. Ainsi, si un centre de données est compromis par un incendie, un tremblement de terre ou une autre catastrophe naturelle, les informations perdues peuvent être restaurées à partir du contenu du centre de données de sauvegarde.

 

Les progrès des technologies de stockage de données comme le SDS (Software-defined Storage), le NVMe et le NVMe-oF modifient la façon dont les centres de données stockent, gèrent et utilisent les données. La gestion des données par abstraction logicielle (SDS) permet d'automatiser et de réduire les coûts de gestion des données.

 

NVM Express (NVMe) et les disques d'État solides (SSD) remplacent les anciens disques rotatifs et les interfaces SATA et SAS utilisées pour y accéder, avec une latence plus faible et de meilleures performances. Alors que NVMe s'applique aux interfaces PCI Express dans un système de stockage, NVMe over Fiber permet à un ordinateur d'accéder à un appareil de stockage de niveau bloc attaché à un autre ordinateur via un accès direct à la mémoire à distance sur le réseau. Cela permet aux entreprises de créer des réseaux de stockage très performants avec des temps de latence très faibles.

Réseaux des centres de données

Les besoins en bande passante du centre de données sont déterminés par application et par le nombre de systèmes internes et externes et d'utilisateurs connectés au réseau. Les pics doivent être surveillés dans les réseaux de stockage (SAN), les réseaux locaux (LAN), les liens externes et Internet à l'aide d'outils de surveillance afin de déterminer quand il est nécessaire de passer à un circuit de taille supérieure, par exemple lorsque l'on atteint régulièrement 50 % de la capacité.

 

Des goulets d'étranglement dans le flux de trafic peuvent se produire à n'importe quel point de connexion. En particulier, les responsables doivent s'assurer que les pare-feu, les équilibreurs de charge, les IPS et les WAF peuvent répondre aux exigences globales en matière de débit. En ce qui concerne la connectivité WAN, les responsables doivent prévoir une bande passante suffisante pour supporter des pics de trafic occasionnels afin de répondre aux besoins en matière de voix et de vidéo, d'accès à Internet, de services MPLS et SD-WAN. La bande passante est une dépense minime par rapport à une mauvaise expérience utilisateur.

 

Une architecture de réseau de centre de données est une topologie de réseau arborescente composée de trois couches de commutateurs de réseau. L'accès est la couche la plus basse où les serveurs se connectent à un commutateur périphérique.

 

La couche agrégée est une couche intermédiaire qui interconnecte plusieurs commutateurs de la couche d'accès. Les commutateurs de la couche agrégée sont connectés les uns aux autres par des commutateurs de la couche centrale de niveau supérieur. Une pratique courante consiste à déployer des pare-feu, des équilibreurs de charge et des cartes d'accélération application sur des commutateurs à cet endroit.

 

Les commutateurs de la couche centrale relient le centre de données à l'internet. Les commutateurs centraux ont des capacités de commutation élevées et peuvent gérer des rafales de trafic. Pour minimiser le nombre d'adresses de serveurs individuels que les commutateurs centraux doivent gérer, ces derniers acheminent le trafic vers des lots ou des pods, en encodant les paquets de données de telle sorte que le noyau n'a besoin que de savoir vers quel pod diriger le trafic, plutôt que de traiter les demandes individuelles des serveurs.

 

L'une des dernières avancées dans le domaine des centres de données réseau est la technologie de sécuritéhyperscale réseau. Il s'agit de la capacité à s'améliorer et à s'adapter de manière appropriée à mesure que la demande s'accroît. Davantage de ressources peuvent être allouées dynamiquement au système, ce qui permet d'obtenir un système solide, évolutif et distribué.

 

Les réseaux modernes de centres de données utilisent également le Software-defined Networking (SDN) qui permet aux gestionnaires de réseaux de configurer, gérer, sécuriser et optimiser les ressources du réseau par le biais de logiciels. Le SDN fait abstraction d'une infrastructure de réseau en une couche d'application, un plan de contrôle et un plan de données. Le contrôle du réseau devient alors directement programmable, ce qui permet un approvisionnement automatisé et une gestion des ressources du réseau basée sur des politiques. Les avantages du SDN sont notamment la réduction des coûts d'exploitation, la centralisation du contrôle opérationnel et la possibilité d'adapter des services tels que la sécurité en fonction des besoins.

Le centre de données Architecture Evolution est en cours

L'évolution des technologies de calcul, de stockage et de réseau a eu un impact considérable sur l'architecture et le fonctionnement des centres de données.  Alors que la technologie continue d'évoluer, les organisations doivent s'assurer qu'elles ont mis en place des solutions pour sécuriser leurs surfaces d'attaque numériques en constante évolution.

×
  Commentaires
Ce site web utilise des cookies pour sa fonctionnalité et à des fins d’analyse et de marketing. En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies. Pour plus d’informations, veuillez lire notre Avis sur les cookies.
OK