Data Center Architecture

La arquitectura moderna del centro de datos ha evolucionado desde una infraestructura local a una que conecta sistemas locales con infraestructuras en la nube donde las cargas de trabajo, las aplicaciones y las redes se virtualizan en múltiples nubes públicas y privadas. Esta evolución ha influido en la forma en que se diseñan los centros de datos, ya que todos los componentes de un centro de datos ya no están ubicados en el mismo lugar y solo pueden ser accesibles entre sí a través de la Internet pública.

Echemos un vistazo a los últimos avances en tecnologías de redes, computación y almacenamiento del centro de datos.

Solicite una demostración IDC Hybrid centro de datos Guía del Comprador

Informática del centro de datos

Los avances en la virtualización de los componentes de la infraestructura permiten al personal poner en marcha rápidamente sistemas y aplicaciones según sea necesario para satisfacer las demandas. Por ejemplo, los entornos de hipervisor aíslan los recursos informáticos y de memoria utilizados por las máquinas virtuales (VM) de los recursos del hardware básico. Los sistemas de contenedores proporcionan sistemas operativos virtuales para que se ejecuten las aplicaciones. Tanto las máquinas virtuales como las aplicaciones en contenedores son portátiles y pueden ejecutarse localmente o en una nube pública según sea necesario.

 

Si bien la máquina virtual y la aplicación permiten una entrega más rápida de infraestructura y aplicación, la informática de borde resuelve un problema diferente y mueve los recursos informáticos al borde donde residen los datos, reduciendo así los problemas de latencia y ancho de banda que ocurren en el transporte.

 

Un caso de uso principal que resuelve la informática de punta es el procesamiento de datos generados por un dispositivo remoto de Internet de las cosas . Las aplicaciones en tiempo real, como el procesamiento y el análisis de vídeo utilizados en los vehículos autónomos y la robótica, necesitan un procesamiento cerca del borde. Han surgido microcentros de datos que se distribuyen y son unidades compactas. Estas unidades recopilan, procesan, analizan y almacenan datos cerca del dispositivo de borde que recopila los datos y necesita el resultado del análisis en tiempo real.

 

Los microprocesadores que conocemos hoy en día y que contienen varias CPU en un solo chip han recorrido un largo camino desde su invención a principios de los años 1970. Con el tiempo, la velocidad de procesamiento de las CPU de uso general ha aumentado y se ha beneficiado de la ley de Moore, que pronosticaba una duplicación del número de transistores en un microchip cada dos años. Pero la estructura de las CPU puede no ser adecuada para algunas tareas.

 

Con la aparición de la inteligencia artificial (IA) y el aprendizaje profundo automático, se ha descubierto que las unidades de procesamiento gráfico (GPU) pueden ser 250 veces más rápidas que las CPU en el entrenamiento del rojo neuronal del aprendizaje profundo. Su estructura las hace más eficientes que las unidades centrales de procesamiento (CPU) de propósito general para algoritmos que procesan grandes bloques de datos en paralelo.

Almacenamiento del centro de datos

El almacenamiento de datos, tanto propios como de sus clientes, es una parte fundamental de las funciones de un centro de datos.  A medida que el almacenamiento de información se vuelve más barato y más eficiente, el uso de backups locales y remotos se vuelve más común, lo que aumenta aún más el almacenamiento de datos.

 

Los propietarios del centro de datos cuentan con planes de recuperación ante desastres para recuperar los datos perdidos. Las técnicas de respaldo incluyen guardar datos en un medio físico y luego almacenarlos local o remotamente, transferirlos directamente a otro sitio o cargar los datos en la nube. Por ejemplo, los datos a menudo se distribuyen entre múltiples centros de datos físicamente separados. De esa manera, si un centro de datos se ve comprometido por un incendio forestal, un terremoto u otro desastre natural, la información perdida se puede restaurar a partir del contenido de respaldo del centro de datos.

 

Los avances en las tecnologías de almacenamiento de datos como SDS (almacenamiento definido por software), NVMe y NVMe-oF están cambiando la forma en que el centro de datos almacena, administra y utiliza los datos. La administración de datos a través de la abstracción de software (SDS) permite la automatización y reduce los costos de administración de los datos.

 

NVM Express (NVMe) y las unidades de estado sólido (SSD) están reemplazando a los discos giratorios heredados y las interfaces SATA y SAS utilizadas para acceder a ellos con menor latencia y mejor rendimiento. Si bien NVMe se aplica a las interfaces PCI Express en un sistema de almacenamiento, NVMe over Fiber permite que una computadora acceda al dispositivo de almacenamiento a nivel de bloque conectado a otra computadora a través del acceso remoto directo a la memoria a través de la red. Esto permite a las organizaciones crear almacenamiento rojo de alto rendimiento con latencias muy bajas.

Redes de centros de datos

Los requisitos de ancho de banda del centro de datos dependen de la aplicación y la cantidad de sistemas internos y externos, y de los usuarios conectados a la red. Los picos deben monitorearse en el área de almacenamiento roja (SAN), el área local roja (LAN), los enlaces externos y de Internet utilizando herramientas de monitoreo para evaluar cuándo es necesario pasar al circuito del siguiente tamaño, por ejemplo, cuando se alcanza el 50 % de la capacidad de forma regular. .

 

Los cuellos de botella en el flujo de tráfico pueden ocurrir en cualquier punto de conexión. En particular, los administradores deben garantizar que firewall, balanceadores de carga, IPS y WAF puedan soportar los requisitos generales de rendimiento. Para la conectividad WAN, los administradores deben planificar suficiente ancho de banda para soportar picos de tráfico ocasionales y garantizar que se cumplan las demandas de voz y video, acceso a Internet, MPLS y SD-WAN. El ancho de banda es un gasto pequeño a pagar comparado con una mala experiencia del usuario.

 

La arquitectura de red de un centro de datos es una topología de red basada en árbol compuesta por tres capas de conmutadores de red. El acceso es la capa más baja donde los servidores se conectan a un conmutador perimetral.

 

La capa agregada es una capa de nivel medio que interconecta varios conmutadores de capa de acceso. Los conmutadores de capa agregada están conectados entre sí mediante conmutadores de capa central de nivel superior. Una práctica común es implementar firewall, balanceadores de carga y placas de aceleración de aplicaciones en los conmutadores aquí.

 

Los conmutadores de capa central conectan el centro de datos a Internet. Los switches centrales tienen altas capacidades de conmutación y pueden manejar ráfagas de tráfico. Para minimizar el número de direcciones de servidor individuales que los switches centrales necesitan manejar, los switches centrales enrutan el tráfico a lotes o pods, codificando paquetes de datos de tal manera que el núcleo solo necesite saber hacia qué pod dirigir el tráfico en lugar de manejar solicitudes de servidor individuales.

 

Uno de los últimos avances en el centro de datos red son las tecnologías de seguridad red a hiperescala . Esta es la capacidad de mejorar y escalar adecuadamente a medida que se agrega más demanda al sistema. Se pueden asignar dinámicamente más recursos al sistema, lo que resulta en un sistema sólido, escalable y distribuido.

 

Las redes modernas de centros de datos también utilizan redes definidas por software (SDN), que permiten a los administradores de redes configurar, administrar, proteger y optimizar los recursos de la red en software. SDN abstrae una infraestructura de red en una aplicación, un plano de control y una capa de plano de datos. Entonces, el control de la red se vuelve directamente programable, lo que permite el aprovisionamiento automatizado y la gestión basada en políticas de los recursos de la red. Los beneficios de SDN incluyen reducciones en los costos operativos, control operativo centralizado y la capacidad de escalar servicios como la seguridad cuando sea necesario.

La evolución de la arquitectura del centro de datos está en curso

Los cambios en las tecnologías informáticas, de almacenamiento y rojas han tenido un impacto dramático en la forma en que se diseña y opera el centro de datos.  A medida que la tecnología continúa evolucionando, las organizaciones deben asegurarse de contar con soluciones para proteger sus superficies de ataque digital en constante cambio.

x
  Comentarios
Este sitio web utiliza cookies para optimizar su funcionalidad y para fines de análisis y marketing. Al seguir usando este sitio web, usted acepta el uso de cookies. Para obtener más información, lea nuestro Aviso de cookies.