Data Center Architecture

최신 데이터 센터 아키텍처는 온프레미스 인프라에서 온프레미스 시스템을 클라우드 인프라와 연결하는 인프라로 발전했으며, 네트워크, 애플리케이션 및 워크로드가 여러 프라이빗 및 퍼블릭 클라우드에서 가상화됩니다. 이러한 진화는 데이터 센터의 모든 구성 요소가 더 이상 같은 위치에 있지 않고 공용 인터넷을 통해서만 서로 액세스할 수 있기 때문에 데이터 센터가 설계되는 방식에 영향을 미쳤습니다.

데이터 센터 네트워킹, 컴퓨팅 및 스토리지 기술의 최신 발전을 살펴보겠습니다.

데모 요청하기 IDC 하이브리드 데이터 센터 구매자 가이드

데이터 센터 컴퓨팅

인프라 구성 요소의 가상화가 발전함에 따라 직원은 요구 사항을 충족하기 위해 필요에 따라 시스템과 애플리케이션을 신속하게 가동할 수 있습니다. 예를 들어, 하이퍼바이저 환경은 가상 머신(VM)에서 사용하는 컴퓨팅 및 메모리 리소스를 베어 메탈 하드웨어의 리소스와 격리합니다. 컨테이너 시스템은 애플리케이션을 실행할 수 있는 가상 운영 체제를 제공합니다. VM과 컨테이너화된 애플리케이션은 모두 이식 가능하며 필요에 따라 온프레미스 또는 퍼블릭 클라우드에서 실행할 수 있습니다.

 

가상 머신과 애플리케이션을 사용하면 인프라와 애플리케이션을 더 빠르게 제공할 수 있지만, 엣지 컴퓨팅은 다른 문제를 해결하고 컴퓨팅 리소스를 데이터가 상주하는 엣지로 이동하여 전송 중에 발생하는 대기 시간 및 대역폭 문제를 줄입니다.

 

엣지 컴퓨팅 이 해결하는 주요 사용 사례는 원격 사물인터넷(IoT) 디바이스에서 생성된 데이터를 처리하는 것입니다. 자율 주행 자동차 및 로봇 공학에 사용되는 비디오 처리 및 분석과 같은 실시간 애플리케이션은 엣지 근처에서 처리가 수행되어야 합니다. 분산되고 컴팩트한 단위의 마이크로 데이터 센터가 등장했습니다. 이러한 장치는 데이터를 수집, 처리, 분석 및 저장하여 데이터를 수집하고 실시간으로 분석 결과를 필요로 하는 엣지 디바이스와 가깝습니다.

 

오늘날 우리에게 친숙한 마이크로프로세서는 단일 칩에 여러 CPU를 포함하고 있으며 1970년대 초에 발명된 이래로 먼 길을 왔습니다. 시간이 지남에 따라 범용 CPU의 처리 속도가 향상되고 2년마다 마이크로칩의 트랜지스터 수가 두 배로 증가할 것으로 예측하는 무어의 법칙의 혜택을 받았습니다. 그러나 CPU의 구조는 일부 작업에 적합하지 않을 수 있습니다.

 

인공 지능(AI)과 머신 러닝의 등장으로 그래픽 처리 장치(GPU)가 딥 러닝 신경 네트워크 훈련에서 CPU보다 250배 더 빠를 수 있다는 사실이 밝혀졌습니다. 이러한 구조로 인해 대규모 데이터 블록을 병렬로 처리하는 알고리즘에 대해 범용 중앙 처리 장치(CPU)보다 더 효율적입니다.

데이터 센터 스토리지

자체 데이터와 고객의 데이터를 모두 저장하는 것은 데이터 센터 업무의 핵심 부분입니다.  스토리지가 더 저렴해지고 효율성이 높아짐에 따라 로컬 및 원격 백업의 사용이 보편화되어 데이터 스토리지가 더욱 늘어납니다.

 

데이터 센터 소유자는 손실된 데이터를 복구하기 위한 재해 복구 계획을 수립하고 있습니다. 백업 기술에는 데이터를 물리적 매체에 저장한 다음 데이터를 로컬 또는 원격으로 저장하거나, 데이터를 다른 사이트로 직접 전송하거나, 데이터를 클라우드에 업로드하는 것이 포함됩니다. 예를 들어, 데이터는 물리적으로 분리된 여러 데이터 센터 간에 분산되는 경우가 많습니다. 이렇게 하면 데이터 센터가 산불, 지진 또는 기타 자연 재해로 인해 손상되는 경우 백업 데이터 센터 콘텐츠에서 손실된 정보를 복원할 수 있습니다.

 

SDS(소프트웨어 정의 스토리지), NVMe 및 NVMe-oF와 같은 데이터 스토리지 기술의 발전은 데이터 센터가 데이터를 저장, 관리 및 사용하는 방식을 변화시키고 있습니다. 소프트웨어 추상화(SDS)를 통한 데이터 관리는 자동화를 가능하게 하고 데이터 관리 비용을 낮춥니다.

 

NVM Express(NVMe) 및 솔리드 스테이트 드라이브(SSD)는 더 짧은 대기 시간과 더 나은 성능으로 기존 회전 디스크와 이러한 디스크에 액세스하는 데 사용되는 SATA 및 SAS 인터페이스를 대체하고 있습니다. NVMe는 스토리지 시스템의 PCI Express 인터페이스에 적용되지만 NVMe over Fiber를 사용하면 한 컴퓨터가 네트워크를 통한 원격 직접 메모리 액세스를 통해 다른 컴퓨터에 연결된 블록 수준 스토리지 디바이스에 액세스할 수 있습니다. 이를 통해 조직은 대기 시간이 매우 짧은 고성능 스토리지 네트워크를 만들 수 있습니다.

데이터 센터 네트워크

데이터 센터 대역폭 요구 사항은 애플리케이션, 내부 및 외부 시스템 수, 네트워크에 연결된 사용자에 따라 결정됩니다. 모니터링 도구를 사용하여 SAN(Storage Area Network), LAN(Local Area Network), 외부 및 인터넷 링크에서 피크를 모니터링하여 다음 크기 회로로 이동해야 하는 시기(예: 정기적으로 50% 용량에 도달하는 경우)를 측정해야 합니다.

 

트래픽 흐름의 병목 현상은 모든 연결 지점에서 발생할 수 있습니다. 특히 관리자는 방화벽, 로드 밸런서, IPS 및 WAF가 전체 처리량 요구 사항을 지원할 수 있는지 확인해야 합니다. WAN 연결의 경우 관리자는 음성 및 비디오 수요, 인터넷 액세스, MPLS 및 SD-WAN 서비스 요구 사항을 충족할 수 있도록 간헐적인 트래픽 급증을 지원할 수 있는 충분한 대역폭을 계획해야 합니다. 대역폭은 나쁜 사용자 경험에 비해 지불할 수 있는 작은 비용입니다.

 

하나의 데이터 센터 네트워크 아키텍처는 3개의 네트워크 스위치 계층으로 구성된 트리 기반 네트워크 토폴로지입니다. 액세스는 서버가 에지 스위치에 연결되는 가장 낮은 계층입니다.

 

집계 레이어는 여러 액세스 레이어 스위치를 함께 상호 연결하는 중간 레벨 레이어입니다. 집계 레이어 스위치는 최상위 코어 레이어 스위치로 서로 연결됩니다. 일반적인 방법은 방화벽, 로드 밸런서 및 애플리케이션 가속 보드를 스위치에 배포하는 것입니다.

 

코어 레이어 스위치는 데이터 센터를 인터넷에 연결합니다. 코어 스위치는 높은 스위칭 기능을 가지며 트래픽 버스트를 처리할 수 있습니다. 코어 스위치가 처리해야 하는 개별 서버 주소의 수를 최소화하기 위해 코어 스위치는 트래픽을 배치 또는 Pod로 라우팅하여 코어가 개별 서버 요청을 처리하는 대신 트래픽을 전달할 Pod만 알면 되는 방식으로 데이터 패킷을 인코딩합니다.

 

데이터 센터 네트워크의 최신 발전 중 하나는 하이퍼스케일 네트워크 보안 기술입니다. 이는 시스템에 더 많은 수요가 추가됨에 따라 적절하게 개선하고 확장할 수 있는 기능입니다. 더 많은 리소스를 시스템에 동적으로 할당하여 강력하고 확장 가능하며 분산된 시스템을 만들 수 있습니다.

 

또한 최신 데이터 센터 네트워크는 네트워크 관리자가 소프트웨어에서 네트워크 리소스를 구성, 관리, 보안 및 최적화할 수 있도록 하는 SDN(소프트웨어 정의 네트워킹)을 사용합니다. SDN은 네트워크 인프라를 애플리케이션, 컨트롤 플레인 및 데이터 플레인 계층으로 추상화합니다. 그러면 네트워크 제어를 직접 프로그래밍할 수 있게 되어 네트워크 리소스의 자동화된 프로비저닝 및 정책 기반 관리가 가능합니다. SDN의 이점에는 운영 비용 절감, 중앙 집중식 운영 제어, 필요할 때 보안과 같은 서비스를 확장할 수 있는 기능이 포함됩니다.

데이터 센터 아키텍처의 진화는 현재 진행 중입니다.

컴퓨팅, 스토리지 및 네트워크 기술의 변화는 데이터 센터의 설계 및 운영 방식에 큰 영향을 미쳤습니다.  기술이 계속 발전함에 따라 조직은 끊임없이 변화하는 디지털 공격 표면을 보호할 수 있는 솔루션을 갖추어야 합니다.

×
  피드백
본 웹 사이트에서는 기능과 분석 및 마케팅 목적으로 쿠키를 사용합니다. 웹 사이트를 계속 이용하면 쿠키 사용에 동의하시게 됩니다. 자세한 내용은 쿠키 공지를 읽어 주십시오.