AI 데이터센터 네트워킹

시간과 비용을 절약해 주는 단순하고 원활한 운영자 경험

최근 생성형 AI가 전 세계 수억 명 사람들의 상상력을 사로잡으면서 AI와 머신러닝(ML)이 기업들의 집중 조명을 받게 되었습니다. 데이터센터는 AI를 뒷받침하는 엔진이며, 데이터센터 네트워크는 고가의 GPU 서버를 상호 연결하고 활용도를 극대화하는 데 있어 중요한 역할을 합니다.

AI 학습은 JCT(job completion time)로 측정하며, 대량 병렬 처리 문제입니다. 값비싼 GPU를 최대한 활용하려면 빠르고 안정적인 네트워크 패브릭이 필요합니다. 적합한 네트워크는 ROI 최적화의 핵심이며, 그 공식은 단순합니다. 적합한 네트워크를 설계하면 AI 애플리케이션으로 큰 절감 효과를 거둘 수 있습니다.

ai-data-center-network-solution

주니퍼 솔루션의 강점

주니퍼의 AI 데이터센터 솔루션을 통해 한정된 IT 리소스로 가장 유연하게 설계하고 가장 손쉽게 관리할 수 있는 고성능 AI 학습 및 추론 네트워크를 빠르게 구축할 수 있습니다. 주니퍼는 고객이 한정된 IT 리소스를 사용하여 GPU 활용을 극대화하면서 운영하기 쉽고 가장 빠른 JCT를 제공하는 고용량 패브릭을 손쉽게 구축할 수 있도록 업계를 선도하는 AIOps와 세계적인 수준의 네트워킹 기술을 통합합니다.

Business intelligence analyst dashboard on virtual screen. Big data Graphs Charts.

단순화된 운영으로 네트워킹 관련 OPEX 최대 90% 절감

주니퍼의 운영 중심적인 접근 방식은 벤더 종속 없이 시간과 비용을 절약해 줍니다. 주니퍼 Apstra의 독특한 인텐트 기반 자동화는 운영자를 네트워크 복잡성으로부터 보호하고 구축 속도를 높여줍니다. 주니퍼의 가상 네트워크 어시스턴트(VNA)인 Marvis를 통해 데이터센터에 제공되는 새로운 AIOps 기능은 운영자 및 최종 사용자 경험을 한층 강화하여 고객이 문제를 선제적으로 확인하고 빠르게 해결할 수 있도록 지원합니다. 그 결과, AI 데이터센터 네트워킹에 주니퍼를 사용할 경우 구축 시간이 최대 85% 더 빨라집니다.

Modern high rise building with sky view

모든 주요 GPU, 패브릭, 스위치와 100% 상호 운용 가능

기업을 종속시키는 독점 솔루션은 AI 혁신을 방해할 수 있습니다. 주니퍼의 솔루션은 가장 빠른 혁신을 보장하고 설계 유연성을 극대화하며 백엔드, 프론트엔드, 스토리지 AI 네트워크의 벤더 종속을 방지해 줍니다. 개방형 AI 최적화 이더넷 솔루션은 빠른 속도와 비용 절감을 보장하는 한편, Apstra는 멀티벤더 네트워크의 데이터센터 운영과 보장을 위한 유일한 솔루션입니다. 주니퍼를 통해 개별 데이터센터 네트워킹 요구사항을 가장 잘 충족하는 GPU, 패브릭, 스위치를 자유롭게 선택할 수 있습니다.

Top down aerial view of Chicago Downtown skyscrapers. Urban grid with streets and tall buildings. Late afternoon light

안정성을 최대 10배 높여주는 턴키 솔루션

주니퍼는 유연하고 손쉽게 고성능 AI 데이터센터를 구축할 수 있도록 스위칭라우팅부터 운영 및 보안에 이르는 턴키 솔루션을 제공합니다. 주니퍼 검증 설계(JVD)는 앞으로의 AI 모델을 자신있고 빠르게 구축할 수 있도록 구축 및 문제 해결 프로세스를 간소화합니다. 주니퍼 제품의 실리콘 다양성 덕분에 고객은 규모와 성능, 유연성을 누릴 수 있으며, 보안이 통합되어 AI 워크로드와 인프라가 사이버 공격으로부터 보호됩니다.

주니퍼의 AI 데이터센터 살펴보기

고성능 AI 데이터센터를 유연하고 손쉽게 구축할 수 있는 엔드투엔드 보안 솔루션을 알아보십시오. 설명 비디오에서 주니퍼의 개방형 AI 최적화 이더넷 솔루션으로 빠른 속도와 비용 절감이 어떻게 실현되는지 확인해 보십시오.

관련 솔루션

데이터센터 네트워크

현대적인 자동화 데이터센터를 통해 운영을 간소화하고 안정성을 보장하세요. 주니퍼는 전체 네트워크 수명주기를 자동화하고 지속적으로 검증하여 설계, 구축, 운영을 간소화할 수 있도록 지원합니다.

DCI(Data Center Interconnect)

주니퍼의 DCI 솔루션은 기존의 확장성 제한, 벤더 이전 어려움 및 상호 운용성 과제를 해결하는 원활한 상호 연결성을 지원합니다.

CORA(Converged Optical Routing Architecture)

CORA는 IP-옵티컬 컨버전스를 위한 확장 가능하고 지속 가능한 자동화 솔루션입니다. 이 솔루션은 메트로, 에지 및 코어 네트워크에서 400G 네트워킹과 그 이상을 위한 IP-over-DWDM 전환 전략을 배포하기 위해 사업자에게 필요한 필수적인 기본 구성 요소를 제공합니다.

IP 스토리지 네트워킹

IP 기반 스토리지 네트워크로 데이터 스토리지를 간소화하고 데이터센터 성능을 향상할 수 있습니다. 100G/400G 스위칭의 NVMe/RoCEv2 또는 NVMe/TCP와 같은 최신 기술을 사용하면 고성능 스토리지를 구축하거나 스토리지와 데이터를 하나의 단일 네트워크에 통합할 수 있습니다.

고객 성공 사례

SambaNova는 고성능 및 컴퓨팅 기반 머신러닝을 쉽고 확장 가능하게 만듭니다

AI는 의료기관, 금융 서비스, 제조업, 유통 및 기타 업계를 혁신할 것이지만 인간 노력의 속도와 효과를 개선하려는 많은 조직은 아직 AI의 완전한 잠재력에 도달하지 못했습니다.

복잡한 컴퓨팅 기반 머신러닝(ML) 구축의 복잡성을 극복하기 위해 SambaNova는 DataScale을 설계했습니다. SambaNova 시스템의 RDA(가변구조형 데이터 플로우 아키텍처)를 사용하고 개방형 표준 및 사용자 인터페이스를 사용하여 구축된 DataScale은 알고리즘에서 실리콘까지 최적화된 통합 소프트웨어 및 하드웨어 시스템 플랫폼입니다. 주니퍼 스위칭은 SambaNova의 Datascale 시스템 및 서비스에 필요한 방대한 양의 데이터를 처리합니다.  

SambaNova 이미지

AI 데이터센터 네트워킹 FAQ

오늘날 어떤 유형의 기업이 데이터센터 AI/ML 솔루션 배포에 적극적일까요?

AI 수요로 인해 하이퍼스케일러, 클라우드 프로바이더, 대기업, 정부 및 교육 기관은 비즈니스 시스템에 AI를 도입하여 운영을 자동화하고, 컨텐츠와 커뮤니케이션을 생성하며, 고객 서비스를 향상하고 있습니다.

AI의 학습 단계와 추론 단계의 차이점은 무엇일까요?

AI 모델은 학습 단계에서 세심하게 제작된 데이터 세트를 사용하여 개발됩니다. 교육은 한 개 클러스터에 포함된 수십, 수백, 심지어 수천 개 GPU에 달하는 여러 GPU에서 이루어지는데, 네트워크 전체에서 모두 연결되어 있고 계속해서 서로 데이터를 주고받습니다. 이 학습 단계가 끝나면 모델은 기본적으로 완료된 것입니다. 추론 단계에서는 사용자들이 모델과 상호 작용하는데, 모델은 이미지를 인식하거나 그림과 텍스트를 생성하면서 사용자 질문에 답변을 제공합니다. 학습은 보통 오프라인 작업인 반면, 추론은 일반적으로 온라인에서 이루어집니다.

AI 데이터센터 네트워크 인프라 솔루션의 구성 요소는 무엇이며, 주니퍼는 이러한 구성 요소를 어떻게 지원하나요?

막대한 양의 AI 데이터 세트로 인해 더욱 강력한 컴퓨팅 성능, 더욱 신속한 저장, 대용량 저지연 네트워킹 등이 필요합니다. 주니퍼는 다음과 같은 방식으로 이러한 요구 사항을 충족할 수 있게 지원합니다.

  • 컴퓨팅: AI/ML 컴퓨팅 클러스터로 인해 노드 간 네트워크의 요구 사항이 까다롭습니다. JCT(job completion time) 단축이 필수적인데, 효율적인 클러스터 운영에 있어 네트워크가 핵심적인 역할을 합니다. 주니퍼는 고성능 논블로킹 스위치를 다양하게 제공하고 있으며, 이러한 제품은 딥 버퍼 기능과 혼잡 관리 기능을 갖추고 있어 최적으로 설계될 경우 네트워크의 모든 병목 현상을 제거해 줍니다.
  • 스토리지: AI/ML 클러스터와 고성능 컴퓨팅에서 전체 데이터 세트 또는 모델을 컴퓨팅 노드에 저장할 수 있는 경우는 거의 없기 때문에 고성능 스토리지 네트워크가 필요합니다. IP 스토리지 연결에는 주니퍼 QFX 시리즈 스위치를 사용할 수 있습니다. 이 스위치는 NVMe(Non-Volatile Memory Express)/컨버지드 이더넷을 통한 RDMA(RoCE) 및 네트워크 파일 시스템(NFS)/RDMA를 포함하여 RDMA(Remote Direct Memory Access) 네트워킹을 완벽하게 지원합니다.
  • 네트워크: AI 학습 모델에서는 수백 또는 수천 개의 CPU, GPU, TPU 프로세서에 분산된 대규모 고강도 연산이 수행됩니다. 이러한 연산에는 수평적 확장이 가능하고 오류가 없는 고용량 네트워크가 필요합니다. 주니퍼 QFX 스위치PTX 시리즈 라우터는 업계 최고의 스위칭 및 라우팅 처리량과 DCI(Data Center Interconnect) 기능을 바탕으로 이러한 대용량 연산을 지원합니다.

주니퍼 AI 데이터센터가 데이터센터 운영을 단순화하는 방법

Apstra는 데이터센터 자동화 및 보장을 위한 주니퍼의 선도적인 플랫폼입니다.  이는 지속적인 검증, 강력한 분석 및 근원 식별 기능을 갖춘 멀티벤더 데이터센터에서 설계부터 일상 운영에 이르기까지 전체 네트워크 라이프사이클을 자동화하여 신뢰성을 보장합니다.  데이터센터용 Marvis VNA를 사용하면 이러한 정보를 Apstra에서 주니퍼 Mist 클라우드로 가져온 다음 공통의 VNA 대시보드에 표시하여 엔드투엔드 인사이트를 확보할 수 있습니다.  데이터센터용 Marvis VNA는 강력한 대화형 인터페이스(GenAI 사용)를 제공하므로 Knowledge Base 쿼리가 매우 단순해집니다.  

주니퍼 AI 데이터센터 네트워킹 솔루션은 AI 성능을 극대화하는 데 필요한 혼잡 관리, 로드 밸런싱 및 저지연 요구 사항을 어떻게 해결하나요?

주니퍼의 고성능 논블로킹 데이터센터 스위치는 딥 버퍼링 및 혼잡 관리 기능을 제공하여 네트워크 병목 현상을 제거합니다. 트래픽 부하를 분산하기 위해 주니퍼는 다이나믹 로드 밸런싱(Dynamic Load Balancing)과 적응형 라우팅(Adaptive Routing)을 지원합니다. 혼잡 관리를 위해 주니퍼는 DCQCN(Data Center Quantized Congestion Notification), PFC(Priority Flow Control), ECN(Explicit Congestion Notification)을 지원합니다. 마지막으로 주니퍼는 지연을 줄이기 위해 필요한 경우 버퍼를 최대화하는 동급 최강의 머천트 실리콘 및 커스텀 ASIC 아키텍처, VOQ(virtual output queuing), 스파인 아키텍처 내 셀 기반 패브릭을 사용합니다.

IP 스토리지를 위해 주니퍼는 어떤 기능을 제공하나요?

주니퍼의 포트폴리오에는 NVMe/RoCE 또는 NFS/RDMA를 사용하여 IP 기반 스토리지 연결을 제공하는 표준 기반의 개방형 스위치가 포함되어 있습니다(이전 FAQ 참조). 주니퍼의 IP 스토리지 네트워킹 솔루션 설계는 4개 노드의 소규모 구성부터 수백 또는 수천 개 스토리지 노드까지 확장할 수 있습니다.