AWS, 엔비디아 블랙웰 기반 AI 인프라 공개

"차세대 AI를 위한 두 가지 컴퓨팅 솔루션 출시"

 

[더테크 이승수 기자]  아마존웹서비스(이하 AWS)는 추론 모델과 에이전틱 AI 시스템 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩으로 구동되는 P6e-GB200 울트라서버를 15일 출시했다고 밝혔다.

 

P6e-GB200 울트라서버는 매우 크고 정교한 AI 모델의 훈련과 배포를 위해 설계됐다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스를 출시한 바 있다.

 

확장되는 AI 워크로드 컴퓨팅 수요 충족을 위해 P6e-GB200 울트라서버는 현재까지 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다.

 

또, 각 울트라서버는 360페타플롭스의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다.

 

P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서를 제공한다.

 

 

또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다.

 

구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다. P6e-GB200 울트라서버는 조 단위 매개변수 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 이상적이다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 진정한 성능을 발휘한다.

 

72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다. 추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다.

 



배너