NVIDIA PREFERRED PARTNER

AI 솔루션 전문기업인 씨이랩은 NVIDIA의 PREFERRED PARTNER로 차별화된

SW와 HW의 통합 서비스를 제공합니다.

제품 이용문의

GPU를 통한 데이터 센터 가속화

NVIDIA T4
유연한 디자인, 획기적인 성능
바로가기
SPECIFICATIONS
GPU ArchitectureNVIDIA Turing
NVIDIA Turing Tensor Cores320
NVIDIA CUDA® Cores2,560
SINGLE PRECISION PERFORMANCE (FP32)8.1 TFLOPS
MIXED PRECISION (FP16/FP32)65 TFLOPS
INT8 정밀도130 TOPS
INT4 정밀도260 TOPS
GPU Memory16 GB GDDR6
300 GB/sec
ECCYes
Interconnect Bandwidth32 GB/sec
System Interfacex16 PCle Gen3
Form FactorLow-Profile PCIe
Thermal SolutionPassive
Compute APIsCUDA, NVIDIA TensorRT™, ONNX
NVIDIA V100
진보된 데이터센터 GPU
바로가기
SPECIFICATIONS V100 PCle V100 SXM2 V100S PCle
GPU ArchitectureNVIDIA Volta
NVIDIA Tensor Cores640
NVIDIA CUDA® Cores5,120
Double - Precision Performance7 TFLOPS7.8 TFLOPS8.2 TFLOPS
Single - Precision Performance14 TFLOPS15.7 TFLOPS16.4 TFLOPS
Tensor Performance112 TFLOPS125 TFLOPS130 TFLOPS
GPU Memory32 GB/16 GB HBM232 GB/1 6GB HBM2
Memory Bandwidth900 GB/sec1134 GB/sec
ECCYes
Interconnect Bandwidth32 GB/sec300 GB/sec32 GB/sec
System InterfacePCle Gen3NVIDIA NVLink™PCle Gen3
Form FactorPCle Full
Height/Length
SXM2PCle Full
Height/Length
Max Power Comsumption250W300W250W
Thermal SolutionPassive
Compute APIsCUDA, DirectCompute, OpenCL™, OpenACC®
NVIDIA A100
모든 규모에서의 유례 없는 가속화
바로가기
SYSTEM SPECIFICATIONS
(PEAK PERFORMANCE)
NVIDIA A100 for
NVIDIA HGX™
NVIDIA A100 for
PCIe
GPU ArchitectureNVIDIA Ampere
Double - Precision PerformanceFP64: 9.7 TFLOPS
FP64 Tensor Core: 19.5 TFLOPS
Single - Precision PerformanceFP32: 19.5 TFLOPS
Tensor Float 32 (TF32): 156 TFLOPS | 312 TFLOPS*
Half - Precision Performance312 TFLOPS | 624 TFLOPS*
Bfloat16312 TFLOPS | 624 TFLOPS*
Integer PerformanceINT8: 624 TOPS | 1.248 TOPS*
INT4: 1,248 TOPS | 2,496 TOPS*
GPU Memory40 GB HBM2
Memory Bandwidth1.6 TB/sec
Error - Correcting CodeYes
Interconnect InterfacePCle Gen4: 64 GB/sec Third generation
NVIDIA NVLink: 600 GB/sec**
Form Factor4/8 SXM GPUs in
NVIDIA HGX™ A100
PCIe
Multi - Instance GPU (MIG)Up to 7GPU instances
Max Power Consumption400W250W
Delivered Performance for Top Apps100%90%
Thermal SolutionPassive
Compute APIsCUDA, DirectCompute, OpenCL™, OpenACC®

* Structural sparsity enabled

* SXM GPUs via HGX A100 server boards; PCIe GPUs via NVLink Bridge for up to 2 GPUs

제품 자체가 AI 데이터 센터인 슈퍼컴퓨터

세계 어느 곳에서나 접속할 수 있고, 세계 어느 곳에서나 여러 동시 사용자들에게 최대의 성능을 제공할 수 있는 전용 자원을 만들기 위해서
NVIDIA DGX Station™ A100은 AI 슈퍼컴퓨팅을 도입하여 데이터 센터나 추가 IT 인프라 없이 데이터 센터 기술을 제공하고
강력한 성능과 완벽하게 최적화된 소프트웨어 스택, NVIDIA DGXperts에 직접 액세스함으로써 보다 더 빠르게 최상의 결과물을 도출할 수 있습니다.
DGX Station A100
AI 시대를 위한 Workgroup Appliance
바로가기
SPECIFICATIONS
NVIDIA DGX Station A100 320GBNVIDIA DGX Station A100 160GB
GPUs4x NVIDIA A100 80 GB GPUs4x NVIDIA A100 40 GB GPUs
GPU Memory320 GB total160 GB total
Performance2.5 petaFLOPS AI
5 petaOPS INT8
System Power Usage1.5 kW at 100-120 Vac
CPUSingle AMD 7742, 64 cores, 2.25 GHz (base)-3.4 GHz (max boost)
System Memory512 GB DDR4
NetworkingDual-port 10Gbase-T Ethernet LAN
Single-port 1Gbase-T Ethernet BMC management port
StorageOS: 1x 1.92 TB NVME drive
Internal storage: 7.68 TB U.2 NVME drive
DGX Display Adapter4 GB GPU memory, 4x Mini DisplayPort
System Acoustics< 37 dB
SoftwareUbuntu Linux OS
System Weight91.0 lbs (43.1 kgs)
Packaged System Weight127.7 lbs (57.93 kgs)
System DimensionsHeight: 25.1 in (639mm)
Width: 10.1 in (256mm)
Length: 20.4 in (518 mm)
Operating Temperature Range5°C to 35 °C (41°F to 95 °F)

NVIDIA A100 기반의 세계 최초 AI 시스템

NVIDIA DGX™ A100 은 모든 AI 워크로드를 위한 유니버설 시스템으로, 세계 최초의 5페타플롭스 AI 시스템을 통해 유례없는 컴퓨팅 밀도, 성능 및 유연성을 제공합니다.
NVIDIA DGX A100은 세계에서 가장 최첨단의 가속기인 NVIDIA A100 Tensor 코어 GPU를 탑재하여 엔터프라이즈 기업들이 NVIDIA AI 전문가의 직접적인
지원과 함께 트레이닝에서 추론, 분석에 이르기까지 배포하기 쉬운 통합 AI 인프라를 구축할 수 있게 합니다.
DGX A100
더욱 빠르게 반복하여 혁신하기
바로가기
SPECIFICATIONS
GPUs8x NVIDIA A100 Tensor Core GPUs
GPU Memory320 GB total
Performance5 petaFLOPS AI
10 petaOPS INT8
NVIDIA NVSwitches6
System Power Usage6.5kW max
CPUDual AMD 7742, 128 cores total, 2.25 GHz (base)-3.4 GHz (max boost)
System Memory1TB
Networking8x Single-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand
1x Dual-Port Mellanox ConnectX-6 VPI 10/25/50/100/200Gb/s Ethernet
StorageOS: 2x 1.92TB M.2 NVME drives
Internal Storage: 15TB (4x 3.84TB) U.2 NVME drives
SoftwareUbuntu Linux OS
System Weight271 lbs (123 kgs)
Packaged System Weight315 lbs (143 kgs)
System DimensionsHeight: 10.4 in (264.0 mm)
Width: 19.0 in (482.3 mm) MAX
Length: 35.3 in (897.1 mm) MAX
Operating Temperature Range5ºC to 30ºC (41ºF to 86ºF)

NVIDIA DGX + Product

1. DGX + Uyuni
AI 및 딥러닝 학습에 필수적인 GPU서버의 Usability를 극대화하는 솔루션
바로가기
2. DGX + X-labeller
영상 학습데이터 관리부터 딥러닝 학습 및 인퍼런스까지 관리가능한 End-to-End 솔루션
바로가기
3. DGX + DGEN
사용자 도메인에 타겟팅된 가상 학습데이터를 생성하고 머신러닝을 지원하는 솔루션
4. DGX + xDAMS
방대한 규모의 영상 데이터를 보다 효과적으로 수집/저장/관리/분석 할 수 있는 솔루션
제품 구매 문의
궁금하신 사항이 있으시면 문의해 주세요.
담당자가 안내해드리겠습니다.
제출하기