NVIDIA PREFERRED PARTNER

AI 솔루션 전문기업인 씨이랩은 NVIDIA의 PREFERRED PARTNER로 차별화된

SW와 HW의 통합 서비스를 제공합니다.

제품 이용문의

GPU를 통한 데이터 센터 가속화

NVIDIA T4
유연한 디자인, 획기적인 성능
바로가기
SPECIFICATIONS
GPU ArchitectureNVIDIA Turing
NVIDIA Turing Tensor Cores320
NVIDIA CUDA® Cores2,560
SINGLE PRECISION PERFORMANCE (FP32)8.1 TFLOPS
MIXED PRECISION (FP16/FP32)65 TFLOPS
INT8 정밀도130 TOPS
INT4 정밀도260 TOPS
GPU Memory16 GB GDDR6
300 GB/sec
ECCYes
Interconnect Bandwidth32 GB/sec
System Interfacex16 PCle Gen3
Form FactorLow-Profile PCIe
Thermal SolutionPassive
Compute APIsCUDA, NVIDIA TensorRT™, ONNX
NVIDIA V100
진보된 데이터센터 GPU
바로가기
SPECIFICATIONS V100 PCle V100 SXM2 V100S PCle
GPU ArchitectureNVIDIA Volta
NVIDIA Tensor Cores640
NVIDIA CUDA® Cores5,120
Double - Precision Performance7 TFLOPS7.8 TFLOPS8.2 TFLOPS
Single - Precision Performance14 TFLOPS15.7 TFLOPS16.4 TFLOPS
Tensor Performance112 TFLOPS125 TFLOPS130 TFLOPS
GPU Memory32 GB/16 GB HBM232 GB/1 6GB HBM2
Memory Bandwidth900 GB/sec1134 GB/sec
ECCYes
Interconnect Bandwidth32 GB/sec300 GB/sec32 GB/sec
System InterfacePCle Gen3NVIDIA NVLink™PCle Gen3
Form FactorPCle Full
Height/Length
SXM2PCle Full
Height/Length
Max Power Comsumption250W300W250W
Thermal SolutionPassive
Compute APIsCUDA, DirectCompute, OpenCL™, OpenACC®
NVIDIA A100
모든 규모에서의 유례 없는 가속화
바로가기
SYSTEM SPECIFICATIONS
(PEAK PERFORMANCE)
NVIDIA A100 for
NVIDIA HGX™
NVIDIA A100 for
PCIe
GPU ArchitectureNVIDIA Ampere
Double - Precision PerformanceFP64: 9.7 TFLOPS
FP64 Tensor Core: 19.5 TFLOPS
Single - Precision PerformanceFP32: 19.5 TFLOPS
Tensor Float 32 (TF32): 156 TFLOPS | 312 TFLOPS*
Half - Precision Performance312 TFLOPS | 624 TFLOPS*
Bfloat16312 TFLOPS | 624 TFLOPS*
Integer PerformanceINT8: 624 TOPS | 1.248 TOPS*
INT4: 1,248 TOPS | 2,496 TOPS*
GPU Memory40 GB HBM2
Memory Bandwidth1.6 TB/sec
Error - Correcting CodeYes
Interconnect InterfacePCle Gen4: 64 GB/sec Third generation
NVIDIA NVLink: 600 GB/sec**
Form Factor4/8 SXM GPUs in
NVIDIA HGX™ A100
PCIe
Multi - Instance GPU (MIG)Up to 7GPU instances
Max Power Consumption400W250W
Delivered Performance for Top Apps100%90%
Thermal SolutionPassive
Compute APIsCUDA, DirectCompute, OpenCL™, OpenACC®

* Structural sparsity enabled

* SXM GPUs via HGX A100 server boards; PCIe GPUs via NVLink Bridge for up to 2 GPUs

현존 최고의 개인용 AI 슈퍼컴퓨터

최첨단 AI 기술 개발을 위한 세계 최초의 개인용 슈퍼컴퓨터인 NVIDIA® DGX Station™는 모든 NVIDIA DGX™ 시스템을 구동하고 있는
동일한 NVIDIA GPU Cloud Deep Learning Stack 위에서 구축되었으며 개인용 책상 위에서부터 DGX 시스템과
클라우드에 이르기까지 확장된 경험을 제공받을 수 있습니다.
DGX Station
더욱 빠르게 반복하여 혁신하기
바로가기
SPECIFICATIONS
GPUs4X Tesla V100
TFLOPS (Mixed precision)500
GPU Memory128 GB total system
NVIDIA Tensor Cores2,560
NVIDIA CUDA® Cores20,480
CPUIntel Xeon E5-2698 v4 2.2 GHz(20-Core)
System Memory256 GB RDIMM DDR4
StorageData: 3X 1.92 TB SSD RAID 0
OS: 1X 1.92 TB SSD
NetworkDual 10GBASE-T (RJ45)
Display3X Display Port, 4K resolution
Additional Ports2x eSATA, 2x USB 3.1, 4x USB 3.0
Acoustics< 35 dB
System Weight88 lbs / 40 kg
System Dimensions518 D x 256 W x 639 H (mm)
Maximum Power Requirements1,500 W
Operating Temperature Range10–30 °C
SoftwareUbuntu Desktop Linux OS,
Red Hat Enterprise Linux OS,
DGX Recommended GPU Driver
CUDA Toolkit

NVIDIA A100 기반의 세계 최초 AI 시스템

NVIDIA DGX™ A100 은 모든 AI 워크로드를 위한 유니버설 시스템으로, 세계 최초의 5페타플롭스 AI 시스템을 통해 유례없는 컴퓨팅 밀도, 성능 및 유연성을 제공합니다.
NVIDIA DGX A100은 세계에서 가장 최첨단의 가속기인 NVIDIA A100 Tensor 코어 GPU를 탑재하여 엔터프라이즈 기업들이 NVIDIA AI 전문가의 직접적인
지원과 함께 트레이닝에서 추론, 분석에 이르기까지 배포하기 쉬운 통합 AI 인프라를 구축할 수 있게 합니다.
DGX A100
더욱 빠르게 반복하여 혁신하기
바로가기
SPECIFICATIONS
GPUs8X NVIDIA A100 Tensor Core GPUs
GPU Memory320 GB total
Performance5 petaFLOPS AI
10 petaOPS INT8
NVIDIA NVSwitches6
System Power Usage6.5kW max
CPUDual AMD Rome 7742,
128 cores total, 2.25 GHz
(base), 3.4 GHz (max boost)
System Memory1TB
Networking8x Single-Port Mellanox
ConnectX-6 VPI
200Gb/s HDR InfiniBand
1x Dual-Port Mellanox
ConnectX-6 VPI
10/25/50/100/200Gb/s
Ethernet
StorageOS: 2x 1.92TB M.2 NVME drives
Internal Storage: 15TB
(4x 3.84TB) U.2 NVME drives
SoftwareUbuntu Linux OS
System Weight271 lbs (123 kgs)
Packaged System Weight315 lbs (143 kgs)
System DimensionsHeight: 10.4 in (264.0 mm)
Width: 19.0 in (482.3 mm) MAX
Length: 35.3 in (897.1 mm) MAX
Operating Temperature Range5ºC to 30ºC (41ºF to 86ºF)

NVIDIA DGX + Product

1. DGX + Uyuni
AI 및 딥러닝 학습에 필수적인 GPU서버의 Usability를 극대화하는 솔루션
바로가기
2. DGX + X-labeller
영상 학습데이터 관리부터 딥러닝 학습 및 인퍼런스까지 관리가능한 End-to-End 솔루션
바로가기
3. DGX + DGEN
사용자 도메인에 타겟팅된 가상 학습데이터를 생성하고 머신러닝을 지원하는 솔루션
4. DGX + xDAMS
방대한 규모의 영상 데이터를 보다 효과적으로 수집/저장/관리/분석 할 수 있는 솔루션
제품 구매 문의
궁금하신 사항이 있으시면 문의해 주세요.
담당자가 안내해드리겠습니다.
제출하기