NVIDIA –
de beste prestaties voor AI.

Om de voordelen van kunstmatige intelligentie te kunnen gebruiken, zijn er uitgebreide rekenprestaties nodig. Een krachtig systeem dat aan deze eisen voldoet, is NVIDIA® DGX™. Het baseert op het high perfomance NVIDIA GPU-platform. Het unieke: NVIDIA DGX biedt organisaties GPU-geoptimaliseerde software en vereenvoudigd beheer – en dat in een compact systeem.

De voordelen van DGX Station en DGX Server:

Geïntegreerde hardware en software.

Gebaseerd op de Tensor Core-technologie van NVIDIA™ ter versnelling van AI en HPC.

Deep learning-training, inferentie en versnelling van analyses in één systeem.

Ongeëvenaarde prestaties voor snellere iteraties en innovaties.

cw43_image-nvidia-fuer-ki-de-01
DGX in het datacenter...

NVIDIA DGX™ A100 is het universele systeem voor alle AI-workloads en biedt ongekende computing dichtheid, prestaties en flexibiliteit in 's werelds eerste 5 petaFLOPS AI-systeem. NVIDIA DGX A100 heeft 's werelds meest geavanceerde versneller, de NVIDIA A100 Tensor Core graphics processor, waarmee organisaties trainingen, inferenties en analyses kunnen consolideren in één uniforme, eenvoudig te implementeren AI-infrastructuur met directe toegang tot NVIDIA AI-experts.

BEKIJK PDF

cw43_image-nvidia-fuer-ki-de-02
… of DGX op kantoor.

NVIDIA® DGX Station A100 is een compact systeem met het formaat van een workstation en biedt actuele technologieën, een snelle beschikbaarstelling en ongelooflijke lokale rekenprestaties. Om jou te ondersteunen tijdens je werk, is een fluisterstil koelsysteem geïntegreerd en staan er vele tools ter beschikking voor een versnelde ontwikkeling.

BEKIJK PDF

cw43_image-nvidia-fuer-ki-de-03
Welke grafische processors bieden de beste prestaties?
A100.

Voor kunstmatige intelligentie is met name één processor geschikt: De NVIDIA® A100 biedt versnelling zonder weerga in elk formaat op het gebied van deep learning training, deep learning inferentie, gegevensanalyses en HPC. 

Met de derde generatie Tensor-rekeneenheid maakt de nieuwe Ampere-architectuur een 20-voudige prestatieverbetering mogelijk in een AI-omgeving. De nieuwe Multi-Instance-GPU (MIG) feature maakt de verdeling van de belasting tot maximaal zeven instanties mogelijk en optimaliseert deze, waardoor data science teams zo efficiënt mogelijk kunnen werken.

cw43_image-nvidia-fuer-ki-de-04
T4.

Een alleskunner is de NVIDIA® T4 met zijn compacte vormfactor. Deze versnellers leveren een zeer hoge dichtheid en flexibiliteit. Geoptimaliseerd voor deep learning inferentie en daarmee een ideale aanvulling op deep learning training systemen.

Op grafisch gebied levert de T4 een native gebruikerservaring voor virtuele desktops op office-gebied evenals voor virtuele workstations in het middensegment van CAD. 

cw43_image-nvidia-fuer-ki-de-05
A40.

Om de beste prestaties mogelijk te maken voor virtuele workstations is de NVIDIA® A40 momenteel de beste keuze. Deze versneller levert genoeg prestaties voor veeleisende applicaties, zoals CAD, simulaties, VR, en maakt zelfs realtime rendering mogelijk voor een fotorealistische ervaring.

Choose the right NVIDIA Data Center GPU

Workload

 

Description

NVIDIA A100 SXM4

NVIDIA A100 PCIe

NVIDIA T4

NVIDIA A40

 

World's Most Powerful Data Center GPU

Versatile Data Center GPU for Mainstream Computing

World's Most Powerful Data Center GPU for Visual Computing

Deep Learning Training

For the absolute fastest model training time

8-16 GPUs
for new installs

4-8 GPUs

 

 

Deep Learning Inference

For batch and real-time inference

1 GPU w/ MIG

1 GPU w/ MIG

1 GPU

 

HPC / AI

For scientific computing centers and higher ed and research institutions

4 GPUs with MIG for
supercomputing centers

1-4 GPUs with MIG for
higher ed and research

 

 

Render Farms

For batch and real-time rendering

 

 

 

4-8 GPUs

Graphics

For the best graphics performance on professional virtual workstations

 

 

2–8 GPUs for mid-range
virtual WS or
mainstream graphics

4-8 GPUs for highest
performing graphics
and simulation

Enterprise Acceleration

Mixed Workloads – Graphics, ML, DL, analytics, training, inference

1-4 with MIG for compute intensive
multi-GPU workloads

1-4 GPUs with MIG for
compute intensive
single GPU workloads

4-8 GPUs for balanced
workloads

2-4 GPUs for graphics
intensive and compute
workloads

Edge Acceleration

Edge solutions with differing use cases and location

 

1-2 GPU with MIG

1-8 GPUs for inference
and video workloads

2-4 GPUs for graphics
intensive & AR/VR
workloads

Workload

 

Description

NVIDIA A100 SXM4

NVIDIA A100 PCIe

 

World's Most Powerful Data Center GPU

Deep Learning Training

For the absolute fastest model training time

8-16 GPUs
for new installs

4-8 GPUs

Deep Learning Inference

For batch and real-time inference

1 GPU w/ MIG

1 GPU w/ MIG

HPC / AI

For scientific computing centers and higher ed and research institutions

4 GPUs with MIG for
supercomputing centers

1-4 GPUs with MIG for
higher ed and research

Render Farms

For batch and real-time rendering

 

 

Graphics

For the best graphics performance on professional virtual workstations

 

 

Enterprise Acceleration

Mixed Workloads – Graphics, ML, DL, analytics, training, inference

1-4 with MIG for compute intensive
multi-GPU workloads

1-4 GPUs with MIG for
compute intensive
single GPU workloads

Edge Acceleration

Edge solutions with differing use cases and location

 

1-2 GPU with MIG

Workload

 

Description

NVIDIA T4

NVIDIA A40

 

Versatile Data Center GPU for Mainstream Computing

World's Most Powerful Data Center GPU for Visual Computing

Deep Learning Training

For the absolute fastest model training time

 

 

Deep Learning Inference

For batch and real-time inference

1 GPU

 

HPC / AI

For scientific computing centers and higher ed and research institutions

 

 

Render Farms

For batch and real-time rendering

 

4-8 GPUs

Graphics

For the best graphics performance on professional virtual workstations

2–8 GPUs for mid-range
virtual WS or
mainstream graphics

4-8 GPUs for highest
performing graphics
and simulation

Enterprise Acceleration

Mixed Workloads – Graphics, ML, DL, analytics, training, inference

4-8 GPUs for balanced
workloads

2-4 GPUs for graphics
intensive and compute
workloads

Edge Acceleration

Edge solutions with differing use cases and location

1-8 GPUs for inference
and video workloads

2-4 GPUs for graphics
intensive & AR/VR
workloads

 

Wil je advies van één van onze experts?

Neem dan contact met ons op.

* verplichte velden

Bekijk onze privacyverklaring die je uitgebreid informeert over onze gegevensverwerking en jouw rechten inzake gegevensbescherming.