Deep Learning GPU Server und Workstations

für Tensorflow, Caffe, Theano, Torch und mehr


Mit Deep Learning Servern von CADnetwork trainieren Sie Ihre neuronalen Netze in Tensorflow, Caffe, Theano, Torch und anderen Deep Learning Frameworks in deutlich kürzerer Zeit. Die Deep Learning Box von CADnetwork ist hochoptimiert für Machine Learning und Deep Learning Anwendungen. Ausgestattet mit bis zu vier oder acht NVIDIA GTX oder Tesla GPUs steht eine enorme Rechenleistung zur Verfügung. Die Server von CADnetwork sind bereits fertig installiert und eingerichtet für die meisten Deep Learning Frameworks. Wir passen uns auf Ihre Anforderungen und Wünsche an und bieten Ihnen perfekt zugeschnittene Lösungen.

Deep Learning Server für den Rackeinbau



Deep Learning Box Rack

Deep Learning Box Rack (Xeon)



Features
Intel Xeon W-Serie bis 20-Cores
Features
4x GPU je nach Modell
z.B. RTX 4090, RTX 6000 ADA
Features
bis zu 1TB DDR5 Memory
4800MHz ECC 8-Slots

Jetzt Konfigurieren!

Deep Learning Box Rack

Deep Learning Box Rack (EPYC)



Features
AMD EPYC bis 64-Cores
Features
4x GPU je nach Modell
z.B. RTX 4090, RTX 6000 ADA
Features
bis zu 1TB DDR4 Memory
3200MHz ECC 8-Slots

Jetzt Konfigurieren!

Deep Learning Box Rack 8GPU

Deep Learning Box Rack 8GPU



Features
Dual AMD EPYC bis 128-Cores
Features
8x GPU je nach Modell
z.B. RTX 4090, 6000 ADA, A100, H100
Features
bis zu 1.5TB DDR4 RAM
3200MHz ECC 24-Slots

Jetzt Konfigurieren!



Deep Learning Appliances mit NVLink



Deep Learning Appliance mit Tesla V100 NVLink

Deep Learning Appliance 1U



Features
Dual Intel Xeon Scalable Family
Silver/Gold/Platinum Neu!
Features
bis 4x Tesla V100 mit NVLink
NVIDIA SMX2 Module
Features
bis zu 768GB DDR4 Memory
2666MHz ECC 12-Slots
Features
ab 45.000 € zzgl. MwSt
modular konfigurierbar
Features
3 Jahre Support included
optional bis 5 Jahre

Jetzt Konfigurieren!

NVIDIA DGX-1

NVIDIA DGX-1



Features
Dual Intel Xeon E5-2698v4 Prozessoren previous Generation
Features
8x Tesla V100 mit NVLink
NVIDIA SMX2 Module
Features
512GB DDR4 Memory
2133MHz ECC
Features
143.000 € zzgl. MwSt
ohne Wartung & Support
Features
1 Jahr Support included
15.000 € jedes weitere Jahr

Learn more about NVIDIA DGX-1

Deep Learning Box Rack 8GPU

Deep Learning Appliance 4U



Features
Dual Intel Xeon Scalable Family
Silver/Gold/Platinum Neu!
Features
bis 8x Tesla V100 mit NVLink
NVIDIA SMX2 Module
Features
bis zu 1.5TB DDR4 Memory
2666MHz ECC 24-Slots
Features
ab 49.000 € zzgl. MwSt
modular konfigurierbar
Features
3 Jahre Support included
optional bis 5 Jahre

Jetzt Konfigurieren!




Deep Learning Workstations für den Arbeitsplatz




Deep Learning Box Desk

Deep Learning Box Desk



Features
Single Prozessor Core i7, i9
oder Dual Intel Xeon
Features
4x GPU Unterstützung
(GeForce | Titan | Quadro)
Features
bis zu 512GB DDR4 Memory
2666MHz ECC 8-Slots
Features
ab 4.990 € zzgl. MwSt
3 Jahre Wartung included

Zur Deep Learning Box

NVIDIA DGX Station

NVIDIA DGX Station



Features
Dual Intel Xeon E5-2698v4 Prozessoren previous Generation
Features
4x Tesla V100 mit NVLink
NVIDIA SMX2 Module
Features
256GB DDR4 Memory
2133MHz ECC
Features
82.490 € zzgl. MwSt
3 Jahre Wartung included

Learn more about NVIDIA DGX Station

Die Ready-To-Brain™ Technologie


Eine Maschine für Deep Learning Anwendungen zu installieren und einzurichten dauert mitunter mehrere Tage, und gleicht eher einem Trial-and-Error Verlauf. Verwenden Sie Ihre Zeit lieber sinnvoll für Erstellung und Training von neuronalen Netzen, anstatt mit zeitraubenden Linux Installations- und Konfigurationsschritten. Durch die Ready-to-Brain™ Technologie von CADnetwork® sind unsere Geräte sofort einsatzbereit. Die Server werden komplett fertig mit den gängigsten AI Tools geliefert, so sparen Sie sich Zeitaufwand und können direkt mit Ihren eigentlichen Aufgaben beginnen.

 

Tensorflow Deep LearningCaffe Deep LearningTheano Deep LearningTorch Deep Learning
CADnetwork Deep Learning Software Stack mit Docker


Mit umfangreichem DL Softwarestack

Die Geräte der CADnetwork® Deep Learning Box™ Familie sind mit einem umfangreichen Softwarestack für AI Anwendungen ausgestattet. Die Deep Learning Frameworks und Bibliotheken sind hierbei in komfortablen docker Containern angeordnet und ermöglichen so einfachen und stabilen Zugriff auf die Ressourcen. Die gängigsten Frameworks wie z.B. TensorFlow, Caffe2 und Theano sind bereits fertig installiert und sofort einsatzbereit.

Bereits unterstützte Deep Learning Frameworks: Tensorflow, Caffe2, Theano, Torch

Ultraschnelle Beschleunigung zwischen GPUs dank NVLink™


Durch den Einsatz der NVLink-Technologie wurde die Übertragungsrate der Tesla V100 in beide Richtungen von 20 auf 25 GB/s erhöht. Diese Technologie kann für die Datenübertragung zwischen Grafikprozessoren und CPUs (GPU-to-CPU) sowie zwischen Grafikprozessoren (GPU-to-GPU) eingesetzt werden, wie dies bei den Deep Learning Appliances mit Tesla V100 der Fall ist.



NVIDIA DGX-1 Deep Learning Appliance


Die Deep Learning Appliances NVIDIA DGX-1 und DGX Station sind mit acht NVIDIA Tesla P100 / V100 GPUs ausgestattet und sind die Luxus Systeme unter den Deep Learning Servern. Das komplette Rundum-Sorglos-Paket mit Docker Images für alle gängigen Deep Learning Frameworks, wie z.B. Tensorflow, Caffe, Theano, Torch, und einem jährlichen Wartungsvertrag für Software und Hardware ist für Unternehmen geeignet, die vor allem Wert auf die höchstmögliche Performance legen.

AUSWAHL DER RICHTIGEN DEEP LEARNING HARDWARE

Das wichtigste Auswahlkriterium für den richtigen Deep Learning Server oder Deep Learning Workstation ist die benötigte Rechenleistung für die zu trainierenden neuronalen Netze. Für das Trainieren von neuronalen Netzen sind sehr viele Rechendurchgänge, auch Iterationen genannt, notwending. Die Anzahl der nötigen Iterationen, die größe und Art der zu trainierenden Daten (z.B. Anzahl der Bilder und Auflösung und Größe der Bilder für Computer Vision) und die Tiefe des neuronalen Netzes, also die Anzahl der Ebenen und Layer im neuronalen Netz sind ausschlaggebend für die benötigte Rechenleistung.
Ausschlaggebend für die benötigte Rechenleistung:
-Komplexität des neuronalen Netzes - Anzahl an künstlichen Neuronen, Tiefe / Anzahl Layer des neuronalen Netzes
-Anzahl der Iterationen - Anzahl der Durchläufe des neuronalen Netzes zum trainieren des Deep Learning Netzes
-Datenmenge - Menge, Art und Geröße der Datenelemente

Um die immense Rechenleistung für das Training von neuronalen Netzen zur Verfügung zu stellen wäre ein großes Cluster bestehend aus mehreren CPU Nodes nötig. Glücklicherweise können fast alle Deep Learning Frameworks durch Grafikkarten, auch GPUs genannt, deutlich beschleunigt werden. So stellt z.B. eine GPU Workstation mit vier NVIDIA GPUs nahezu die Rechenleistung eines ganzen CPU Cluster bestehend aus 10 Nodes zur Verfügung.

 

 

TEST

Kontaktiere uns

Zentrale:
+49 2236 30 903 - 0

Beratung vor dem Kauf:
+49 2236 30 903 - 10

Tech. Support nach dem Kauf:
+49 2236 30 903 - 20

Fax Anfragen, Bestellungen:
+49 2236 30 903 - 29

Rechtliches & Infos