Kontaktieren Sie unsere Vertriebsmitarbeiter.
Leistung, Sicherheit und Flexibilität für eine erfolgreiche KI-Strategie.
PowerEdge XE-Server sind beschleunigungsoptimiert und speziell für künstliche Intelligenz (KI), generative KI (GenAI) und High Performance Computing (HPC) entwickelt. Mit erstklassiger Beschleunigung und vielfältigen GPU-Optionen sind diese leistungsstarken Plattformen optimiert, um Ideen schneller umzusetzen.
Anpasssung und Services.Professionelle Beratung zur Erfüllung individueller Kundenanforderungen, von der Definition von Zielen und dem Design von Achitekturen bis hin zur Erstellung von KI-Modellen.
|
|
Intelligente Automatisierung.Vereinfachung und Automatisierung des Managements und Monitorings mit iDRAC, OME-Support und CloudIQ für AIOps.
|
|
Sicherheit.Integrierte Plattformsicherheitsfunktionen, einschließlich Secured Component Verification und Silicon Root of Trust.
|
|
Partner.Gebrauchsfertige KI-Lösungen mit umfangreichem Partnernetzwerk, einschließlich Hugging Face, Meta, NVIDIA, SI.
|
|
Mit dem leistungsstarken Dell PowerEdge XE9680-Anwendungsserver, der für HPC-Supercomputing-Cluster und die größten Datenvolumen für KI entwickelt wurde, können Sie große Modelle für maschinelles Lernen schnell entwickeln, trainieren und bereitstellen. Vollständige Interkonnektivität zwischen GPUs.
Compute: zwei skalierbare Intel Xeon® Prozessoren der 4. Generation mit bis zu 56 Cores pro Prozessor
Arbeitsspeicher: bis zu 32 DDR5-Arbeitsspeicher-DIMM-Steckplätze, bis zu acht U.2-Laufwerke und bis zu zehn nach vorne gerichtete PCIe-Gen-5-Erweiterungssteckplätze
Kühlung: Betrieb mit Luftkühlung (bis zu 35 °C) mit verbesserter Energieeffizienz durch die Dell Smart Cooling-Technologie
Maximieren Sie Ihre Stellfläche im Rechenzentrum mit einem 4-GPU-Server mit dichtem Formfaktor, der speziell für die Flüssigkeitskühlung entwickelt wurde. Der schlanke 2-HE-Formfaktor ermöglicht die höchste Anzahl von GPU-Cores pro Rack.
Compute: zwei skalierbare Intel Xeon® Prozessoren der 4. Generation mit bis zu 56 Cores pro Prozessor
Arbeitsspeicher: bis zu 32 DDR5-Arbeitsspeicher-DIMM-Steckplätze, bis zu vier Laufwerke und bis zu 4 PCIe-Gen-5-Erweiterungssteckplätze
Kühlung: Steigerung der Leistung und Geschwindigkeit mit flüssigkeitsgekühlten CPUs und GPUs, intelligente flüssigkeitsgekühlte CPUs und GPUs für maximale Leistung, niedrigere Gesamtbetriebskosten (TCO) dank optimierter Energienutzungseffizienz
Beschleunigen Sie KI-Training, Inferencing, Analysen und herkömmliche HPC-Simulations-Workloads mit einem luftgekühlten 4-GPU-Server. Leistungsfähiges KI-Modelltraining mit bis zu 900 GB/s GPU-zu-GPU-Bandbreite.
Kontinuierliche Datenverarbeitung und schnellere I/O-Leistung mit GPUDirect®-Support für Übertragungen mit hohem Durchsatz und geringer Latenz direkt vom Storage zum GPU-Arbeitsspeicher unter Umgehung der Server-CPUs
Compute: zwei skalierbare Intel Xeon® Prozessoren der 4. Generation mit bis zu 56 Cores pro Prozessor
Arbeitsspeicher: bis zu 32 DDR5-Arbeitsspeicher-DIMM-Steckplätze, bis zu acht Laufwerke und bis zu vier PCIe-Gen-5-Erweiterungssteckplätze
Kühlung: Support für Technologien der nächsten Generation mit der höchsten Wattleistung und einer Umgebungstemperatur von bis zu 35 °C in einem luftgekühlten 4-HE-Design.
Die breiteste Auswahl an PCIe-basierten GPUs in einer kosteneffizienten 2-HE-Serverkonfiguration, die für die Luftkühlung und den Strombedarf des Accelerators optimiert ist. Skalieren Sie mit diesem luftgekühlten Hochleistungsserver, der für eine Vielzahl von Anwendungen entwickelt wurde, gemäß Wachstum.
Compute: zwei Intel Xeon® Prozessoren der 4. oder 5. Generation mit einer hohen Core-Anzahl von bis zu 64 Cores und On-Chip-KI-Beschleunigung
Arbeitsspeicher: bis zu 32 DDR5-Arbeitsspeicher-DIMM-Steckplätze, bis zu acht Laufwerke und PCIe-Gen-5-Erweiterungssteckplätze
Kühlung: luftgekühltes Design mit nach vorne gerichteten Accelerators für eine bessere Kühlung und für den Support von Accelerators mit höherer TDP (bis zu 350 W)
Beschleunigung für KI mit Intel® CPUs, GPUs und Accelerators.
Intel treibt Open-Source-KI-Tools, -Software und -Optimierungen voran, um die Bereitstellung zu vereinfachen und ein umfassendes Anbieterökosystem zu ermöglichen. Intel® Xeon® Prozessoren verfügen über ein Framework mit offenen Standards zum Hinzufügen von Accelerators und GPUs. Für eine dichte HPC- und KI-Beschleunigung fügen Sie die Intel® Data Center GPUs der Max-Reihe hinzu. Für dedizierte KI oder Inferencing und Training großer Modelle fügen Sie speziell entwickelte Intel® Gaudi® 3 KI-Beschleuniger hinzu, um eine erweiterte Plattform zu erhalten, die für alles gerüstet ist.
AMD – KI-gestützte Leistung und Sicherheit.
AMD ist ein führendes Unternehmen im Bereich High Performance Computing und Adaptive Compute, das Produkte und Services anbietet, die dazu beitragen, die Zukunft des modernen Rechenzentrums und der KI für Ihr Unternehmen voranzubringen. KI erfordert eine moderne Rechenzentrumsstrategie. Gemeinsam ermöglichen Dell und AMD ein KI-fähiges Rechenzentrum, das Leistung, Kosteneffizienz und erweiterte Sicherheit bietet und Ihr Unternehmen zukunftsfähig macht.
NVIDIA - Fortschrittliche KI, bereit für Unternehmen.
Transformieren Sie jedes Unternehmen mit NVIDIA AI, einer fortschrittlichen Plattform mit Full-Stack-Innovationen über eine beschleunigte Infrastruktur, Software der Enterprise-Klasse und KI-Modelle. Durch die Beschleunigung des gesamten KI-Workflows erreichen Projekte schneller, mit höherer Genauigkeit, Effizienz und Leistung die Produktion – und das bei geringeren Gesamtkosten.
*Pflichtfeld.
Bitte beachten Sie unsere Datenschutzhinweise, die Sie umfassend über unsere Datenverarbeitung und Ihre Datenschutzrechte informieren.