Wydajność, bezpieczeństwo i elastyczność jako fundament skutecznej strategii AI.
Serwery PowerEdge XE są zoptymalizowane pod kątem przyspieszenia działania i stworzone z myślą o sztucznej inteligencji (AI), generatywnej AI (GenAI) oraz wysokowydajnych obliczeniach (HPC). Dzięki wyjątkowemu przyspieszeniu i szerokiej gamie opcji procesorów graficznych (GPU) te potężne platformy umożliwiają szybsze realizowanie pomysłów.
Personalizacja i usługi.
Profesjonalne doradztwo dostosowane do indywidualnych potrzeb klienta - od definiowania celów i projektowania architektury po budowę modeli sztucznej inteligencji.
Inteligentna automatyzacja.
Uproszczenie i automatyzacja zarządzania oraz monitorowania dzięki iDRAC, obsłudze OME i CloudIQ dla AIOps.
Bezpieczeństwo.
Wbudowane funkcje zabezpieczeń platformy, w tym weryfikacja zabezpieczonych komponentów oraz sprzętowy punkt zaufania (Silicon Root of Trust).
Partnerzy.
Gotowe do użycia rozwiązania AI z rozbudowanym ekosystemem partnerów, w tym Hugging Face, Meta, NVIDIA oraz integratorami systemów (SI).
Szybkie tworzenie, trenowanie i wdrażanie dużych modeli uczenia maszynowego umożliwia serwer aplikacyjny o wysokiej wydajności Dell PowerEdge XE9680, zaprojektowany z myślą o klastrach superkomputerowych HPC oraz największych zbiorach danych dla AI. Pełna łączność między procesorami graficznymi (GPU).
Moc obliczeniowa: dwa skalowalne procesory Xeon® 4. generacji, każdy z maksymalnie 56 rdzeniami
Pamięć: maksymalnie 32 gniazda pamięci DDR5 DIMM, maksymalnie 8 dysków U.2 oraz maksymalnie 10 przednich gniazd rozszerzeń PCIe Gen 5
Chłodzenie: praca w trybie chłodzenia powietrzem (do 35°C) z ulepszoną efektywnością energetyczną dzięki technologii Dell Smart Cooling
Maksymalne wykorzystanie przestrzeni w centrum danych umożliwia serwer o dużej gęstości z 4 procesorami graficznymi, zaprojektowany pod kątem chłodzenia cieczą. Smukła obudowa 2U pozwala na wykorzystanie największej liczby rdzeni GPU przypadających na szafę serwerową.
Moc obliczeniowa: dwa skalowalne procesory Xeon® 4. generacji, każdy z maksymalnie 56 rdzeniami
Pamięć: maksymalnie 32 gniazda pamięci DDR5 DIMM, maksymalnie 4 dyski oraz maksymalnie 4 gniazda rozszerzeń PCIe Gen 5
Chłodzenie: większa wydajność i szybkość dzięki chłodzonym cieczą procesorom CPU i GPU; inteligentne chłodzenie cieczą maksymalizuje wydajność; niższy całkowity koszt posiadania (TCO) dzięki zoptymalizowanej efektywności wykorzystania energii
Przyspieszone trenowanie modeli AI, wnioskowanie, analitykę oraz tradycyjne obciążenia symulacyjne HPC zapewnia chłodzony powietrzem serwer z 4 procesorami graficznymi. Wysokowydajne trenowanie modeli AI z przepustowością GPU-do-GPU wynoszącą maksymalnie 900 GB/s.
Ciągłe przetwarzanie danych i szybsza wydajność I/O dzięki obsłudze GPUDirect®, umożliwiającej transfery o wysokiej przepustowości i niskich opóźnieniach bezpośrednio z pamięci masowej do pamięci GPU, z pominięciem procesorów CPU serwera.
Moc obliczeniowa: dwa skalowalne procesory Xeon® 4. generacji, każdy z maksymalnie 56 rdzeniami
Pamięć: maksymalnie 32 gniazda pamięci DDR5 DIMM, maksymalnie 8 dysków oraz maksymalnie 4 gniazda rozszerzeń PCIe Gen 5
Chłodzenie: obsługa najnowszych technologii o najwyższym poborze mocy przy temperaturze otoczenia do 35°C dzięki konstrukcji chłodzonej powietrzem w obudowie 4U
Największy wybór procesorów graficznych opartych na PCIe w ekonomicznej konfiguracji serwera 2RU, zoptymalizowanej pod kątem chłodzenia powietrzem akceleratorów oraz wymagań energetycznych. Ten wysokowydajny serwer chłodzony powietrzem, zaprojektowany do szerokiego zakresu zastosowań, zapewnia możliwość skalowania wraz z rozwojem firmy.
Moc obliczeniowa: dwa procesory Xeon® 4. lub 5. generacji o dużej liczbie (do 64) rdzeni z wbudowanym przyspieszeniem AI
Pamięć: maksymalnie 32 gniazda pamięci DDR5 DIMM, maksymalnie 8 dysków oraz gniazda rozszerzeń PCIe Gen 5
Chłodzenie: konstrukcja chłodzona powietrzem z akceleratorami skierowanymi do przodu zapewnia lepsze chłodzenie i obsługuje akceleratory o wyższej projektowej mocy cieplnej (TDP) (do 350 W)
Przyspieszone działanie AI dzięki procesorom CPU, GPU i akceleratorom Intel®.
Intel rozwija narzędzia AI typu open source, oprogramowanie oraz optymalizacje, aby ułatwić wdrażanie rozwiązań i wspierać szeroki ekosystem dostawców. Procesory Intel® Xeon® mają otwartą architekturę standardów, która umożliwia dodawanie akceleratorów i procesorów graficznych. W przypadku gęstych obciążeń HPC i przyspieszenia AI można dodać procesory graficzne Intel® Data Center GPU Max Series. W przypadku dedykowanych zastosowań AI, takich jak wnioskowanie i trenowanie dużych modeli, można zastosować specjalnie zaprojektowane akceleratory Intel® Gaudi® 3 AI, które rozszerzają platformę i przygotowują ją na wszelkie wyzwania.
AMD gwarantem wydajności AI i bezpieczeństwa.
AMD to lider w dziedzinie wysokowydajnych i adaptacyjnych technologii obliczeniowych, który dostarcza produkty i usługi wspierające rozwój nowoczesnych centrów danych oraz zastosowań sztucznej inteligencji w biznesie. AI wymaga nowoczesnej strategii dla centrum danych. Dell i AMD wspólnie umożliwiają stworzenie centrum danych gotowego na AI, zapewniając wysoką wydajność, efektywność kosztową oraz zaawansowane zabezpieczenia, które przygotowują Twoją firmę na przyszłość.
NVIDIA - zaawansowana sztuczna inteligencja gotowa na potrzeby biznesu.
Przekształć swoją firmę dzięki NVIDIA AI - zaawansowanej platformie oferującej innowacje na każdym poziomie: od przyspieszonej infrastruktury przez oprogramowanie klasy korporacyjnej po modele AI. Dzięki przyspieszeniu całego procesu pracy z AI projekty szybciej trafiają do produkcji, osiągając większą dokładność, efektywność i wydajność przy niższych kosztach całkowitych.