Ponieważ obciążenia związane ze sztuczną inteligencją stają się coraz bardziej wymagające, wybór odpowiedniej konfiguracji pamięci DRAM ma kluczowe znaczenie dla poprawy wydajności. Ale co liczy się bardziej, szybkość czy pojemność? W tym artykule pięć różnych zestawów pamięci DRAM zostanie ocenionych na komputerze do gier/AI w celu znalezienia najlepszej konfiguracji DRAM.
Różne konfiguracje pamięci DRAM zostaną przetestowane za pomocą narzędzia Ollama, mierząc tokeny na sekundę i zużycie pamięci w trzech dużych modelach językowych (LLM).
Platforma testowa składa się z:
Oceniono trzy modele LLM (Large Language Models) o różnych rozmiarach i różnym zapotrzebowaniu na pamięć:
Do załadowania różnych modeli użyto narzędzia Ollama. Ollama zapewnia wynik tokenów/sekundę do pomiaru szybkości wnioskowania. Zużycie pamięci było śledzone w celu określenia, jak różne konfiguracje DRAM radzą sobie z każdym modelem. Przetestowano następujące podpowiedzi:
Na koniec przetestowano benchmark Final Fantasy XIV Dawntrail, aby zmierzyć wydajność w grach każdej konfiguracji DRAM. Celem jest znalezienie konfiguracji DRAM, która może jednocześnie obsługiwać zadania AI i gry bez obniżania wydajności.
Rys. 1: Ten wykres pokazuje tokeny/sekundę dla każdej z konfiguracji DRAM testowanych w różnych LLM wykorzystujących tylko CPU.
Rys. 2: Wydajność testowanych konfiguracji DRAM, gdy LLM działa z RTX 4090. Wyniki podano w tokenach/sekundę.
Rys. 3: Zmierzono wykorzystanie pamięci systemowej podczas uruchamiania każdego LLM. CPU vs CPU i GPU. Wyniki podano w przybliżeniu w GB.
Test porównawczy FFXIV Dawntrail dla każdej z testowanych konfiguracji pamięci DRAM.
Kilka ważnych obserwacji wyników.
Konfiguracje 32 GB i 48 GB nie były w stanie zmieścić modelu DeepSeek-R1 (70B) przy użyciu samego procesora. Nawet w przypadku korzystania z RTX 4090, 32 GB pamięci DRAM jest na krawędzi, gdy używany jest model 70b.
Wyższa prędkość zestawu 8400 MT/s CUDIMM przewyższa każdą inną konfigurację DRAM w grach, ale nawet w przypadku RTX 4090 z dużym modelem AI nie pozostaje zbyt wiele dostępnej pamięci.
W przypadku obciążeń związanych ze sztuczną inteligencją, pojemność pamięci DRAM odgrywa kluczową rolę, zwłaszcza w przypadku większych modeli. Jednak w przypadku systemów hybrydowych zarządzających zarówno grami, jak i sztuczną inteligencją, optymalizacja szybkości i opóźnień jest równie ważna. Dzięki ciągłej optymalizacji LLM dla różnych urządzeń i zmniejszeniu wymagań, najlepiej byłoby mieć dodatkową pojemność pamięci, aby większy model mógł działać w systemie w celu uzyskania dokładniejszych wyników.
W oparciu o powyższe rozważania, wybranym zestawem pamięci DRAM jest CMH96GX5M2B7000C40.
REJESTRACJA PRODUKTÓW