BLOG

At vælge den bedste DRAM til AI

Last updated:

  Denne side blev automatisk oversat af DeepL. Switch to English

Efterhånden som AI-arbejdsbelastninger bliver mere krævende, er det afgørende at vælge den rigtige DRAM-konfiguration for at forbedre ydeevnen. Men hvad betyder mest, hastighed eller kapacitet? I denne artikel vil fem forskellige DRAM-kits blive evalueret på en gaming/AI-pc for at finde den bedste DRAM-konfiguration.

Forskellige DRAM-opsætninger vil blive testet ved hjælp af Ollama-værktøjet, der måler tokens pr. sekund og hukommelsesforbrug på tværs af tre store sprogmodeller (LLM'er).

Testopsætning

Testplatformen består af:

AI-modeller

Tre LLM'er (Large Language Models) af varierende størrelse med forskellige hukommelseskrav blev evalueret:

  • Llama 3.2 (3B) - En letvægtsmodel, der passer til de fleste AI-pc'er.
  • Llama 3.1 (8B) - En mellemklassemodel, der nyder godt af både hastighed og kapacitet.
  • DeepSeek-R1 (70B) - En stor model, der skubber til DRAM-grænserne.

Benchmarking-metode

Ollama-værktøjet blev brugt til at indlæse de forskellige modeller. Ollama giver en tokens/sekund-score til at måle inferenshastigheden. Hukommelsesforbruget blev sporet for at identificere, hvordan forskellige DRAM-konfigurationer håndterer hver model. De testede prompter er følgende:

  • "Hvad er fordelene ved DDR5 i forhold til DDR4-hukommelse?"
  • "Skriv en novelle om en AI-revolution i en verden, hvor mennesker og maskiner lever side om side."
  • "Forklar begrebet neurale netværk, og hvordan de trænes i enkle vendinger."
  • "Forklar begrebet reinforcement learning, og hvordan det adskiller sig fra supervised learning, med eksempler."

Endelig blev Final Fantasy XIV Dawntrail-benchmark testet for at måle spilydelsen for hver DRAM-konfiguration. Målet er at finde frem til den DRAM-konfiguration, der kan håndtere AI-opgaver og gaming på samme tid uden at gå på kompromis med ydeevnen.

Resultater og analyse

dd2dcdb7-3e61-4cdf-8de9-58c9a6e10923

Fig. 1: Dette diagram viser tokens/sekund for hver af de DRAM-konfigurationer, der er testet i forskellige LLM'er, der kun bruger CPU'en.

7880e64e-2639-4fec-a5ba-493f2957a2b6

Fig.2: Ydeevne for de testede DRAM-konfigurationer, når LLM'erne kører med RTX 4090. Resultaterne er i tokens/sekund.

b4aa9215-4486-4ce7-9928-2da5e50e33e8

Fig.3: Målte systemets hukommelsesforbrug, mens hver LLM kørte. CPU vs. CPU og GPU. Resultaterne er ca. i GB.

a2844437-6d97-4179-8d2d-4b58dde4b14d

FFXIV Dawntrail-benchmark for hver af de testede DRAM-konfigurationer.

Et par vigtige observationer af resultaterne.

32GB- og 48GB-konfigurationer kunne ikke passe til DeepSeek-R1 (70B)-modellen, når man kun bruger CPU'en. Selv med RTX 4090 er 32 GB DRAM på grænsen, når 70b-modellen er i brug.

Den højere hastighed på 8400 MT/s CUDIMM-sættet overgår enhver anden DRAM-konfiguration i spil, men selv med en RTX 4090, der kører en stor AI-model, er der ikke meget ledig hukommelse tilbage.

Hvilket DRAM-kit er bedst til AI?

  • Kun AI-arbejdsbelastninger: Det er ret usandsynligt, at nogen vil køre en LLM uden en GPU, så et minimum af et 64 GB DRAM-sæt vil være at foretrække. Ideelt set er 96 GB DRAM-sættet det bedste valg for at være fremtidssikret, hvis der skal bruges en endnu større LLM.
  • Gaming + AI: 8400 MT/s er den åbenlyse vinder her. Selvom 64 GB DRAM-sættet ikke er så langt bagefter i spil, og da RTX 4090 giver den ekstra tilgængelige systemhukommelse, er dette det foretrukne valg her.

Konklusion

Til AI-tunge arbejdsbelastninger spiller DRAM-kapacitet en afgørende rolle, især med større modeller. Men for hybridsystemer, der håndterer både gaming og AI, er optimering af hastighed og latenstid lige så vigtig. Når LLM'er løbende optimeres til forskellig hardware, og kravene reduceres, ville det være bedst at have ekstra hukommelseskapacitet, så en større model kunne køre i systemet for at opnå mere nøjagtige resultater.

Baseret på ovenstående overvejelser er det valgte DRAM-kit CMH96GX5M2B7000C40.

PRODUKT REGISTRERING

RELATERET INDHOLD