Naarmate AI-werklasten veeleisender worden, is het kiezen van de juiste DRAM-configuratie cruciaal voor het verbeteren van de prestaties. Maar wat is belangrijker, snelheid of capaciteit? In dit artikel worden vijf verschillende DRAM-kits geëvalueerd op een gaming/AI-pc om de beste DRAM-configuratie te vinden.
Verschillende DRAM-opstellingen worden getest met het programma Ollama, waarbij tokens per seconde en geheugengebruik worden gemeten voor drie grote taalmodellen (LLM's).
Het testplatform bestaat uit:
Drie LLM's (Large Language Models) van verschillende groottes met verschillende geheugeneisen werden geëvalueerd:
Het hulpprogramma Ollama werd gebruikt om de verschillende modellen te laden. Ollama geeft een tokens/seconde-score om de inferentiesnelheid te meten. Het geheugengebruik werd bijgehouden om te zien hoe verschillende DRAM-configuraties met elk model omgaan. De volgende prompts werden getest:
Tot slot werd Final Fantasy XIV Dawntrail-benchmark getest om de gamingprestaties van elke DRAM-configuratie te meten. Het doel is om de DRAM-configuratie te vinden die tegelijkertijd AI-taken en gaming aankan zonder dat dit ten koste gaat van de prestaties.
Fig.1: Deze grafiek toont de tokens per seconde voor elk van de DRAM-configuraties die zijn getest in verschillende LLM's waarbij alleen de CPU wordt gebruikt.
Afb.2: Prestaties van de geteste DRAM-configuraties wanneer de LLM's draaien met de RTX 4090. Resultaten zijn in tokens/seconde.
Fig.3: Het gemeten geheugengebruik van het systeem tijdens het uitvoeren van elke LLM. CPU vs CPU en GPU. De resultaten zijn ongeveer in GBs.
FFXIV Dawntrail benchmark voor elk van de geteste DRAM-configuraties.
Enkele belangrijke observaties van de resultaten.
Configuraties van 32 GB en 48 GB waren niet geschikt voor het DeepSeek-R1 (70B) model wanneer alleen de CPU werd gebruikt. Zelfs met de RTX 4090 is 32 GB DRAM op het randje wanneer het 70b-model wordt gebruikt.
De hogere snelheid van de 8400 MT/s CUDIMM-kit presteert beter dan elke andere DRAM-configuratie in gaming, maar zelfs met een RTX 4090 die een groot AI-model uitvoert is er niet veel beschikbaar geheugen over.
Voor AI-intensieve werklasten speelt DRAM-capaciteit een cruciale rol, vooral bij grotere modellen. Voor hybride systemen die zowel gaming als AI beheren, is optimalisatie van snelheid en latentie echter net zo belangrijk. Als LLM's voortdurend worden geoptimaliseerd voor verschillende hardware en de vereisten worden verlaagd, is het het beste om extra geheugencapaciteit te hebben zodat een groter model in het systeem kan draaien om nauwkeurigere resultaten te behalen.
Op basis van bovenstaande overwegingen is de DRAM-kit van keuze de CMH96GX5M2B7000C40.
PRODUCTEN IN ARTIKEL