AIのワークロードがより高度になるにつれ、パフォーマンスを向上させるには適切なDRAM構成を選択することが重要となります。しかし、速度と容量のどちらがより重要でしょうか?本記事では、ゲーミング/AI PC上で5種類の異なるDRAMキットを評価し、最適なDRAM構成を見つけます。
Ollamaツールを使用して、異なるDRAM設定がテストされ、3つの大規模言語モデル(LLM)におけるトークン数とメモリ使用量が測定されます。
テストプラットフォームは、以下の構成要素で構成されています。
異なるメモリ要件を持つさまざまなサイズの3つのLLM(大規模言語モデル)が評価されました。
Ollamaユーティリティは、異なるモデルの読み込みに使用されました。Ollamaは、推論速度を測定するためのトークン/秒スコアを提供します。メモリ使用量を追跡し、異なるDRAM構成が各モデルをどのように処理するかを特定しました。テストされたプロンプトは以下の通りです。
最後に、Final Fantasy XIV Dawntrail ベンチマークをテストし、各 DRAM 構成のゲームパフォーマンスを測定しました。 目標は、パフォーマンスを損なうことなく、AI タスクとゲームを同時に処理できる DRAM 構成を見つけることです。
図1:このグラフは、CPUのみを使用する異なるLLMでテストされた各DRAM構成のトークン/秒を示しています。
図2: LLMsがRTX 4090で実行された場合のテストされたDRAM構成のパフォーマンス。結果はトークン/秒で表示されています。
図3:各LLMを実行中のシステムメモリ使用量を測定。CPU vs CPUおよびGPU。結果は概算でGB単位。
FFXIV Dawntrailベンチマークを各DRAM構成でテストした。
結果について、いくつかの重要な観察結果。
CPUのみ使用の場合、DeepSeek-R1(70B)モデルに32GBと48GBの構成が適合できませんでした。RTX 4090を使用しても、70bモデル使用時は32GBのDRAMが限界です。
8400 MT/sCUDIMMキットの高速性は、ゲームにおける他のDRAM構成を凌駕するが、RTX 4090で大規模なAIモデルを実行しても、利用可能なメモリはあまり多く残らない。
AIを多用する作業負荷の場合、特に大型モデルでは、DRAM容量が重要な役割を果たします。しかし、ゲームとAIの両方を管理するハイブリッドシステムでは、速度とレイテンシの最適化も同様に重要です。LLMが継続的に異なるハードウェア向けに最適化され、要件が減少するにつれ、より正確な結果を得るために大型モデルをシステムで実行できるように、余分なメモリ容量を用意しておくことが最善でしょう。
以上の考察を踏まえて、選択されたDRAMキットはCMH96GX5M2B7000C40です。
製品登録