AI 작업량이 늘어남에 따라, 성능 향상을 위해서는 올바른 DRAM 구성을 선택하는 것이 중요합니다. 그러나 더 중요한 것은 속도 또는 용량입니까? 이 기사에서는 게임/AI PC에서 5가지 다른 DRAM 키트를 평가하여 최고의 DRAM 구성을 찾아봅니다.
Ollama 도구를 사용하여 세 가지 대규모 언어 모델(LLM)에 걸쳐 초당 토큰 수와 메모리 사용량을 측정하는 다양한 DRAM 설정을 테스트할 것입니다.
테스트 플랫폼은 다음으로 구성되어 있습니다:
메모리 요구량이 다른 다양한 크기의 세 가지 LLM(Large Language Models)을 평가했습니다.
Ollama 유틸리티는 다양한 모델을 로드하는 데 사용되었습니다. Ollama는 추론 속도를 측정하기 위해 초당 토큰 수를 제공합니다. 메모리 사용량을 추적하여 다양한 DRAM 구성이 각 모델을 어떻게 처리하는지 확인했습니다. 테스트한 프롬프트는 다음과 같습니다.
마지막으로, 파이널 판타지 14: 다크 트레일 벤치마크를 테스트하여 각 DRAM 구성의 게임 성능을 측정했습니다. 목표는 성능 저하 없이 AI 작업과 게임을 동시에 처리할 수 있는 DRAM 구성을 찾는 것입니다.
그림 1: 이 도표는 CPU만을 활용하는 다른 LLM에서 테스트된 각 DRAM 구성의 초당 토큰 수를 보여줍니다.
그림 2: RTX 4090에서 LLM을 실행할 때 테스트한 DRAM 구성의 성능. 결과는 초당 토큰 수로 표시됩니다.
그림 3: 각 LLM을 실행하는 동안 시스템 메모리 사용량을 측정했습니다. CPU vs CPU 및 GPU. 결과는 약 GB 단위입니다.
테스트된 각 DRAM 구성에 대한 FFXIV Dawntrail 벤치마크.
몇 가지 중요한 관찰 결과.
32GB와 48GB 구성은 CPU만 사용할 때 DeepSeek-R1(70B) 모델에 맞지 않았습니다. RTX 4090을 사용하더라도 70b 모델을 사용할 때는 32GB의 DRAM이 한계에 달합니다.
8400 MT/s CUDIMM 키트의 빠른 속도는 게임에서 다른 어떤 DRAM 구성보다 뛰어납니다. 그러나 RTX 4090이 큰 크기의 AI 모델을 실행하는 경우에도 사용 가능한 메모리가 많이 남아 있지 않습니다.
AI가 많이 사용되는 작업의 경우, 특히 더 큰 모델의 경우, DRAM 용량이 중요한 역할을 합니다. 그러나 게임과 AI를 모두 관리하는 하이브리드 시스템의 경우, 속도 및 지연 시간 최적화가 중요합니다. LLM이 다양한 하드웨어에 맞게 지속적으로 최적화되고 요구 사항이 줄어들면, 더 큰 모델이 시스템에서 실행되어 더 정확한 결과를 얻을 수 있도록 추가 메모리 용량을 확보하는 것이 가장 좋습니다.
위에서 설명한 사항을 고려할 때, 선택 가능한 DRAM 키트는 CMH96GX5M2B7000C40입니다.
기사 내 제품