Niezależnie od tego, czy chodzi o opracowanie leków, które przyjmujemy, wybór następnego filmu do obejrzenia, czy po prostu sprawdzenie pogody, sztuczna inteligencja znajduje sposób, aby wpłynąć na codzienne życie. Wraz z rozwojem sprzętu komputerowego, rozwój sztucznej inteligencji w domu staje się bardziej dostępny dla małych deweloperów i entuzjastów. Dzisiaj omówimy niektóre kwestie sprzętowe, o których warto pomyśleć przed zbudowaniem komputera do rozwoju sztucznej inteligencji.
Nie jest tajemnicą, że podczas opracowywania sztucznej inteligencji większe jest lepsze. Największe firmy na świecie wydają miliony dolarów na zakup najlepszego sprzętu do rozwoju sztucznej inteligencji. I choć możliwe jest wykorzystanie części tej mocy dla siebie, zbudowanie własnego systemu może pomóc zoptymalizować przepływ pracy i zaoszczędzić pieniądze w dłuższej perspektywie.
Należy pamiętać, że szerokie zastosowanie sztucznej inteligencji i uczenia maszynowego oznacza również, że nie ma jednego uniwersalnego rozwiązania, więc należy wziąć pod uwagę rozmiar i rodzaje danych, z którymi spodziewasz się pracować. Niniejszy przewodnik ma być jedynie punktem wyjścia do rozważenia różnych czynników, które mogą mieć wpływ na potrzeby związane z rozwojem sztucznej inteligencji.
Aby zacząć od mocnych fundamentów, ważne jest, aby korzystać z wydajnego procesora z dużą liczbą rdzeni, hiperwątkowością i dużymi prędkościami, które mogą szybko poruszać się po dużych ilościach danych, które będziesz wprowadzać. Ponadto należy wziąć pod uwagę intensywne procesy CPU, które są częścią przepływu pracy programistycznej. Rzeczy takie jak symulacje fizyczne i wstępne przetwarzanie, które mogą być po prostu częścią normalnego obciążenia, mogą znacznie zwiększyć obciążenie, gdy są stosowane na dużą skalę.
Poza typowym obciążeniem procesora, warto upewnić się, że będzie on w stanie obsłużyć resztę systemu. Chociaż nie jest to normalne zmartwienie dla przeciętnego gracza, możesz chcieć wyjść poza normalne potrzeby, aby zasilić swój osobisty projekt. Procesory z wyższej półki, takie jak linia Intel Xeon i seria AMD Threadripper, mogą obsługiwać 8 lub więcej pamięci RAM, jednocześnie obsługując do 4 kart graficznych za pośrednictwem dodatkowych linii PCIe. W rzeczywistości niektóre płyty główne mogą obsługiwać więcej niż 4 procesory graficzne, ale wyprzedzamy fakty.
NVIDIA jest niezaprzeczalnie liderem akceleracji GPU w aplikacjach uczenia maszynowego i sztucznej inteligencji. Ich dominacja na rynku oznacza, że po stronie oprogramowania wiele frameworków ML jest specjalnie zoptymalizowanych pod kątem procesorów graficznych NVIDIA. Wynika to w dużej mierze z rdzeni tensorowych, które są zawarte we wszystkich kartach RTX od serii 20. Rdzenie tensorowe to dedykowane układy specjalizujące się w funkcjach wykorzystywanych do trenowania sieci neuronowych. Umożliwiły one korzystanie z wielu nowych funkcji, takich jak operacje o mieszanej precyzji, pozwalając na większą kontrolę nad kompromisem między szybkością a głębią.
Wraz z rosnącymi wymaganiami dotyczącymi pamięci VRAM, nawet typowi gracze szukają nieco więcej, a to samo dotyczy deweloperów. Niektóre z najpopularniejszych produktów AI i ML obracają się obecnie wokół generowania i manipulowania obrazami. Trening tego rodzaju sieci będzie wymagał zestawu danych obrazów, które zostaną zapisane w pamięci VRAM podczas treningu. Na początek wystarczy 12 GB, ale jak zawsze należy wziąć pod uwagę rodzaj wykonywanej pracy i odpowiednio ją dostosować.
Pamięć RAM działa podobnie do pamięci VRAM. Pozwoli to komputerowi na przygotowanie większych zestawów danych i instrukcji, które będą się znacznie różnić w zależności od rodzaju wykonywanej pracy. Ogólnie rzecz biorąc, zaleca się załadowanie całości danych testowych do pamięci RAM przed rozpoczęciem pracy, więc zawsze zaleca się stosowanie dużych ilości pamięci. Zalecamy co najmniej 32 GB, ale wraz z pojawieniem się DDR5 można teraz uzyskać do 48 GB na jednym dysku. Na przykład nasz zestaw CORSAIR VENGEANCE 2x48 GB byłby idealny do tego zastosowania.
Wreszcie, wszystkie te dane będą musiały być przechowywane w pamięci długoterminowej. Wysokie prędkości dysków SSD NVMe będą miały kluczowe znaczenie dla przenoszenia dużych ilości danych do pamięci RAM, co ma krytyczne znaczenie, jeśli pracujesz z większą ilością danych, niż może pomieścić pamięć RAM. Wysokiej klasy dyski NVMe, takie jak nasz MP600, mogą pomieścić do 4 TB danych, ale wolniejsze dyski SATA lub HDD mogą być używane do długoterminowego przechowywania większej ilości danych. W przypadku procesu szkoleniowego nie są one zalecane, ale mogą być jedyną opcją w przypadku bardzo dużych zestawów danych.
W miarę jak branża wdraża coraz więcej sprzętu dedykowanego sztucznej inteligencji, używanie i tworzenie oprogramowania do głębokiego uczenia staje się coraz bardziej dostępne. Mamy nadzieję, że ten przewodnik pomoże ci przemyśleć niektóre kwestie, które będziesz musiał wziąć pod uwagę podczas tworzenia komputera do rozwoju sztucznej inteligencji. Sprawdź CORSAIR.com, aby znaleźć nasze najlepsze produkty do chłodzenia, pamięci RAM, pamięci masowej i nie tylko do następnej kompilacji.
PRODUCTS IN ARTICLE