Med AI kommer en ny typ av datachip som kommer att användas mer och mer. Vid det här laget har du förmodligen hört talas om CPU, GPU och på senare tid NPU. Låt oss reda ut skillnaden mellan dessa olika beräkningsenheter och hur du bäst använder dem. Men först en historielektion.
(kredit: Intel)
CPU:er (Central Processing Unit) introducerades på 1960-talet och är det bultande hjärtat i alla datorer och ansvarar för att utföra alla grundläggande operationer. De är utformade för att vara mångsidiga och kunna hantera ett brett spektrum av instruktioner och operationer och är idealiska för att köra operativsystem, produktivitetsprogram och många andra allmänna applikationer. Men i och med de första 3D-videospelen och avancerade grafikapplikationer blev CPU:ernas begränsningar uppenbara. De var konstruerade för allmänna beräkningar och arkitekturen var inte optimerad för den massiva parallellbearbetning som grafikintensiva applikationer och vetenskapliga simuleringar kräver.
Men med den växande efterfrågan på massiv parallellbearbetning som krävs av grafikintensiva applikationer och vetenskapliga simuleringar, blev begränsningarna för processorer och matematiska coprocessorer uppenbara. Detta ledde till utvecklingen av grafikprocessorer (GPU:er) på 1990-talet, som snabbt blev oumbärliga och specialiserade för parallellbearbetning av stora datamängder. GPU:er (tillgängliga som integrerade grafikchip eller fristående grafikkort) är byggda med hundratals eller tusentals små, specialiserade kärnor (ALU: Arithmetic Logic Units) som kan utföra flera operationer samtidigt, vilket gör dem idealiska för grafikrendering och, på senare tid, för träning och implementering av modeller för djupinlärning.
Under de senaste åren har det dykt upp en ny kategori som kallas Neural Processing Units (NPU). Medan matematiska coprocessorer och GPU:er har påskyndat flyttalsberäkningar och parallellbearbetning av stora datamängder, är NPU:er utformade för att effektivt hantera matrismultiplikation och addition, vilket är viktigt för arbetsbelastningar inom artificiell intelligens (AI) och maskininlärning (ML), t.ex. bildigenkänning, bearbetning av naturligt språk och maskininlärning.
I praktiken är CPU:er, GPU:er och NPU:er alla nödvändiga för att en modern dator ska fungera, men de är optimerade för olika typer av beräkningar och renderingar. Låt oss bryta ner det.
I hjärtat av varje datorenhet finns processorn, som ofta kallas systemets "hjärna". Den är känd för sin mångsidighet och generella datorkapacitet, tack vare en arkitektur som är utformad för att hantera applikationer och uppgifter som kräver komplexa beslut.
Styrkor
Svagheter
GPU:erna, som ursprungligen utformades för att rendera grafik i videospel, har förändrat spelreglerna för AI med sin oöverträffade kapacitet för parallellbearbetning, t.ex. djupinlärning och bildbearbetning.
Till skillnad från processorer kan GPU:er utföra tusentals beräkningsuppgifter parallellt samtidigt, vilket gör dem nödvändiga för att träna och driva komplexa neurala nätverk.
Styrkor
Svagheter
(Kredit: Intel)
I strävan efter AI-innovation har en ny spelare kommit in på scenen: NPU (Neural Processing Unit). NPU:er är skräddarsydda för att möta kraven från djupinlärning och AI-arbetsbelastningar och är designade från grunden för att accelerera beräkningar i neurala nätverk. NPU:er levererar oöverträffad prestanda och energieffektivitet genom hårdvaru- och mjukvaruoptimering.
Styrkor
Svagheter