Most röviden áttekintjük a GPU-számítás történetét, azt, hogy hogyan lendítheti fel konkrétan a vállalatod működését, és milyen kockázatokkal vagy kihívásokkal kell számolni a bevezetés során.
Rövid visszatekintés: Honnan indultunk?
Mindig is arra törekedtünk, hogy gyorsítsuk, optimalizáljuk és olcsóbbá tegyük az adatfeldolgozást, így a különleges bővítőkártyák és chipek használata a számítási teljesítmény növelésére nem újdonság. Ha visszagondolunk, létezett például az 1980-as évekből az Intel 8087 matematikai segédprocesszor, vagy a 90-es évek közepéről a 3D-gyorsítók, amelyek a grafikus jelenetek számítását könnyítették meg.
A 90-es évek végére azonban a technológiák és a chipek annyira fejlettek lettek, hogy úgy tűnt, a speciális kártyák lassan eltűnhetnek a süllyesztőben: a processzorok (CPU-k) sebessége rakétaként emelkedett, az utasításkészletek egyre összetettebbé váltak, és a videókártyák már nemcsak a 3D-jelenetek megjelenítését végezték, hanem különféle grafikus effekteket, anyagfelületek kezelését, sőt a fények generálását is átvették. Úgy tűnt, az alapkomponensek minden szükséges feladatot meg tudnak oldani. Persze speciális területeken (például professzionális kamerák videófeldolgozó-gyorsítói vagy kriptográfiai célú hardverbiztonsági modulok) továbbra is jelen voltak ezek a megoldások, de inkább szűk szakmai körben, és biztosan nem a hétköznapi felhasználók számára.
NVIDIA és CUDA-Technológia
2006-ban (igen, majdnem 20 éve!) egy nagy áttörés következett be a CUDA-technológiával. Az NVIDIA mérnökei rájöttek, hogy a videókártyák olyan teljesítményre képesek, amelyet jóval túlmutat a „képek rajzolásán”. Például adatfeldolgozásra és matematikai műveletek végrehajtására is használhatók, bizonyos esetekben lényegesen gyorsabban, mint a CPU-k.
Ekkor született meg a GPU-számítás.
A CUDA sikere után más gyártók is hasonló irányba indultak. Az AMD/ATI létrehozta a ROCm technológiát, amely a CUDA-hoz hasonló képességeket kínál, de az AMD/ATI videókártyák teljesítményének optimalizálására fókuszál. Ugyanúgy, ahogy az AMD az Intel ellen versenyez a processzorok piacán, az NVIDIA mellett is komolyan kiáll a GPU-k és MI-gyorsítók terén. Mindkét vállalat folyamatosan licitál a fejlesztésben – legyen szó teljesítménynövelésről, nagyobb memóriakapacitásról, jobb energiahatékonyságról vagy a hőtermelés csökkentéséről.
Miért számítanak gyorsabban a videókártyák, és hogyan tudnak „gondolkodni”?
A videókártyák kezdettől speciális matematikai műveletekre (főleg mátrix- és erősen párhuzamos számításokra) fókuszálnak. 2006-ban még éppen csak megjelentek a többmagos processzorok (pl. Intel Core 2 Duo), de a GPU-kban akkor már teljesen általános volt a több tucatnyi mag. Megjelentek a 128 magos videókártyák, és a kártyák összefűzésének lehetősége is visszatért SLI-technológiával.
A GPU-k másik nagy előnye, hogy meglehetősen szűk feladatkörre tervezték őket, így ezeket kivételesen gyorsan és hatékonyan oldják meg. Míg a CPU-k arra lettek optimalizálva, hogy általános feladatokat oldjanak meg, addig a GPU-k „DNS-ében” a masszív párhuzamosítás rejlik. Ez különösen igaz például gráfok bejárásánál és statisztikai számításoknál – pont azoknál a feladatoknál, melyek manapság az MI lényege. Mátrixműveletek, fákkal és útvonal-kereséssel kapcsolatos kalkulációk – mind-mind profitálhatnak a GPU-k elképesztő párhuzamosságából.
Hol segít a GPU-szerver és mit hagyjunk inkább a CPU-ra?
A GPU-szerverek mindenhol hasznosak, ahol a számítási feladatot sok, egymástól független részfeladatra lehet bontani, így azok párhuzamosan futtathatók.
Tipikus felhasználási példák:
- MI és gépi tanulás: Modellek tanításához és futtatásához (inference)
- Tudományos és kutatási szimulációk: Fizikai szimulációk, komplex modellezés
- Blockchain és kriptovaluták: Bányászat és tranzakció-elemzés
Ezzel szemben azok a feladatok, amelyek nem párhuzamosíthatók, vagy erősen függnek a környezeti állapotoktól, nem igazán profitálnak a GPU-ból. Például a relációs adatbázisok gyorsítását vagy a webkiszolgáló-válaszok feldolgozását nem érdemes GPU-val megpróbálni meggyorsítani.
A GPU-számítás kihívásai – magas költségek, energiaigény és hardverkorlátok
Mint minden új technológiának, a GPU-számításnak is vannak árnyoldalai. Ezek közé tartozik az ár, az energiafogyasztás és a hardveres erőforrások korlátozottsága.
A modern videókártyák rendkívül drágák és energiaéhesek. Míg a csúcskategóriás AMD EPYC processzorok „csak” több tízezer forintba (vagy euróba) kerülnek, néhány száz watt energiát igényelnek, és kezelhető mennyiségű hőt termelnek, addig a GPU-k ára több százezer vagy akár milliós tétel is lehet, akár 1 kW energiát is fogyaszthatnak, és 500 W-nál is több hőt bocsátanak ki. Ez nemcsak a kártya tervezésénél, hanem főleg a szerver és az adatközpont kiválasztásánál jelentős szempont. Előfordulhat, hogy egy közepesen teljesítményigényes GPU-szerver ugyanannyi áramot használ fel, mint egy teljes szerverállvány, és annyi hőt termel, amely nehezen elvezethető.
Emiatt kevesebb GPU-szerver fér el egy adatközpontban, mint a hagyományos szerverek. Vagy pedig jelentősen meg kell erősíteni a hűtést és az elektromos infrastruktúrát, ami tovább növeli az üzemeltetés költségeit, így drágábban szolgáltatható az ügyfelek számára.
Másik kihívást a korlátozott hardveres erőforrások jelentik. Amíg egy hagyományos szerverbe viszonylag egyszerűen betehető akár több terabájt RAM, addig a csúcskategóriás GPU-k jelenleg csak 64–192 GB videómemóriával (VRAM) rendelkeznek, és ezt nem lehet tovább bővíteni. Ha a feldolgozandó adat tömege meghaladja ezt, akkor több videókártya párhuzamos használata szükséges, ami tovább növeli az energia- és hűtésigényt.
Tudomány és technológia az első helyen, az MI-tréning pedig hab a tortán
Ma a GPU-szerverek túlnyomó részét tudományos és műszaki szimulációkhoz, valamint képek és videók rendereléséhez használjuk. Mégis, a mesterséges intelligencia (MI) és a nagy nyelvi modellek körüli diskurzus egyre inkább előtérbe kerül. Sok e-kereskedelmi vállalat például azt tervezi, hogy az MI-t elsődlegesen ügyfélszolgálati területeken és a vásárlás segítésében vetné be.
Ennek viszont van egy gyakran elhallgatott buktatója: Egy már betanított MI-modell válaszainak generálásához viszonylag kis teljesítmény is elég.Viszont a modell apróbb „finomhangolása” (fine-tuning) is már nagyságrendekkel több számítási erőforrást követel.Még akkor is, ha valamilyen előre betanított modellt használsz (például Ollama-technológiát), a válaszgeneráláshoz elegendő lehet egy szerver 1–4 darab NVIDIA H100 kártyával, de a modell finomhangolásához legalább 8 kártya szükséges. Az adatok integrálása a modellbe nagyon energia- és költségigényes, így ezt a megoldástervezéskor mindenképp figyelembe kell venni.
Ha a GPU nem elég - egyéb speciális gyorsítók
Manapság legtöbbször a GPU-ról esik szó, de nem szabad megfeledkeznünk más, célzott gyorsítók létezéséről sem.
A számítástechnikai biztonság és kriptográfia területén többféle hardverbiztonsági modul (HSM) létezik, amelyek nemcsak a titkosítókulcsok kikezdhetetlen tárolását biztosítják (a kulcsot gyakorlatilag lehetetlen a modulból „kiolvasni”), hanem elképesztő titkosítási teljesítményt is nyújtanak. A pénzügyi szektorban vagy a DNSSEC-technológia aláíró rendszerében kifejezetten gyakori a használatuk. A NIS2 szabályozás megjelenése miatt ezek iránt a megoldások iránt is nőni fog a kereslet.
Egy másik speciális gyorsító a TPU (Tensor Processing Unit), illetve az ASIC modulok, melyeket leginkább kriptovaluta-bányászathoz vagy blockchain-technológiához használnak.
Egyre népszerűbbek a programozható áramkörök, azaz az FPGA-k is. Ezek abban különböznek a hagyományos chipektől, hogy a logikai kapuk nincsenek előre „kiégetve”; a végfelhasználó igényei szerint alakíthatja ki a chip konkrét áramköreit. Előnyük a magas hatékonyság, alacsonyabb fogyasztás a CPU/GPU-hoz képest, és a könnyű újraprogramozhatóság. Hátrányuk ugyanakkor a korlátozott általános alkalmazhatóság a CPU/GPU és az ASIC rendszerekhez képest. Ezért főleg prototípusokban, kis szériás gyártásban vagy speciális hálózati rendszerekben (pl. forgalomszűrők, -elemzők), esetleg olyan MI-megoldásoknál találkozhatunk velük, ahol nagy rugalmasság és nagyfokú hatékonyság szükséges.
Összegzés
A grafikus kártyák és más gyorsítók ma már nem csak „rétegtechnológiák”; kulcsfontosságú összetevői a modern IT-infrastruktúráknak. Használatukkal jelentősen felgyorsíthatók és hatékonyabbá tehetők a tudományos-kutatási, mesterségesintelligencia- vagy e-kereskedelmi folyamatok. Ugyanakkor érdemes stratégiailag megközelíteni a bevezetést – nemcsak az előnyöket, de a költségeket, az energiaigényt és az adott feladathoz való alkalmasságot is alaposan mérlegelni kell.
Ha GPU-szerverek vagy más speciális gyorsítók alkalmazásán gondolkodik, szívesen segítünk megtalálni az Ön számára ideális, testreszabott megoldást. Keressen bátran minket a vshostingnál, és együtt felfedezzük, hogyan emelheti új szintre az IT-infrastruktúrája teljesítményét!
Kérjen most egy ingyenes konzultációt, és emelje informatikai teljesítményét a következő szintre!
A szerzőről
Ondřej Flídr a vshosting tapasztalt infrastruktúra-rendszergazdája, szakértő a magas rendelkezésre állású IT-megoldások tervezésében és üzemeltetésében, valamint a (nem)nyilvános felhők és a hibrid deployok területén. Rendszeresen megosztja tudását cikkek és előadások formájában, többek között olyan témákban, mint a katasztrófa-helyreállítás (Disaster Recovery) vagy a public cloud technológiák dinamikája.