PGEgaHJlZj0iaHR0cHM6Ly9oeXVuZGFpLmh1L21vZGVsbGVrLyNlbGVrdHJvbW9zIiBvbmNsaWNrPSJqYXZhc2NyaXB0OndpbmRvdy5vcGVuKCdodHRwczovL2h5dW5kYWkuaHUvbW9kZWxsZWsvI2VsZWt0cm9tb3MnLCAnX2JsYW5rJywgJ25vb3BlbmVyJyk7IHJldHVybiBmYWxzZTsiPjxwaWN0dXJlPjxzb3VyY2Ugc3Jjc2V0PSJodHRwczovL3ZpbGxhbnlhdXRvc29rLmh1L3dwLWNvbnRlbnQvdXBsb2Fkcy8yMDI1LzA1L2h5dS1rYW1wYW55b2stZXZyYW5nZS12aWxsYW55YXV0b3Nvay02MDB4NTAwLTEuanBnIiBtZWRpYT0iKG1heC13aWR0aDogNzAwcHgpIj48c291cmNlIHNyY3NldD0iaHR0cHM6Ly92aWxsYW55YXV0b3Nvay5odS93cC1jb250ZW50L3VwbG9hZHMvMjAyNS8wNS9oeXUta2FtcGFueW9rLWV2cmFuZ2UtdmlsbGFueWF1dG9zb2stMTk0MHg1MDAtMS5qcGciIG1lZGlhPSIobWluLXdpZHRoOiA3MDBweCkiPjxpbWcgc3JjPSJodHRwczovL3ZpbGxhbnlhdXRvc29rLmh1L3dwLWNvbnRlbnQvdXBsb2Fkcy8yMDI1LzA1L2h5dS1rYW1wYW55b2stZXZyYW5nZS12aWxsYW55YXV0b3Nvay0xOTQweDUwMC0xLmpwZyIgYWx0PSIiPjwvcGljdHVyZT48L2E+
auto

A skálázás törvénye: ebben a hidegháborúban már csak a chipek és a gigawattok számítanak

energia
PGEgaHJlZj0iaHR0cHM6Ly93d3cub212Lmh1L2Vtb3Rpb24tZGlqY3NvbWFnb2siIG9uY2xpY2s9ImphdmFzY3JpcHQ6d2luZG93Lm9wZW4oJ2h0dHBzOi8vd3d3Lm9tdi5odS9lbW90aW9uLWRpamNzb21hZ29rJywgJ19ibGFuaycsICdub29wZW5lcicpOyByZXR1cm4gZmFsc2U7Ij48cGljdHVyZT48c291cmNlIHNyY3NldD0iaHR0cHM6Ly92aWxsYW55YXV0b3Nvay5odS93cC1jb250ZW50L3VwbG9hZHMvMjAyNS8wNy9sZWFkLWJhbm5lci1tb2JpbGUtNjAweDUwMC0xLnBuZyIgbWVkaWE9IihtYXgtd2lkdGg6IDcwMHB4KSI+PHNvdXJjZSBzcmNzZXQ9Imh0dHBzOi8vdmlsbGFueWF1dG9zb2suaHUvd3AtY29udGVudC91cGxvYWRzLzIwMjUvMDcvbGVhZC1iYW5uZXItZGVza3RvcC0xMzAweDYwMC0xLnBuZyIgbWVkaWE9IihtaW4td2lkdGg6IDcwMHB4KSI+PGltZyBzcmM9Imh0dHBzOi8vdmlsbGFueWF1dG9zb2suaHUvd3AtY29udGVudC91cGxvYWRzLzIwMjUvMDcvbGVhZC1iYW5uZXItZGVza3RvcC0xMzAweDYwMC0xLnBuZyIgYWx0PSIiPjwvcGljdHVyZT48L2E+

2025. január 21-én a Fehér Házban rendezett sajtótájékoztatón személyesen Donald Trump jelentette be egy fontos új, a kormányzat kiemelt támogatását élvező beruházás elindulását. Ez nem más volt, mint a Stargate Project, az OpenAI, az Oracle és a SoftBank közös vállalkozása, melynek az a célja, hogy a mesterséges intelligencia számára hatalmas új adatközpontokat építsenek fel, illetve a működtetésükhöz szükséges infrastruktúrát kiépítsék.

A projekt méreteit jól szemlélteti, hogy 4 év alatt 500 milliárd dollárt terveznek elkölteni rá, ami legalább 20 új hatalmas adatközpont-kampusz (több adatközpontból álló komplexum) megépítését jelentené, melyek áramigényét a Morgan Stanley 15 GW-ra becsüli (de vannak ennél magasabb becslések is). Összehasonlításul: Magyarország átlagos áramigénye 5-6 GW körül alakul. Ezek olyan nagy számok, hogy joggal váltanak ki kétkedést az emberben a megvalósíthatóságot illetően, az első fázis ugyanakkor már építés alatt áll. A Dallastól nyugatra található Abilene városában épülő adatközpont kezdetben 1,2 GW-ot fog felhasználni, ami a Bloomberg információi szerint később tovább fog nőni.

Az Egyesült Államok áramtermeléséről szóló cikkünkben már pedzegettük, hogy a mesterséges intelligencia komoly új igényeket fog generálni a villamos energia tekintetében. Nézzük meg egy kicsit közelebbről, hogy mi is zajlik ezen a területen.

A techvállalatok (illetve a nemzetállamok) arra törekednek, hogy minél gyorsabban minél fejlettebb mesterséges intelligencia modelleket hozzanak létre, és az elmúlt években azt láthattuk, hogy tényleg látványosan okosabbá vált az MI. Tizenöt évvel ezelőtt még az is hatalmas szenzációnak számított, ha egy modell képes volt 90 százalékos pontossággal felismerni egy macskát egy képen, ma pedig már abban sem lehet biztos az ember, hogy egy videóban látott, tökéletesen élethű macska valóban létezik-e.

A technológiai változásokat általában akkor érthetjük meg a legjobban, ha olyan grafikonokat hívunk segítségül, amelyeken jól kirajzolódnak a hosszú távú trendek. Ilyenek szerencsére az MI esetében is rendelkezésünkre állnak. De mielőtt ezeket megnéznénk, röviden vegyük át az alapokat.

A modern mesterséges intelligencia mesterséges neurális hálók segítségével működik, amelyek több milliárd, rétegekbe szervezett, összekapcsolt paramétert tartalmaznak.

Az MI betanítása (pretraining) során a következő történik:

  1. A hálózatba adatot táplálunk (például macskás képeket).
  2. A paraméterek értékei ezt az adatot átalakítják egy megjósolt kimenetté (például egy leírássá: „ez egy macska”).
  3. A kimenetek pontosságát a referenciaadatokhoz képest értékeljük.
  4. A modell paramétereit úgy állítják be, hogy az várhatóan növelje a pontosságot.
  5. Ez ismétlődik újra és újra, több billió adattal.

Ezt a módszert mindenféle mesterséges intelligencia képzésére alkalmazták már, de a leghasznosabbnak szövegek megalkotása során bizonyult. A betanításhoz az adatokat az interneten található szövegek jelentik, és a nagy nyelvi modelleket, azaz LLM-eket arra képezik ki, hogy egy szövegben megjósolják a következő szót.

A tanítás során felhasznált nagyobb számítási teljesítmény (training compute) azt eredményezi, hogy több paramétert használhatunk, ami lehetővé teszi, hogy a modellek kifinomultabb és absztraktabb mintázatokat ismerjenek fel.

Amióta beléptünk a mélytanulás korszakába, a mesterséges intelligencia modellek képzéséhez használt számítási teljesítmény mennyisége elképesztő ütemben – évente több mint négyszeresére – növekszik. Ennek az az oka, hogy a techvállalatok egyre több pénzt költenek egyre hatékonyabb chipek (az MI esetében többnyire GPU-k) megvásárlására.

Bár a modellek képességeit sok különböző tényező befolyásolja, ezek közül az egyik legfontosabb a számítási teljesítmény. A megfigyelések szerint a nagyobb számítási teljesítmény általában okosabb modelleket eredményez – ezt az összefüggést nevezik skálázási törvénynek (scaling law).

Egy modell betanításának ideje néhány naptól néhány hónapig terjed, ezalatt a GPU-k rengeteg számítást végeznek, aminek egy közel állandó energiaigénye van. Ahogy a techcégek egyre nagyobb modelleket hoznak létre, úgy nő az ezek képzéséhez szükséges áramigény is. Az Epoch AI második grafikonja már ezt az exponenciálisan növekvő áramfelhasználást mutatja meg a legnagyobb (frontier) modellek esetében.


A jobb felső sarokban látható Grok 3 nevű modell három hónapon át tartó képzése 100 megawattnyi terhelést jelentett a hálózat számára, az újabb, még nagyobb modellek pedig ennél is több energiát igényelnek majd. A jelenlegi trendek alapján az áramfelhasználás évente duplázódik, így tehát hamarosan be fogunk lépni a gigawattos fogyasztású adatközpont-kampuszok korszakába, amelyekből jó néhány fog működni az Egyesült Államokban, mivel több nagyobb szereplő is jelen van a piacon.

Ráadásul a számítási teljesítményre nemcsak a modellek betanítása során van szükség, hanem akkor is, amikor egy válaszon gondolkodnak: minél több időt és erőforrást fordít az MI egy nehéz probléma megoldására, annál jobb eredményt fog tudni elérni.

A technológiai verseny során a legtöbb szereplő arra törekszik tehát, hogy minél több GPU-ra tegyen szert, és annyi számítási teljesítményt facsarjon ki belőlük, amennyit csak lehetséges. A GPU-k működtetése azonban rengeteg energiát emészt fel.

Mindez azt jelenti, hogy a techvállalatok számára az energia kulcsfontosságú az MI-modellek fejlesztése során, mivel a nagyobb, azaz több energiát felhasználó modellek általában képesek összetettebb problémák megoldására (persze az intelligencia növelésében más tényezők is meghatározó szerepet játszanak). Az egyre nagyobb mennyiségű energia biztosítása azonban egyáltalán nem triviális feladat.

A kínai vállalatok ebből a szempontból éppenséggel könnyebb helyzetben vannak, miután az ország az elmúlt években rengeteget költött az energetikai infrastruktúra fejlesztésére, az USA által alkalmazott embargó miatt azonban nem jutnak hozzá a legfejlettebb chipekhez. Az ottani vállalatoknak ezért gyakran kreatív módszerekhez kell folyamodniuk, hogy megkerüljék a korlátozásokat.

Az egyik legmeghökkentőbb esetről a Wall Street Journal számolt be nemrégiben. A lap értesülései szerint négy kínai mérnök Pekingből Kuala Lumpurba repült, mindegyikük 15 merevlemezt vitt magával, egyenként 80 TB-os adatmennyiséggel egy mesterséges intelligencia-modell betanításához. A mérnökök azért döntöttek úgy, hogy merevlemezeken szállítják be az adatokat, mert a feltűnést nem keltő online átvitel túl sok időt vett volna igénybe. Az adathordozókat négy utas között osztották szét, hogy ne keltsenek feltűnést a malajziai vámhivatalnál. A kínai személyzet ezután egy malajziai adatközpontba ment, ahol cégük 300 Nvidia MI-szervert bérelt az adatok feldolgozásához és az MI-modell betanításához. Ez a fajta kézműves AI-fejlesztés persze aligha tekinthető hatékonynak.

Az amerikai versenytársaik egészen másfajta problémákkal küzdenek: a legfejlettebb GPU-k állnak a rendelkezésükre, a működtetésükhöz szükséges energia azonban egyre inkább szűk keresztmetszetet jelent. A közeljövőben éppen ezért jelentős infrastrukturális beruházásokra lesz szükség, melyek elé minden bizonnyal vörös szőnyeget fog teríteni a kormányzat a Kínával folytatott digitális hidegháború miatt, és annyi energiát biztosít a techcégek számára a mesterséges intelligencia fejlesztéséhez, amennyit csak fizikailag lehetséges.

Mit jelent mindez? Ha tucatjával épülnek az 1-10 GW-os klaszterek, és százával a kisebb adatközpontok, akkor az áramigényük gyorsan felmehet akár 50 GW fölé is. Az USA áramfelhasználása napszaktól függően valahol 350 és 750 GW között szokott ingadozni, a mesterséges intelligencia tehát viszonylag rövid időn belül elérheti, sőt meghaladhatja ennek a 10 százalékát. Ez egy elképesztően nagy szám, de műszakilag éppenséggel megvalósítható, még ha érdekütközéseket is fog okozni helyi szinten.

Amikor Sam Altmant, az OpenAI CEO-ját arról kérdezik, hogy milyen forrásból fog származni az energia, azt szokta válaszolni, hogy rövid távon mindenből: megújulóból, atomenergiából és földgázból. Ez technikailag igaz ugyan, de elbagatellizálja a problémát. Ilyen rövid időn belül elsősorban a földgáz skálázható fel az adatközpontok igényeinek szintjéhez, még a megújuló energia aránylag gyors bővülése mellett is. Hogy ez a szén-dioxid-kibocsátás növekedését jelentené, azt talán mondanunk sem kell, azt viszont érdemes megjegyeznünk, hogy az USA gázexportőr, és ha a nemzetközi piacra szánt készleteiket inkább belföldön kezdik felhasználni, az a tengerentúlon az energiaárak emelkedéséhez vezethet.

Mindez azonban egyelőre csak spekuláció, annyi azonban bizonyos, hogy a következő években érdemes lesz figyelemmel kísérnünk a terület fejlődését.

dr. Papp László (Sol Invictus)

Technológiai elemző, és a Villanyautosok.hu csapatának megújuló energiákkal, energiatárolással, illetve piaci trendekkel foglalkozó szakértője. Célja, hogy minél többek számára tegye egyértelművé, hogy a fenntartható jövő gazdaságilag is a legracionálisabb választás.
Összehasonlítás