Hirdetés

Gigantikus APU-t tervez a HPC-piacra az AMD

A HPC szerverek esetében a fejlődés rendületlenül tart, de komoly problémának számít, hogy a processzorok és a dedikált gyorsítók tekintetében is lényeges problémákkal szembesül a piac. Noha ezeket a rendszereket ma vitathatatlanul a gyorsítók uralják, hiszen a legjobb szuperszámítógépek teljesítményének a 70-90%-áért is ezek a rendszerek felelnek, problémát jelent a programozásuk. Elsődlegesen az adatmásolással való küzdelem a legnagyobb gond, mivel a gyorsítók saját memóriával rendelkeznek, amelyen belül biztosítani kell a feldolgozásra váró adatot.

Algoritmustól függően az adatmásolás esetenként több ideig tart, mintha a processzor elvégezné a feladatot, ilyen esetben pedig a gyorsítók az extrém sebességelőnyük mellett is inkább lassítani fogják a feldolgozást. Ezt a szituációt direkten, szoftverfejlesztői oldalon kell elkerülni, így a gyorsítókkal dolgozó szuperszámítógépek speciális figyelmet igényelnek a kihasználás szempontjából. Többek között erről beszélt Dr. Jack Dongarra, az Oak Ridge-i Nemzeti Laboratórium professzora a Supercomputing Frontiers 2015 rendezvényen, amikor részletezte, hogy a világ leggyorsabb szuperszámítógépében a gyorsítók miért lehetnek inaktívak.

Könnyű lenne persze azt mondani, hogy akkor hagyjuk ezt az irányt és koncentráljunk a processzorok esetében a magszám drasztikus emelésére. Ez ugyanakkor legalább annyira problémás, mint a gyorsítók területe. A mai processzorarchitektúráknak ugyanis van egy skálázási maximum értékük, a magok tehát ugyan marékszámra építhetők be a lapkába, de ezek a gyakorlatban csak részben használhatók ki.

A MIT kutatócsoportja, Li-Shiuan Peh professzor vezetésével ezért is állt elő a Scorpio kódnevű prototípussal, amelynek a módosított Power utasításarchitektúráját direkten a skálázáshoz tervezték. Így már tényleg van értelme sok magot használni, a célravezetőbbnek tartott snoopy protokollal is, de ehhez annyira bele kell nyúlni az utasításarchitektúrába, hogy az a korábbi verziókkal elveszti a kompatibilitást. Ebből megérthető az is, hogy az sem véletlen, amikor a gyorsítók utasításarchitektúrája folyamatosan változik. Ez elengedhetetlenül szükséges ahhoz, hogy több ezer szálat futtasson párhuzamosan a processzor, és azok szinkronizációját hardveresen lekezelje a rendszer, mert egy programozó ilyen skálázás mellett erre nem lesz képes.


(forrás: mynavi.jp)

Az AMD Japánban részletezte a HPC-piacra vonatkozó terveit, és abban szerepel egy nagy teljesítményű APU kifejezetten a HPC-piac számára. Az APU-k előnyei már régóta ismertek, hiszen segítenek megszabadítani a programozókat az adatmásolás problémájától, méghozzá úgy, hogy a processzormagok és az integrált gyorsítók egységes címteret használnak. Mindeközben a beépített gyorsítóarchitektúra révén biztosítható a skálázódás is, így a processzormagokat csak olyan feladatokra lehet használni, amilyenre valók, átadva a nagy számításigényű feladatokat a valóban jól skálázódó rendszereknek.

Az APU-k további előnye még, hogy az integrált gyorsító utasításarchitektúrája a jövőben is cserélhető marad, pont ahogy az ma történik a dedikált gyorsítóknál, mivel a virtuális utasításarchitektúra biztosítja majd a kompatibilitást. A MIT Scorpio koncepciójának ezzel szemben még mindig megvan az a hátránya, hogy ha eléri a rendszer a skálázási maximumát, akkor új alapokat kell tervezni, amivel jóval költségesebbé válik a váltás a HPC-piacon.

Az erre a terepre tervezett gigantikus APU egyébként 200-300 watt közötti fogyasztással is rendelkezhet, amit részben a sok gigabájtnyi HBM memória adna, hiszen egy ilyen több TFLOPS-os APU-hoz a megfelelő memória-sávszélesség elengedhetetlen. Valószínűleg a dedikált gyorsítók ezzel nem tűnnének el, így az APU csupán egy kiegészítés lenne erre a piacra. Bizonyos feladatok például nem annyira érzékenyek az adatmásolásra, és egy dedikált gyorsító ilyen esetben jobb alternatíva marad.

  • Kapcsolódó cégek:
  • AMD

Azóta történt

Előzmények

Hirdetés