A reformok útjára lép az új, Radeon 7900 sorozat

Az új architektúra dilemmái

Az AMD hosszú utat járt be, mióta felvásárolták az ATI-t. A vállalat már saját néven adta ki a Radeon HD 2900XT jelzésű VGA-t, mely bevezette a mindmáig használt VLIW-alapú architektúrát. Ez ugyan az évek során sokat változott, de az alapokat tekintve a rendszer működése ma már nem éppen ideális. A VLIW-alapú termékek az évek során kaptak hideget-meleget. Az első generációról nem lehetett túl sok jót mondani, azon kívül, hogy az architektúra tényleg átgondolt alapokra épített, hiszen nem csak formálisan volt unified shader rendszer, hanem valóban kiegyensúlyozottan viselkedett a pixel, a vertex vagy éppen a geometry shaderrel tarkított terhelésnél is.

Persze akkoriban az utóbbi két kódtípust nagyon kevés fejlesztő használta, ami részben a DirectX 9 öröksége is volt, de kétségtelen, hogy a GeForce felépítése előnyösebbnek bizonyult az akkori játékok alatt. Ez két generációval később, a Radeon HD 4000-es sorozatnál változott meg, amikor az AMD kigyomlálta a rendszer gyenge pontjait, és a fejlesztők is több vertex, illetve geometry shader kódot kezdtek el alkalmazni. A rendkívül sikeres Radeon HD 5000-es sorozat ezután meghozta a felemelkedést is, amire az NVIDIA nagyon későn válaszolt a Fermi architektúrával, mely már a korábbi GPU-k gyengébb kihasználhatóságát is korrigálta a vertex, illetve főleg a geometry shader kódoknál.

Az aktuálisan elérhető Radeon HD 6000-es és a GeForce 500-as generáció meglehetősen kiegyenlített versenyt hozott, hiszen az AMD és az NVIDIA ugyanolyan árszinten közel azonos képességekkel rendelkező VGA-kat kínál, ami a VGA-piac részesedésén is meglátszik. Az egyetlen különbség a chipek méretében rejlik. Az AMD általánosan kisebb lapkákkal nevez ugyanabba a kategóriába, míg az NVIDIA valamivel drágábban gyártható, nagyobb kiterjedésű GPU-kra kényszerül. Ez azonban annak köszönhető, hogy az AMD a HPC-piacot nem igazán támadja, így termékeiket inkább a grafikai számításokra hegyezték ki, szemben az NVIDIA-val, ahol tervezésnél fontosabb szempontot képviselnek a szuperszámítógépek. A piacok igényei azonban változnak, így azokra reagálni kell. Manapság még nem elterjedt, hogy egy GPU-t a fejlesztők általánosabb feladatokra használnak, az irány azonban viszonylag egyértelmű, hiszen a DiRT 3 című játék DirectCompute 5.0-s felületen a GPU-val gyorsítja a fizikai számításokat a vízfelület és a zászlók mozgatásánál. Ez ugyan nem befolyásolja a játékmenetet, de jól néz ki. Az új generációs fejlesztéseknél tehát egyre jobban előtérbe kerül a GPU-k általános számításokban való szereplése, így a fejlesztéseket is ebbe az irányba érdemes vinni.

Szintén nem elhanyagolható tényező a HPC-piac. A GPU-k alkalmazása a szuperszámítógépekben egyelőre csak lassan terjed, és az igazán nagy áttörést a heterogén módon programozható lapkák, vagy ismertebb elnevezéssel élve APU-k szolgáltatják majd ezen a piacon, de nem nehéz kitalálni, hogy a GPU-k jelentik a megoldást az energiával kapcsolatos problémákra, hiszen masszív számítási teljesítményükkel messze hatékonyabbak bármely központi processzornál.

A cGPU dilemmája

Az AMD az új GCN, azaz Graphics Core Next névre keresztelt architektúrát röviddel az ATI felvásárlása után kezdte el fejleszteni, vagyis több mint öt éve készül. Komoly dilemmát jelenthetett azonban összeegyeztetni a fejlesztést a VGA-piacon rendkívül sikeres Sweet Spot stratégiával. Ennek a lényege, hogy az AMD – ha a körülmények engedik – nem tervez nagyméretűnek mondható lapkát, így minden generáció csúcstermékénél próbálnak a 400 mm²-es lélektani határ alatt maradni. Ez – főleg csíkszélességváltásnál – megkönnyíti az új termék gyártását, továbbá a fejlesztés is jóval egyszerűbb, azaz a lapka hamarabb kerülhet piacra.


[+]

Problémát jelent azonban az általános programozhatóság erősítése. Az eddigi fejlesztéseknél a grafikus feladatokban való szereplés volt a fő szempont, így a Sweet Spot stratégia alatt csak olyan változások kerültek az új generációs rendszerekbe, amit a fejlesztők a chip piacon mért élettartama alatt ki is tudnak használni. A jövőben esedékes igényeket felmérve azonban úgynevezett cGPU-ra (computational GPU) van szükség, vagyis az AMD szembekerül azzal a problémával, amivel az NVIDIA a Fermi architektúránál. Nevezetesen arról van szó, hogy a rendszert egyre inkább az általános számításokra kell kigyúrni, ami sajnos mindenképpen rossz hatással lesz a lapka méretére.

A GCN architektúra fejlesztése tehát a legkevésbé sem volt irigylésre méltó munka az elmúlt öt évben, hiszen a fejlesztés célkitűzése egy olyan rendszer elkészítése, mely alkalmazható a Fusion projekt során, illetve kiemelt szempont, hogy az általános számítások esetében is magas teljesítményt adjon le, továbbá támogassa a magasszintű programozási nyelveket, amivel a fejlesztők munkája megkönnyíthető. Mindezt még tetézi az, hogy a VGA-piacon meg kell felelni a Sweet Spot stratégiának, vagyis a rendszer hatékonyságát is az egekbe kellett tolni, mindemellett még a játékokban leadott teljesítmény növelését is figyelembe kellett venni.

Ebből világosan látszik, hogy nem lehetett csak úgy két kézzel szórni a tranzisztorok millióit a különböző egységekre, így sokkal inkább trükkös megoldásokra voltak kényszerítve a mérnökök. A Southern Island termékcsalád részeként megszületett Tahiti kódnevű cGPU-n ez a szemlélet nagyon is meglátszik, hiszen ahol lehetett, ott bizony spórolt az AMD, ráadásul a GCN architektúra felépítése is elképesztően moduláris, mi több, még a rendszer skálázhatósága is példátlan.

A cikk még nem ért véget, kérlek, lapozz!

  • Kapcsolódó cégek:
  • AMD

Azóta történt

Előzmények

Hirdetés