Újradefiniálja az Xbox alapjait a Microsoft?

Phil Spencer ledobta a bombát

A Microsoft 2013 végén megjelent Xbox One konzolja a kasszáknál ugyan egyáltalán nem teljesít rosszul, hiszen az eddigi adatok alapján egységnyi idő alatt ez a leggyorsabban fogyó Xbox, de a redmondi óriáscég ezzel nem teljesen elégedett. Ezt persze nem mondják ki, ugyanakkor érezhető, hogy a konkurens PlayStation 4 eladási adatai váratlanok a vállalat számára, és ma már nem is igazán beszélnek arról, hogy pontosan mennyi Xbox One fogyott. A felhasználók számára ennek túl nagy jelentősége persze nincs, de az látszik, hogy a Microsoft mindent megpróbál annak érdekében, hogy felülmúlják a Sony konzoljának eladásait, de az ünnepekkor még erős újításokkal is alulmaradtak a PlayStation 4-gyel szemben, amely konzol ráadásul nem is kapott igazán erős tartalmat az elmúlt év végén.

Az egyelőre kérdéses, hogy miképpen fordítja meg a Microsoft a trendet, de Phil Spencer, az Xbox divízió vezetője nemrég tett egy érdekes nyilatkozatot, amely szerint olyan terv van a tarsolyukban, hogy egy generáción belül új hardveres képességeket tennének elérhetővé. A Polygon számára adott interjúban ezt a nézetett egy picit bővebben kifejtette, így tulajdonképpen elmondta, hogy a korábbi ciklusoknál gyakrabban lehetne a konzol hardverét fejleszteni. A nézőpontjának megértését a PlayStation VR példájával fejelte meg, hiszen ott is kap a PlayStation 4 egy külső dobozt, de ez egy kicsit kisarkított álláspont, mert ez az egység valójában nem tartalmaz semmilyen lényeges extra hardvert, így a számításokat továbbra is a fő konzol végzi.

Phil Spencer az említett interjúban azt is leszögezte, hogy a mobil szegmens és a PC folyamatosan fejlődik a hardver szempontjából – ami kétségtelenül igaz, ahogy az is, hogy a konzol esetében a hardveres fejlődés a rendszer teljesítményét és képességeit nem változtatja meg, csupán csökkenti a fogyasztást, illetve a gép méretét. Az Xbox divízió vezetője úgy gondolja, hogy a konzolhoz is hozzá lehetne adni új hardveres képességeket még a generáción belül, ráadásul úgy, hogy a visszafelé kompatibilitás biztosítva legyen. Erre alkalmas lenne az UWP, azaz az univerzális Windows platform, ami gyakorlatilag biztosítaná a hardveres fejlesztés lehetőségét.

Az elhangzottak nagyon érdekesek, ugyanakkor olyasmiről van szó, ami egyáltalán nem számít bevett szokásnak egy konzol életciklusán belül. Most vonatkoztassunk el a konkrét hardverektől, és szimplán szorítkozzunk magára a piacra. Az egész konzolbizniszt egy alappillér tartja működésben, ugyanis a vásárlók döntő többsége azért vesz konzolt, mert hihetetlenül kényelmes. Megveszi a boltban játékszoftvert, vagy ma már letölti a platform hivatalos áruházából, és tulajdonképpen játszik vele mindenféle olyan probléma nélkül, ami akadályozná a szórakozást. Gondolunk itt arra, hogy nem kellenek új meghajtók, új futtatási környezetek, új operációs rendszerek, nem kell állítgatni a grafikát, hogy jó legyen a sebesség, illetve nincsenek egyedi, konfigurációspecifikus hibák, vagyis az egész platform egy végtelenül egyszerű alap az úgynevezett "megvenni és játszani" elvű konstrukciónak. PC-s szemmel bármennyire is furcsának tűnik, ez egy értékes pozitívum – ha nem lenne az, akkor nem létezne a konzolpiac.

Ezt az alappillért az elterjedt konzoloknál pár tényező tartja stabilan. Az elsődleges összetevő a hardverspecifikációk befagyasztása. A konzol gyakorlatilag egy beágyazott rendszer: a megrendelő beleépít valamilyen hardvert, és annak a specifikációit a teljes életciklusra rögzíti. Akár apróbb hibák is maradhatnak a hardverben, és általában maradnak is, de ezekhez nem fog javítást biztosító stepping revízió érkezni, mint a PC-piacon. A probléma persze dokumentálva lesz, hogy a programozók el tudják kerülni, vagy akár megoldási javaslatokat is lehet mellékelni. Esetleges opció még a hiba szoftveres javítása a firmware-ben vagy akár a fordítóprogram által, ami a PC-k esetében is bevett szokás. Ez persze a dokumentációt így is szükségessé teszi, ugyanis ma már nem ritka, hogy a fejlesztők lemerészkednek a hardver közelébe, és a kritikus részeket gépi kódban írják meg. Ilyenkor a program azért fog futni egy teljes konzolgeneráción át, mert a hardverspecifikációk a befagyasztás miatt garantáltan nem fognak megváltozni.

És itt jön az izgalmas rész. A konzolok jellemzően 6-8 éves életciklusa azért alakult ki, mert a szoftverpartnerek ilyen hosszú időszakot tartanak ideálisnak ahhoz, hogy az adott generációra vonatkozó befektetéseik megtérüljenek. Persze ezekben van kockázati tényező, hiszen senki sem tudja előre, hogy az adott konzol sikeres lesz-e vagy sem. De például, ha a Microsoft és a Sony áll a gépek mögött, akkor a tehetős fejlesztők és kiadók ma már jellemzően megelőlegezik a bizalmat. Esetleg kaphatnak bizonyos előzetes adatokat a várt terjedésről, illetve a tervezett élettartamról, és ezek tudatában képesek meghozni a befektetésre vonatkozó döntéseiket. A megszokott ciklussal számolva az élettartam közepére megéri fejleszteni egy konzol képességeihez igazodó videojáték-motort, melynek további foltozgatásával ki is húzható az adott generáció. Viszont ha egy konzol esetében a tervezett életciklus mondjuk csak három év lenne, akkor a kiadók és a fejlesztők többsége úgy reagálna rá, hogy nem készítenék el a gépre szabott, speciálisan optimalizált szoftvereiket, mivel túl kevés ideig lenne a piacon a hardver ahhoz, hogy egy ilyen befektetés megtérüljön.

Szoftver vagy hardver, ez itt a nagy kérdés

A konzolpiac általános mozgatórugójának ismeretében végre elővehetők a specifikus tényezők is. Az egy téves nézőpont, hogy a konzol nem fejleszthető; hzardver szempontjából valóban nem az, de szoftveresen más a helyzet. Egy egyszerű példát véve a Naughty Dog néven ismert stúdió igen aktív volt a PlayStation 3-as generációnál, és az alábbi két képen látható, hogy ugyanazzal a hardverrel mit értek el az elején, és mit sikerült kihozniuk pár évvel később, vagyis a gép életciklusának vége felé közeledve.

A PlayStation 3 fejlődése: a kezdet (Uncharted: Drake's Fortune) és a vég (The Last of Us) A PlayStation 3 fejlődése: a kezdet (Uncharted: Drake's Fortune) és a vég (The Last of Us)
A PlayStation 3 fejlődése: a kezdet (Uncharted: Drake's Fortune) és a vég (The Last of Us) [+]

A helyzet tehát az, hogy a konzolok is fejlődnek, csak nem hardveresen, hanem szoftveresen. Ez valóban eltérő felfogás például a PC-hez képest, ahol az optimalizálás egy alapvető szintnél nem terjed tovább. Egyszerűen annyira sok a hardverkonfiguráció, és annyira gyorsan jönnek-mennek a hardverek, hogy teljesen logikátlan ezekre a szükségesnél jobban optimalizálni, vagy manapság már annyira se. A probléma arra vezethető vissza, hogy egyetlen kiadott játék nem tudja visszatermelni a komolyabb optimalizálás költségeit.

A konzolpiacon a helyzet azért optimális, mert a ténylegesen az adott generációhoz tervezett videojáték-motorba épített speciális optimalizálás – pusztán a befagyasztott hardverspecifikáció következtében – több játékra is nagyon egyszerűen továbbvihető. Egyetlen játék ezen a területen sem fogja visszatermelni a befektetést, de több játékban gondolkodva már sokkal jobb a helyzet, és egy kis idő után a mérleg bizony pozitív irányba billen.

A folyamatos fejlődésen maguk a konzol gyártói is rajta vannak, azaz a Microsoft és a Sony újabb fejlesztőkörnyezeteket kínálnak, amelyekkel a hardver korábban még nem elérhető képességei is kihasználhatóvá válnak, vagyis ha úgy vesszük, akkor a fejlesztők időről időre kapnak újdonságokat, amelyeket bevethetnek a gyakorlatban is. Természetesen ennek is hatalmas szerepe van abban, hogy a játékok technikai megvalósítása folyamatosan fejlődik ugyanazon a hardveren. Eddig a pontig világosan látszik a konzolok élete, amelyet nagyrészt az előző generációs gépekről gyűjtött tapasztalat alakított ki. Ergo ma alapvetően él az a feltevés, hogy a szoftveres fejlesztés olcsóbb a hardveresnél, így ez jobban megéri a konzolpiacnak.

De mi van akkor, ha nem?

Némileg elvont hasonlattal élve ma ez az egymillió dolláros kérdés. A fenti két képre visszautalva az elsőből kétféleképpen juthatunk el a másodikba: vagy hatékonyabban használják a fejlesztők a meglévő rendszert, vagy hagyjuk az optimalizálást és jöhet az erősebb hardver. A legtöbb olvasónk valószínűleg a szoftver optimalizálására voksol, de a piacon inkább az dönt, hogy melyik irány az olcsóbb.

Régen egyértelműen a szoftver fejlesztése volt a költséghatékonyabb, de nagyon valószínű, hogy a Microsoft azért keresi az alternatívákat, mert kezdünk közelíteni egy olyan pont felé, ahol ez a jórészt korábbi tapasztalatokra épülő megállapítás már nem állja meg a helyét. Hasonló ez a Moore-törvényhez: kellő befektetéssel akármeddig fenntartható, de bele akarja-e rakni az ipar a pénzt?

Inkább más kihívásokkal küzdene a Microsoft?

Az, hogy a Microsoftnál felmerült az alternatív lehetőségek keresése, ténylegesen jelzésértékű. Valószínű, hogy a Sony is kiértékelte a helyzetet, de arra juthattak, hogy jobban járnak, ha továbbra is a szoftverbe öntik a pénzt. Talán a japánok számára ez reálisabb is, mert olyan háttérrel rendelkeznek, amivel a Microsoft nem: van egy hihetetlenül képzett ICE Teamjük, ami folyamatosan szállítja az innovációt a Sony saját stúdióinak. Ha visszaemlékezünk az elmúlt évre, akkor a valós idejű számítógépes grafika iránt fogékony közösség figyelmét három komoly innováció ragadhatta meg. Ezek közül az egyik PC-re (object-space rendering), a másik kettő a PlayStation 4-re (voxel cone tracing és signed distance fields ray tracing) jön, és ami sokkoló, hogy az Xbox One-ra vonatkozóan nincs igazán nagy áttörés. Sőt korábban még az Xbox One SHAPE blokkjának tesztrészlegét is leépítették, vagyis terveztek a gépbe egy hangprocesszort, de a szoftveres oldalt nem igazán akarják továbbfejleszteni. Ezzel szemben a Sony pont dolgozik egy tényleg innovatív hangmotoron, vagyis leginkább felfogásbeli eltérés van a két cég között.

Az is látszik, hogy az Xbox One szoftveres szempontból lemaradt a PlayStation 4 mögött. A Microsoft nemrég tett elérhetővé egy olyan, alacsonyszintű hozzáférést biztosító API-t a konzoljához, amilyenhez hasonlót a Sony már a PlayStation 4 megjelenésekor szállított. Ez persze távolról sem katasztrófa, hiszen jobb később, mint soha, de a Sony jelenlegi piaci előnyébe az ilyen apróságok is beleszámítottak. Például a Battlefield 4 című alkotás zömében azért futott érezhetően jobban a PlayStation 4-en, mert ott már a megjelenéskor elérhető volt az aszinkron compute, amit a játék ki is használt, míg Xbox One-ra ezt nem tudták aktiválni az első verziójú API-val.

A Microsoft számára tehát elképzelhető, hogy reálisabb inkább a gyakoribb hardverfrissítés, de itt nem arról van szó, hogy a cég megoldja a problémákat, hanem egy olyan területre evez, ahol más kihívásokkal kell szembenézni. Az ugyanis okvetlenül fontos, hogy a konzolpiac előnyét biztosító alappillér megmaradjon, vagyis továbbra is a "megvenni és játszani" elvű konstrukció érvényesüljön. A jó hír, hogy ezt tulajdonképpen meg is lehet csinálni.

Gyakorlatilag, ha a Microsoft nagyon akarja ezt a hardveres fejleszthetőséget, akkor ezt a legegyszerűbb módon úgy tudja elérni, hogy az AMD-től kér egy új lapkát, amelyet úgy építtetnének meg, hogy kompatibilis legyen az Xbox One APU-jával. Ehhez csak be kell építeni a 8 darab Jaguar magot, a mostani két darab modulra szétosztva, és persze opciós lehetőség további modulokat is használni, akár még kettőt. Ezzel lenne például 16 darab mag, és egy extra L3 gyorsítótáron biztosítható is lenne az összeköttetés. Az IGP szempontjából sem ütközne nehézségbe a beépített részegységek megduplázása vagy akár további skálázása, anélkül, hogy az architektúrán változtatni kellene. Ezzel készülhetne egy olyan lapka, amely kaphatna egy Xbox One kompatibilis módot, amikor csak azok a részegységek lesznek aktívak, amelyek az eredeti konzolban is elérhetők, a fejlettebb módban pedig használatba vehetők az újonnan beépített extra erőforrások. Ilyen formában még emulációra sincs szükség, hiszen az operációs rendszer a program futtatásakor képes lenne kiválasztani a megfelelő működést.

A fejlesztők számára ennek az előnye az lenne, hogy a konzol életciklusa mindenképpen lefutna, tehát aki akar, annak szabad maradna a szoftveres innováció lehetősége. Mindemellett két specifikáció befagyasztása még belefér, tehát egy program bőven elkészíthető úgy, hogy azt egy helyett két gépre tesztelik ki. A grafika pedig jellemzően jól skálázható, tehát igazán komoly erőfeszítéseket még nem is kellene tenni azért, hogy mindkét specifikáción megfelelően fusson az alkalmazás, csak a gyengébbiken rosszabb lesz a képminőség, esetleg a sebesség. Mindez úgy is megoldható, hogy a felhasználó a megvásárolt szoftvert akármelyik gépen futtathatja.

A Microsoft számára egy ilyen modell azt az előnyt biztosítaná, hogy nem kell a Sony-val versenyeznie a szoftveres fejlesztések terén, egyszerűen a jobb grafikát mindenképpen hozná a jobb hardver. Mindeközben az Xbox továbbra is konzol maradna, vagyis azt a kényelmi funkcióját nem vesztené el, amiért sokan megveszik.

Hátrányos lehet azonban a koncepció köré épülő üzleti modell kialakítása. Ennek első körben a sok ismeretlen tényező lenne az oka. Miképp lenne érdemes ezeket a gépeket árulni? Lesz egy alap Xbox One olcsón, és egy modernebb, de kompatibilitást biztosító verzió drágábban? Vagy legyen az Xbox bérelhető, tehát maga a hardver konkrétan a szolgáltatás részét képezné, így ezek cseréjét a Microsoft az előfizetőknek megoldaná? Fontos kérdések ezek, és talán még a Microsoft sem tudja rájuk a konkrét választ.

Az üzleti modellnél is nagyobb gond, hogy az Xbox One esetében a Microsoft nem birtokolja a felhasznált lapka licencét, vagyis OEM szerződésben állnak az AMD-vel. Persze nagyon valószínű, hogy előre rögzítve vannak bizonyos szabályok, amelyek miatt nem kell állandóan vitázni a beszállítóval az árról, de egy extra lapka igénylése már nem túl előnyös alkupozíció a Microsoft számára. Beszállítót nem válthatnak, mert már eleve rengeteg pénzt fektettek a szoftverbe. Ugyanez igaz a partnerekre is: a redmondi óriás nem mondhatja nekik, hogy az elmúlt 3 év kutatásainak zöme mehet a kukába, mert új stratégia jön. (Illetve tulajdonképpen mondhatják, csak egyik partnert sem fogja majd érdekelni az új vas, ha a kutatásaikat és fejlesztéseiket nem tudják átvinni rá.) Ergo egy generáció mindenképpen egy beszállítónál ragadna. Ilyen modell mellett nem szabad OEM szerződést kötni, mert a második lapkáért az adott beszállító sokkal többet kérhet, mint amennyit pályáztatás melletti versenyhelyzetben kérne.

Az egész egyelőre nagyon ködös még, és nem biztos, hogy ez a modell bejön majd a piacnak, de elviekben nincs akadálya, csak jó döntéseket kell hozni. A Microsoft számára pedig érezhetően az univerzális Windows platform lett a fő szempont, amibe tényleg jobban illik inkább a hardver fejlesztése, mint a szoftveré.

Abu85

Azóta történt

Előzmények

Hirdetés