Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Meteorhead #2 üzenetére

    Nem adja oda az AMD a Mantle specifikációkat. Az Inteltől már írták a B3D-n, hogy ők kérték a speckókat, de nem kapták még meg. Ez az első lépés, hogy implementálhassák a Mantle-t, enélkül semmit sem tudnak tenni, csak várni, hogy egyszer lesznek speckók.

    Szerintem az AMD annyira nem akarja ezt elsietni. Tetszik nekik, hogy két évvel korábban megtudják a low-level API-k szűk keresztmetszeteit, mint bárki más. Ezért két évvel korábban is tudnak rá hardvert építeni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #16 üzenetére

    Azt hiába tolják. Az API-nak rengeteg funkciója nincs kész. Az MS 2014 végére ígéri az alpha környezetet. A teszteket is ekkor lehet elkezdeni. Ugyanazt elvégzik, amit az AMD elvégzett a Mantle-lel, csak nem 2012 végén.

    Mindenképp ismerni kell az architektúrát. Top játékban az API ismerete nem elég, mert bizonyos eljárások implementációja lehet lassú. Ha nincs dokumentáció, akkor a szabvány kódnál nem tudja majd a fejlesztő, hogy miért lassú egy effekt. Következésképpen az effektet nem fogja szállítani a végső kódban. Ezért mondta az Ubisoft programozója is, hogy az NV elzárt dokumentációi nekik is károsak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz CybonTom #5 üzenetére

    Nem jó ötlet a SteamOS-nek a Mantle és az OpenGL együtt. Vagy az egyik, vagy a másik. Ha a Mantle is elérhető, akkor a legtöbb cég tesz majd az OpenGL-re, és csak Mantle-re fejlesztenek. Ez kb. ugyanazokkal a hátrányokkal járna, mintha a Mantle lenne csak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #21 üzenetére

    Teljesen fals eredményeket kapsz egy pre-alpha API-val. Nem azért kéri az Intel a Mantle-t, mert támogatnák, hanem azért, mert tesztelni akarják a low-level limiteket, egy olyan API-n, ami már ténylegesen működik. Az AMD meg ezt nem akarja.

    A Tomb Radiert is annyira megoldották megjelenésre, hogy egy csomó patch kellett még a játék kiadása után. Nagyon gáz a fejlesztőknek, hogy írnak egy kódot, ami nem működik, elküldik elemzésre, és eltelik egy hónap ... eltelik két hónap. Hopp ki kell adni a játékot, és még zéró reakció a driver részlegtől. És persze a fejlesztők voltak a hibásak, mert ugyanakkor küldték mindenkinek a kódot.
    A fejlesztőknek meg kell oldaniuk a gondjaikat segítség nélkül. Ehhez dokumentáció kell.

    Igen az. A programozó véleménye nem feltétlen tükrözi a kiadóét.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #33 üzenetére

    Konzolba kértek ilyet. Az UC4-en láthatod, hogy mit lehet elérni, ha az engine szimuláció nem csak a CPU-n, hanem a CPU+IGP-n fut. Ezt akarják átmenteni PC-be. Egyre nagyobb erre a támogatás, már az Intel is az IGP-t fejleszti, hogy végre le tudják portolni PC-re a next-gen Havokot, mert az biza a CPU+IGP-n fut, és ma még csak konzolra érhető el, de készül az OpenCL 2.x port. A Broadwell sem véletlenül kap egységes virtuális memória támogatást. A next-gen Havok nagyrészt ebből profitál.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #42 üzenetére

    A működik és a jól működik között óriási a szakadék.

    Az Intel tesztelni akar. Már ma is sokat tesztelnek, csak gépi kódokkal, de az nem ugyanaz, mint API-val tesztelni komplex szituációkat. A Mantle itt jól jött volna nekik. Az AMD odaadja, de csak akkor, ha már a DX12 is tesztelhető jól működő állapotban lesz.

    Ezért rossz a "majd a gyártó megoldja" modell. Hiába adják ugyanakkor oda mindenkinek a kódot, ha nem ugyanúgy reagálnak rá a driveres dev csapatok. Ez a fejlesztőknek rossz, mert van egy kódjuk, ami az egyik architektúrán lassú. És arra várnak, hogy vagy meg tudják oldani, vagy nem. A kiadási időpontja pedig csak közeleg.

    Már a Crysis 1-ben is volt, de az UC4 szintje más dimenzió, a fő szempont a vízzel való és az egységes interakció.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #47 üzenetére

    Nem fér hozzá. Azért írta Andrew a B3D-n, hogy ők kérték, de nem kapták meg, így semmit sem tudnak vele kezdeni. A fejlesztők nem adhatják oda nekik, mert nem azért kapták, hogy az Intelnek mutogassák. Az Intelnek is gáz, ha egy fejlesztő odaad valamit nekik, mert honnan tudják, hogy a saját technológiáikkal nem ezt teszi az érintett cég. :))

    Csak tavasztól lett elérhető a privát béta. Szerintem a tervek már teljesen felborultak. Tekintve, hogy már 60+ stúdiónak biztosan van már hozzáférése a stratégia inkább a piac lezárása és nem a publikus elérhetőség. Kb. számítottak arra, hogy nagyjából ~10-15 top játékfejlesztőt érdekelni fog, mert nekik vitathatatlanul hasznos. Ezzel szemben özönlöttek a függetlenek és a professzionális programok fejlesztői is.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #48 üzenetére

    Ki van adva a DX12 a kiválasztott partnereknek. A PC-s fejlesztők közül az Oxide Games kapta meg. Még kezdetleges, de idővel jó lesz.

    Ez egyértelmű. Addig nem adják óda konkurensnek, amíg a DX12 nem lesz tesztelhető állapotban.

    Bullshit. Kérdez meg egy fejlesztőt, hogy mennyire nem halad, amikor arra vár, hogy a problémát a driveres csapat megoldja. A sebességgondok ugyanis legtöbbször nem merülnek ki egy hibában. Ha valamit megoldanak, akkor általában rögtön előkerül egy újabb hiba, ami limitálja a teljesítményt.
    A Mantle kód nem azért készül el két-három hónap alatt, mert sokkal egyszerűbb, hanem azért, mert helyben azonnal javíthatók a hibák. A DX kódnál az optimalizálás azért vesz igénybe jellemzően fél évet, mert a teljesítménygondok javítása legalább három cégen keresztül történik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #58 üzenetére

    A CAD/CAM ISV-k kérték a Mantle-t. Egyszerű a dolog. Aki belehúz elhúz a többiektől.

    A profi piac az a FirePro. Ez lesz a jövőben is. Le lesznek szépen tiltva a driverből a Radeonra a dolgok. Ha munkára veszed a holmit, akkor fizetned kell.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #66 üzenetére

    Nem tartom életszerűnek, hogy egy játékfejlesztő kockáztassa a partnerkapcsolatát az AMD-vel csak azért, hogy egy olyan háborúban segítsék az egyik felét, amiben nincs szerepük.

    Én is helyesnek tartom, hogy az Intel ezt szóvá tette még ha nem hivatalos formában is. Az AMD-nek a vártnál nagyobb érdeklődés miatt az elzárás előny lett. Azt hitték, hogy a piac 10-15%-ára nem fognak 10-15 partnernél többet szerezni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #67 üzenetére

    Azért készül el gyorsabban, mert low-level a hozzáférés. Ilyenkor a fejlesztő ír a motorba olyan dolgokat, ami a DX11-nél a driverben van. Egyrészt sokkal több adat alapján dolgozik a motor, mint a driver, így jól paraméterezhető a működés, másrészt a motor profilozható, míg a driver egy rejtett réteg. Utóbbi a gond, és ezért kell a gyártók segítsége, mert ők látják, hogy mi történik a driverben. Azonban egy hibát sokkal egyszerűbb leprofilozni és javítani, mint köldözgetni a buildet a gyártókhoz és várni arra, hogy egyszer valami csoda folytán lesz javítás vagy javaslat a javításrá.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #70 üzenetére

    Az eddigi nyilvános adatokból ki lehet indulni, a dll-ekből pedig láthatók a függvények. De hatékony implementációhoz ennél több kell. Az Intel tud kísérletezni a DX12-vel, vagy gépi kódokkal, a Mantle elsődlegesen azért kellene nekik, mert az egy kvázi egy kész API, aminek minden porcikája működik már, tehát a tesztjeik során nagy az esélye, hogy jó eredményeket kapnak, míg a DX12-vel még nagy az esély arra, hogy a sebességet nem a hardver, hanem az API működése limitálja.
    Igazából a next-gen limiteket mindenki sejti, legalábbis kellene, mert nem hülyék dolgoznak ott. Nem nehéz kitalálni, hogy modern GPU-k 1k órajel közeli pipeline depthje 10k batch fölött probléma. A gond az, hogy erre gyakorlatban is tesztelni kellene a lehetséges megoldásokat, és ezt jól működő API-val lehet megtenni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #75 üzenetére

    Az NVIDIA stratégiájának a low-level API nem kedvező. Egy vagy akár több ilyen API akkora kontrollt ad a fejlesztőknek, hogy igazából nincs szükségük arra, hogy egy gyártó segítsen egy AAA játék elkészítésénél. Mindent le tudnak maguk profilozni, minden hibát képesek azonnal maguk javítani.
    Az NVIDIA viszont 5-6 éve nem dokumentálja a hardvereit, és ma már az általuk fejlesztett effektek forráskódját is elzárják az Intel és az AMD elől. Nekik az a jó, ha AAA játékot segítség nélkül képtelenség fejleszteni. Erre rendezkedtek be. A low-level irányzattal el kell kezdeniük publikus dokumentációkat készíteni, visszamenőlegesen is, illetve sokkal több múlik majd a hardveren, mert a driver csak egy shadereket futtató réteg lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #77 üzenetére

    Az NV-nek szembe kell menni a piaccal, ha eladásokat akarnak.
    Amióta a konzolok elérhetők, minden vezető stúdió nyálazza a GCN-t. Csak nézd meg, hogy az Ubisoft mennyi érdekességet talált már és csupán fél év alatt. [link]
    Semelyik más architektúrát nem fogják így vizsgálni, ami rögtön egy szoftveres hátrány a konkurenseknek.
    Itt ez nem kedv kérdése, hanem piaci részesedésé. Tök mindegy, hogy DX12 vagy más low-level API, akkor is csak a GCN-t fogják ismerni a fejlesztők, és ennek az architektúrának a kihasználásához igazodnak. Ha az Intel és az NV ezt hagyja, akkor szoftveres hátrányba kerülnek, amellett, hogy már hardveres hátrányban vannak. Az Intelt talán nem érdekli, de az NV-t biztosan.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #81 üzenetére

    Nincs külön optimalizálás a GCN SI-re és CI-re. Nem szükséges, mert mindkét architektúra verzió ugyanazt támogatja, és a függvények ugyanúgy működnek rajtuk. Amíg ez nem változik, addig nem kell külön célozni rendszereket.

    A DX11-nél nincs igazán architektúrákra való optimalizálás, csak aktiválnak esetleg különböző pathokat vagy nem. Például a Frostbite 3 motornál a BF4-ben eredetileg csak a GCN-re kapcsolták be az összes optimalizálást, míg a GeForce-ra és az Intel IGP-kre nem. Az Intel azóta sem változott, de az NV fejlesztette a drivereket, és adtak egy javaslatot, hogy mit kellene csinálni, hogy menjen a tiled compute optimalizálás. Ezt egy patch tavasszal be is építette és megy GeForce-on is. Ez jól mutatja annak a modellnek a hátrányát. Ki kell adni játékot, majd fél év után jön hozzá patch. Ugyanígy a Codemasters is helyrehozta a GeForce teljesítményét a Dirt Showdown alatt, csak egy évvel a kiadás után. Ez meggyőződésem, hogy nem jól működő fejlesztési modell. A fejlesztőknek sem valami nagyszerű dolog fél-egy éve kiadott játékokat patch-elni, mert a driver elrejt előlük a hardver működését.

    Az NV-nek a GameWorks bevezetésével az is az egyik koncepciója volt, hogy eleve olyan shadereket adnak oda, amelyek már optimalizáltak. Nekik ma a legnagyobb gondjuk, hogy ma majdnem minden játékban le kell cserélniük a shadereket, hogy optimális legyen a teljesítmény a GeForce-on. Ez idő, pénz és egy rakás programozót igényel. Ez sem egy jól működő modell, bár ez speciális probléma, hiszen az architektúra regiszterszegénysége miatt kényszerülnek erre, de akkor sem jó visszafejteni a kódokat és cserélgetni a shadereket runtime szinten. Az NV amúgy is agyonoptimalizálta a shader fordítót, ami annyira lassú már, hogy be kellett vezetni a shader cache-t. Ennek az a hátránya, hogy ha real-time shader fordítás kell, akkor garantált az akadás. Az Intel és az AMD ezért nem tervez nagyon agresszíven optimalizáló shader fordítót, mert túl lassú lenne. A pálya betöltési idejének növekedését még túléled, de a valós idejű shader fordítás necces.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #83 üzenetére

    Ez nem a játék problémája, hanem a driver memóriavezérléséé. A 14.4-es driverben már kapott külön vezérlést a GCN SI. A GCN CI flat memory módra van beállítva, vagyis arra, hogy ha a program igényli, akkor képes legyen elérni a Mantle a rendszermemóriát és akár írhat is oda teljesen koherens módon. A GCN SI ezt nem támogatja, így ennek kellett egy másik vezérlési forma. Amíg ez nem volt, addig a VRAM és a rendszermemória között voltak felesleges másolgatások. Nem sok, de arra elég volt, hogy kisebb sebességet adjon. Azóta már ezeket eliminálták. De láthatod te is a linken, hogy a 14.3-nál volt ez known issue.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák