Hirdetés

üzenetek

hozzászólások


Dandris
(fanatikus tag)

Az első cannon lake-re épülő termék. ;)

[link]


szmörlock007
(tag)

Szal egy core i7 (ami intel felsőkategóriás terméke desktopon) nem való arra, hogy létrehozz 2 virtuális gépet. Okééé.


pengwin
(PH! addikt)
Blog

Én hiába magyarázok neked bármit is ha még nem értetted meg, hogy az összes cég az ellenséged és ha megteheti, akkor keresztbe tesz neked.

Ha van lehetőséged dönteni, akkor úgy kell vásárolni, hogy a vásárlásod neked kedvező irányba alakítsa a piacot. Nyilván ehhez kellenek reális alternatívák minden gyártótól, amiket érdemes megfontolni, mert senki sem fog olyan terméket venni, ami az igényeinek csak az 50%-át egészíti ki.

Én pl. Ryzent vettem, mert 1440p-s felbontásnál nem érzem a hátrányát, ellenben a sok mag és szál jól jön munkához.

(#120) Dandris
:C
Csatlakozok az előttem szólóhoz.
A négy magos i7 nem való virtuális gépek alá? Nagyszerű!
Tulajdonképpen igazad van, mert lehet venni HEDT Xeont vagy i7-et, kétszer akkora platformköltséggel, és akkor máris tudsz VM-ezni.

Vagy lehet venni valamilyen Ryzent is, amiben már az i7-nél 30-50%-kal olcsóbban kaptál 6 magot. Ráadásul a Ryzen CPU-k támogatják az ECC RAM-ot, ami az Intelnél csak pár kiválasztott Xeon és Pentium kiváltsága volt. Mert megtehették, hogy ezzel a 0$-os költségű fícsörrel szegmentálják a piacot.

[ Szerkesztve ]


Dandris
(fanatikus tag)

és szmörlock: arról az intel miért tehet hogy kelet-európában ilyen a céges gazdasági helyzet, gondolok arra hogy minél olcsóbban?

Ha a hatmagos ryzen-en kiosztasz 3x2 magot na mi lesz az oprendszrrel?

Elég szomorú találsz olyat aki virtuális gépre komoly munkára fizet neked akár egy intel i7-ért vagy egy ryzen-ért. Tök jó mindenki virtuális gépes cuccot épít mióta kint a ryzen. :))

[ Szerkesztve ]


Dandris
(fanatikus tag)

Bocsi, a HEDT az i9, a sok maggal, WS alaplappal, na az való neked. A xeon megint más tészta, ugyan így az i3-i5-i7 pedig DESKTOP, ha mond neked valamit.


Busterftw
(fanatikus tag)

Aha, mindenki a vga driver után egyből VM-t telepít meg használ mert az annyira mainstream.

Ez az i7: High-end gaming, multitasking and content creation.

Professzionális szintre eddig is voltak több magos procik.


szmörlock007
(tag)

"Tök jó mindenki virtuális gépes cuccot épít mióta kint a ryzen. :))"

Erről sajnos nem volt szó sehol, már megint ide nem kapcsolódó dolgot hoztál fel :N

A kolléga csupán annyit mondott, neki miért nem elég a 4 magos core i7. Az, hogy ezt te(már nem először) túlreagáltad már nem az ő hibája. Ha 2 virtuális gépet futtatsz 2-2 kiosztott maggal akk bizony ahhoz már 6-8 magos proci kell amit mindkét gyártó kínál mostmár viszonylag jó áron. Problem?

[ Szerkesztve ]


Raymond
(PH! nagyúr)
Blog

"Ha a hatmagos ryzen-en kiosztasz 3x2 magot na mi lesz az oprendszrrel?"

Szerintem hanyagold a temat ha gozod sincs rola, sokkal egyszerubb lesz ugy.


Dandris
(fanatikus tag)

Oké, bocsi ha túl reagáltam. Az alap felállás mégis az, hogy az i7 desktop proci.


cpt_sanya
(újonc)

Érdekes, annó 2013-ban tanultam , hálózatokat, ahol Vm-ekkel dolgoztunk. Oracel vm -el.
Az akkori laposom:
MSI EX630X-018HU notebook
Processzor típus: AMD Athlon X2
Processzor jellemzők: QL-62 (1MB L2cache) 2,0GHz
Memória: 4GB (2x2GB) DDR-II (667MHz), Max:4 GB

Ezen konkrétan ment egy windows server 2008 + 2 kliens (windows 7 kliens + linux) normálisan . Most kicsit érdekes ,hogy ehhez egy top proci kellene. :(((

[ Szerkesztve ]


tibaimp
(őstag)

Ennyi. Ezért is írtam, azt amit írtam. Igazából sosem volt AMD-m (még a seregben sem :) ), tehát nem volt ilyen rossz tapasztalat vagy ilyesmi, mondhatni megszokás, illetve mivel döntően játékra használom a gépet, és elég sok tesztet olvasok, külföldi oldalakon is, így maradt a i7-8700 most is. Röviden ennyi.
Persze, mint mondtam, saját preferencia, hogy ki milyen cpu-t vesz.


távcsőves
(őstag)
Blog

Nem hinném. De azt mindenki azonnal érzi, ha a kedvenc házipornóját effektezi vágja(tematikus oldalra való feltöltés elött :) ), bazz, ez sokkal gyorsabb, mint a "régi" 2mag 4szálas procin..

Ez a teljesítmény most közelebb került az átlag emberhez, ennyi történt. A top ryzen sem olcsó, aki felső kategóriából választ, meg tudja mit miért vesz. Egyik sem 2Ft. Amúgy nem értem, használt piac miért nem követi le az új cpu generációt. (Intel/AMD is porba kellett volna taszítsa Sandy/Ivy árakat legalább.)

[ Szerkesztve ]


Jack-666
(kvázi-tag)

Nézd, csak neked! :D

"..We’re happy to say we won 4 out of 5 categories in TechSpot’s Best CPUs of 2018 including Best All-Round Value CPU for the Ryzen 5 2600X and Best Budget CPU for the Ryzen 3 2200G!.."

https://www.techspot.com/bestof/cpu/?sf189675637=1


DraXoN
(őstag)
Blog

a használt piac nagyjából "önbeárazó" ... ha a jelenlegi áron is elmegy, akkor nincs mit tenni.. annyi és pont.. viszont a korábbi FX cpuk árai eléggé beestek most az új ryzen refressel érkezően... azaz, valami szerintem elkezdődött.


Busterftw
(fanatikus tag)

En ezt ertem, tolem aztan johetnek a 200 magos procik, engem az zavar, hogy ugy vannak hirtelen beallitva a Haswell/Broadwell/Skylake/Kabylake procik, mintha azok kinai dzsunkak lennenek es ezeket a rossz minosegu, rosszul teljesito termeket "kellett" evekig az embereknek megvenni.

Azert nem kovetik a regebbi modellek az arakat, mert meg most is rengetegen vannak akiknek semmi szukseguk valtani i7 3xxxK-4xxxK procikrol. Pont azert, mert meg most is "elegek".

[ Szerkesztve ]


hokuszpk
(őstag)

"Igazából sosem volt AMD-m (még a seregben sem :) ),"

hycomat ! :DD

[ Szerkesztve ]


rodrigez
(senior tag)

Szerintem elég egyértelműen TSMC-t írtam, GloFo-ról szó sem volt. :)

https://www.anandtech.com/show/12677/tsmc-kicks-off-volume-production-of-7nm-chips


smc
(őstag)
Blog

Hogy árnyaljam a képet: Inkább azért drágák, mert sokan ragadtak 1155-ön, mint ahogy én is, hála a p.drága ramoknak. :) No meg persze nem kell még temetni ezeket a procikat. De aki itt ragadt, az kénytelen megvenni az i7 3770-et, ha i5 van otthon és ezt tudják jól azok is akik el akarják adni.


Anaren91
(senior tag)
Blog

Itt nem az a kérdés, hogy mire nem volt elég... Hanem, hogy már hol járnánk, hogy ha az amd nem bassza el az fx et ( ami annyira nem is volt rossz, csak ugye nem fejlesztettek több magra).
Minden proci annyira volt elég amennyire az Intel akarta...
Szerinted korábban nem tudott volna az Intel is kijonni 6-8 maggal consumer fronton? De. De minek ha a 2-4 magot még évekig el tudja adni aztán ha elfogy a mghzvadaszat akkor eloall a 6 maggal és feltalalta a spanyol viaszt...
Vga piacon ugyan ez az nv...


b.
(PH! kedvence)
Blog

miről beszélsz Nv vel VGA piacon?
ugyan ez:? valóban generációról generációra lehozni az előző gen csúcs teljesítményét a középkategóriában az ugyan ez. :U

[ Szerkesztve ]


Busterftw
(fanatikus tag)

Szerintem is ki tudtak volna adni mar 6-8 magos procit.
Te azt mondod, hogy minek, ha a 2-4 magot meg evekig el tudja adni, en meg azt mondom, hogy minek, mert 4(jo) mag eddig boven eleg volt. Mainstreamrol beszelek.
Itt van az en procim, 1440p-ben ultran jatszom, 4 mag 4 szal, 60fokon itt receg, meg se rottyan, barmit dobtam ele.
2018-ban.

Szoval minek nekem (meg) 8 mag 16 szal, amikor abbol fele szotyizik.
Tudom, ha lettek volna mar 5 eve 6-8 magos procik (voltak, bulldozer/piledriver) akkor a fejlesztok ugy irtak volna motorokat. Azok, ugyanugy szotyiztak volna, foleg hogy a grafika meg a felbontas nem volt nagyobb mint most.

Tehat jo dolog a fejlodes, de ez a "hol jarnank" furcsa madar, ugyanis elnezve a mainstream hasznalatot, semmi
ertelme nem lenne. Csak azert mert valamire az Intel fizikailag kepes, meg teljesen felesleges.

Mert van 28 magos 56 szalas xeon is am, a "hol jarnank" logikaval elve verni kene az asztalt, hogy a tavalyi i5 miert nem ennyi? Miert vagyunk vissza tartva?


Anaren91
(senior tag)
Blog

Pont azt nem érted amit sugallni akartam.
Persze, hogy elég volt négy mag, mert az intelnek az volt a csúcs az i 7 ekeben. A piaci fölénnyel meg el is érték, hogy ne is írjanak többre. Pedig már rég óta több szálon mehetne minden.
Consumer piacot meg ne keverjük össze a profi célra vagy szerverekben használt megoldásokkal. Azokban a programokban a több szál használata miatt a ryzen pl veri is általában az inteleket... És még az fx ek is elég jól szerepelnek.

Az nv elzárkózik a hardvereik dokumentálásától, nem lehet olyan szinten beletúrni a hardvereikbe mint ami az igazi low level hozzáféréshez kellene, ergo nem tudnak elterjedni rendesen a low level apik, vagy nem lehet őket annyira kihasználni mint amennyire lehetne. Ő is ül a baberjain, és leszarja, hogy újabb technológiákkal kevesebb eroforrasbol pl szebb látványt lehetne kihozni, ő birtokolja a vga piacot, az van amit mond... Ugyan úgy mint az Intel többet Megaherzel mint ésszel.

[ Szerkesztve ]


b.
(PH! kedvence)
Blog

Jó sok hülyeséget hordtál össze de legalább meggyőződésből teszed, szóval ja.


Busterftw
(fanatikus tag)

Szóval azért volt elég a 4 mag, mert az Intelnek az volt a csúcs. Oké.
A 3 éves Just Cause 3, Project Cars, Destiny, Mad Max stb olyan élvezhetetlenül futott, a 4 mag 100%-on pörgött alattuk, oda már 6-8 mag kellett volna.

Jobb lett volna, ha inkább 8 mag szotyizik, mert csak. Az úgy jobb.
Csak nem értem miért.

Most az elkövetkező években a +2 mag a logikus lépés. Ezért tartom jónak az Intel lépését. Reális és logikus.


Anaren91
(senior tag)
Blog

Szimpla üzleti logika... Ha ellövöd az összes nagy ötleted és olyat teszel le az asztalra hogy mindenkinek kiugrik a szeme, akkor a következő generációval már többet kell tervezni, olyat kitalálni ami még az előzőnél is durvább.
De ha kis adagokban adagolod, akkor ugyan azt ujkent n+1 szer el tudod adni és többet teszel zsebre a végén.
És a jó marketing, és egyéb dolgok miatt az emberek el is hiszik, hogy ez jelenleg a max amit le tudnak rakni az asztalra, és ez mennyire jó nekünk.
Természetesen ez saját vélemény, lehet vele vitatkozni.

[ Szerkesztve ]


b.
(PH! kedvence)
Blog

nincs mitrő vitatkozni mert saját rögeszméket és elképzeléseket írsz ami mögött csak egy elképzelt bemószerolás van, hogy legyen kit hibáztatni.
Amit leírsz igaz lehet úgy ahogy Intelre,de nem igaz Nvidiára. amiről te beszélsz az az Intel és nem a Zöld cég és el lehetne felejteni ezt a gondolkozást , hogy egy kalap alá veszed őket, AMD-s szemmel.
Egyébként kicsit mélyebbről kellene frissítened a dolgokat, hogy megértsd ezt, kezd azzal, hogy melyik cégnek nem felelt meg a legkevésbé a dx 12 első implementációja, melyik cég volt az, akik még a mai napig nem tudnák abszolválni a TIER 1 lvl szintet sem a gyenge IGP- kel, ha a dx 12 úgy jön be ahogy az el lett képzelve.
Elárulom hogy nem vörös és nem Zöld a színe, hanem kék, és innentől kezdve el kezdhetsz gondolkodni azon, hogy kiknek az érdekeit szolgálja valóban a dx 12 ebben a mai formában. Hozott is meg nem is, adott is meg nem is....legnagyobb szarkeverő ebben az egészben Intel, ezt jobb ha tudod és az egész ipar arra fog fejlődni amerre ők akarják és ez most már igaz lesz a DGPU IGP piacra is nem sokára. Nagyon remélem, hogy NV továbbra is ott tesz keresztbe Intelnek, ahol tud.

[ Szerkesztve ]


Abu85
(HÁZIGAZDA)
Blog

Ha a DX12 az első tervezett specifikációval jelenik meg, akkor az AMD-n kívül senki sem tudná támogatni a pure bindless bekötést. Egyszerűen egyetlen más hardvert sem terveztek memóriaalapú erőforrás-kezelésre. Mindegyik slotalapú. Szóval az kifejezetten kedvező, hogy a követelmények a megjelenésre teljesíthetőbb formát öntöttek. Az Intel egyébként azzal trükközik, hogy az utolsó szintű gyorsítótárat használja fel a kétmilliós limit teljesítésére, míg a processzormagokat a bekötés elvégzésére. Nem von el ez nagy erőforrást, mert a procimagok szépen bekötik az EU-kba az erőforrást, így emulációt végző binding API-t sem alkalmaznak erre. Az NV pedig írt egy emulációt végző binding API-t, amit maga a DirectX 12 nem tilt, ennek az eldurvuló regiszterhasználat lesz az ára, de a gyártó el tudja dönteni, hogy megéri-e vagy sem.
Egyedül a resource heap követelményeket nem dolgozták át. Oda valóban valamilyen emuláció nélküli pure bindless kell, vagy az Intelnek az a gyorsítótáras, procimagos trükközése. És látod, hogy ez mit eredményezett. Az NV nem tudja támogatni a legmagasabb szintet még a Voltával sem. Szóval a Microsoft nem ilyen ezzel-azzal kicseszek szándékkal változtatja a speckókat, éppen ellenkezőleg.

[ Szerkesztve ]


Dandris
(fanatikus tag)

"pure bindless bekötés"
ez olyan mint a mantle, async, HSA, DX12, preemció [link] , HBCC ? ;]

[ Szerkesztve ]


Abu85
(HÁZIGAZDA)
Blog

A bekötés magának az API-nak a része. Maga a bindless a DX12-nek az alapvető modellje. Amikor a Microsoft megszabta a bindless specifikációkat, akkor két modellt különítettek el. Egyet kapott az NVIDIA, leginkább azért, mert külön kérték ezt, és természetesen bekerült az alapvetően tervezett pure bindless koncepció, amit tulajdonképpen az Xbox One-ra szabtak, de ezáltal nyilván a GCN is jó, és az Intel is támogatta a Gen9-cel, mert ezt is finomították a véglegesítésre. Ezek alatt van egy kompatibilitási szint, ami gyakorlatilag egy CPU-n futó binding API. Ilyenkor a meghajtó elhelyez egy erőforrás-leírót egy tömbbe. Amikor a wave-ek elkezdenek futni a multiprocesszoron, ezt a tömböt fogja a multiprocesszor igényelni. Ennyi lényegében a bekötés. De a probléma az vele, hogy a processzor segítségére van szükség ahhoz, hogy a GPU tudja honnan kell mit betölteni a memóriából. Ezért jött be a bindless, ugyanis a Tier2-es szint, vagyis amit az NV-re csináltak, annyiban különbözik, hogy az SRV-ket és a samplereket be tudja tölteni a mintavételezőbe a branch egység. De a többi puffer view-re már a CPU kell. A Tier3-es pure bindless szint alapvetően annyi, hogy nem kell használni a DX12 binding API-ját, mert a GPU-ban van egy programozható integer skalár egység (vagy az Intel esetében maga a CPU-mag és az LLC), ami a CPU munkáját teljesen ki tudja váltani. Minden memóriahozzáférés, akár a szűrt adattal visszatérők is beleprogramozhatók a shaderekbe, mert lényegében erről szólnak a bindless szintek, hogy a CPU-t ne terheljék a fejlesztők ezzel a feladattal. Na most a programozhtóság megkövetelése miatt ezt nem tudod csak úgy fixfunkciós blokkal megoldani, ide kell egy olyan részegység, ami megcsinálja a proci feladatát, vagy trükközöl, ahogy az Intel.

Ez így mind szép és jó volt, de időközben felmerült az a probléma, hogy egy architektúrát áttenni memóriaalapúvá, igen nagy változást igényel, akár 4-5 éves tervezést is, ha előtte nem volt erre semmilyen akarat. Ezzel viszont a Tier2-es szint, vagyis a sima bindless bekötés korlátozza a hardvereket, mivel például hiába tud a Pascalnál több CBV-t, UAV-t kezelni, vagy esetleg hiába támogat minden pufferhalmaz esetében unpopulated RS bejegyzést, a DirectX 12 nem fogja megengedni neki az extra tudás kihasználását. Emiatt a Tier2-es bindless szint rendkívül korlátozóvá és haszontalanná vált.

Az NV a múlt évben átváltott a pure bindless szintre, amit a végleges specifikációkkal szerencsére nem nehéz emulálni, mert volt esze a Microsoftnak a véglegesítés előtt az emuláció lehetőségét is mérlegelni. Az NV-nek a megoldás persze valahol káros is, mert a SM-enként 4 KB-nyi vektorregisztert is bukhatnak, ami a regiszterszegény Maxwell és Pascal architektúrákban jóval több, mint az egészséges határ, de valószínűleg 10-15%-nál nagyobb büntit nem szereznek vele, és innentől kezdve a bindless motorok nem jelentenek problémát, tehát egyedül az erőforráshalmazok problémájával kell foglalkozni, mivel a GeForce-ok csak olyan halmazokat hozhatnak létre, ahol a flagek csak egy kategóriába sorolt típust engednek használni.

Szóval a bekötés magának az API-nak a szerves része, és nem véletlen, hogy még trükközés vagy emuláció árán is a pure bindless megoldásra megy mindenki.

[ Szerkesztve ]


szmörlock007
(tag)

Üdv :)

Abu, a cannonlake-ben helyet kapó (már amelyikben nem tiltották le) gen 10-ről lesz/lehet a későbbiekben elemzés, vagy mivel olyannyira kevés vizet zavar, majd csak a gen11-ről lesz?


Abu85
(HÁZIGAZDA)
Blog

Elvileg egy lapkában lesz aktív. Ezzel az a baj, hogy az újítások zömét már csak emiatt is letiltják, mert nem akarnak egy lapka miatt külön platformlayert rakni a driverbe, szóval kb. behúzzák az egészet a Gen9 layere alá és kész. Így aztán hiába van a hardverben változás, a szoftver felé már el van fedve.


namaste
(fanatikus tag)

A bekötés milyen CPU segítséget igényel?
A branch egységnek mi köze van a textúrázóhoz?
Az NVIDIA-nak miért kell több regisztert használni?


sh4d0w
(PH! nagyúr)
Blog

Vmit elcseszhetek, mert egyszerre 5-6 vm-em fut a 6700hq-n és nem döglik bele...


Abu85
(HÁZIGAZDA)
Blog

CPU-n fut a binding API.

Oda tölti be az adatot. Ez egy igen speciális módszer, amit az NV kitalált a Keplernél. Alapvetően működik, mert a SRV-ket és a samplereket a binding API nélkül is be tudja tölteni a mintavételezőbe. Azt senki sem állította, hogy elegáns módszer, de megcsinálja, amire kitalálták. Nagyon sokat egyébként nem lehet tenni egy slotalapú architektúránál, annyira mélyen kellene belenyúlni a dizájnba, hogy leginkább trükközéssel lehet menni a pure bindless felé. Az AMD-nek csak azért egyszerű a dolga, mert ők amikor a nullához közeli állapotról tervezték a GCN-t, akkor eldöntötték, hogy memóriaalapú lesz, így pedig nagyon kedvező a pure bindless dizájn megvalósítása. Kell egy skalár ALU a CU-ba, ami megoldja a feladatot. Ha már kész az architektúrád, akkor rengeteg korábban meghozott döntést szükségszerűen hordozni kell a következő dizájnra is, amíg nem váltod le az egészet.

Az NV váltott implementációt. A problémájuk az, hogy hiába hozott a Microsoft nekik egy külön bekötési szintet a DX12-ben, akkor is hátrányban vannak az Intelhez és az AMD-hez képest a feature szempontjából. De a Microsoft nem törődik igazából az API alatt meghúzódó részletekkel, tehát érdektelen számukra, hogy egy TIER szint támogatását a gyártó hogyan éri el. Ezért az NV is átállt egy pure bindless megvalósításra. Ehhez alkalmaznak egy extra réteget az API alatt, ami gyakorlatilag elrejti a hardver képességeit, és megfelelő támogatást ad az API felé, miközben a különbségeket kezeli a hardver felé. Gyakorlatilag emuláció. Ezt nem kizárt, hogy az NV kérte, mert a Microsoft még az utolsó pillanatban is változtatott annyit a binding modellen, hogy egyszerűbbek legyenek a szoftveres trükkök.
A regiszterhasználat az NV szerint attól függ, hogy a program mit csinál. A legrosszabb eshetőség, ha divergens módon dinamikusan indexeli az erőforrás-leírót. Ebben az esetben maximum 16 darab 32 bites regiszter a terhelés aktív warponként. Ez a worst case. De maga shader fordító fel van már készítve rá. Ha ilyen terhelést fejthet ki egy shader, akkor limitálja az aktív warpok számát. A Volta esetében az összevont L1 gyorsítótárban is lesznek trükkök erre a működésre.

[ Szerkesztve ]


namaste
(fanatikus tag)

Jó, de mit csinál pontosan a binding API?

Forrás erre? Hogyan működik pontosan? Mert egy textúrázótól elvárható, hogy önállóan kezelje a textúrákat. De akkor most kell a binding API vagy nem?
Az NV-nél bekötés is ugyanannyi mint az GCN-en, csak nem akárhol lehet a memóriában a leíró, hanem egy 1 milliós elemszámú táblázatba (SRV-k) vagy egy 64 elemszámú táblázatba (UAV-ok) kell a leírókat betölteni.

A ma vagy a jövő játékaiban mennyire használják a divergens erőforrás leírót és milyen effektekhez?
Mit tárol a regiszterekben? Ehhez is kérek forrást.


Abu85
(HÁZIGAZDA)
Blog

A DX12-ben binding API biztosítja az erőforrások bekötését, ha erre a hardver nem képes önmaga. Gyakorlatilag a meghajtóba írható erre egy implementáció, ami elhelyezi az erőforrás-leírókat egy tömbbe. Amikor a warp vagy wavefront, illetve általános nevén a wave futni kezd, akkor ezt a tömböt fogja igényelni elsőként, amit már a CPU-n futó binding API előkészített olyan formába, hogy a GPU megfelelően működhessen. Az adatok elérése innentől kezdve pufferbetöltés vagy textúra mintavételezéssel valósítható meg. Attól függ, hogy szűrt vagy nem szűrt minta kell.

Attól, hogy egy textúrázótól elvárható ez, még meg kell neki mondani, hogy hol vannak. Gyakorlatilag az erőforrás-leírók kvázi pointerek. Ehhez kell a binding API. Hacsak a hardver nem képes arra, hogy az esetlegesen shaderekbe programozott memóriaeléréseket értelmezze. Erre van a Tier2 és a Tier3 szint. Előbbi esetben az SRV-ket és a samplereket be lehet tölteni a binding API nélkül, mert le lehet programozni a memóriaelérést a shaderben. Utóbbi esetben pedig ez minden erőforrásra leprogramozható.

Az NV erre nem tért ki. Ők csak felvázolták, hogy ez a worst case. Ha egy shader így működik, akkor az nagyon fel tudja zabálni a regisztert. De állítólag ez még így is előnyös, mert a legtöbb esetben az újabb meghajtókba épített emulációnak pozitív hozadéka van. Csak néhány eset az, ahol hátrányos. Valószínűleg arra számítanak, hogy a fejlesztők nem hülyék, és mérlegelik ezeknek az eseteknek a használatát. Nem mondták meg, hogy mit tárolnak. Forrást nem tudok adni, ez egy telefonkonferencia volt, nem tudom, hogy felvették-e.

[ Szerkesztve ]

üzenetek