Hirdetés
-
Hivatalos, hogy Game Pass-be jön a Call of Duty: Black Ops 6
gp Bár a játék jön PlayStationre is, akik PC-n vagy Xbox-on játszanak, azoknak elég lesz megvenniük az előfizetést.
-
Az ár/érték bajnok Galaxy A52-re is kész a One UI 6.1
ma A SamMobile összeszedte a friss felületre váltott Samsung mobilok listáját.
-
Computex 2024: gamer alaplap és „AI” PC az ECS-től
ph Az Elitegroup új LIVA barebone-nal és a Black alaplapsorozat feltámasztásával készül a tajvani kiállításra.
Új hozzászólás Aktív témák
-
Jack@l
veterán
Te ABU, nem vagy egy kicsit nagyon demagóg még mindig ezzel aaz API késleltetés hülyeséggel?
Csak szólok, hogy az api késleltetése addig tart mig a jószág kirajzol a képernyőre egy képet, 100 fps-nél ez tudjuk mennyi ms... Tehát aszondod 20 alatt az ember nem érzékel, de eleve a rift 20ms (ami rengeteg jelzem, mert a bemenetének 1-2 ms-nél többet nem illene csúsznia, a kijelzőnek meg mondjiuk 5-10-nél). Szóval a csóró gépnek a +10-ével hol is vagyunk?
Menyit lehetne megspórolni az új api-val, 500fps lesz majd ugyanaz a játék?[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Nem. Ezek valós problémák. Évek óta léteznek, és évek óta pofázzák a fejlesztők. Most végre történik valami. Ha annyit nyerünk, hogy a Khronos és az MS felfigyel erre, akkor már jól jártunk.
Carmack mondja azt, hogy a 20 ms alatti késleltetés, amire törekedni kell a VR-hez. Ez az a szint, aminél gyakorlatilag egy ember nem érzékeli a problémát. Reálisan 50 ms amire ma törekszünk, mert az alá nehéz lemenni manapság. Tehát ami jó az az 50 ms, míg ami kellene majd hosszútávon az a 20 ms.
A lényeg, hogy van két realista szemlélet. Tehát hamarosan lesz egy jobb OS-ünk és egy jobb API-nk. Ha ezeket nem is társítják, akkor is haladunk előre.
Egyébként nyugodtan megírhatod Johan Anderssonnak, hogy teljes tévhitben él, és nincs szükség a Mantle-re, vagyis feleslegesen ölt bele két évet az életéből.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
cadeyrn
aktív tag
" Régóta téma, hogy több kontrollt kellene a fejlesztők kezébe adni, így például a grafikus motor akár közvetlenül is elérhetné a grafikus processzor memóriáját, vagy annak nagy részét. Ez régen nyilván elképzelhetetlen volt, de a mai hardverek már nem olyan buták."
Izé... régen az pont, hogy nem volt gond, amikor még assemblyben készült, amit tényleg optimalizálni kellett. RÉGEN.
-
#06658560
törölt tag
"A Mantle különösen akkor előnyös, ha a felhasználónak két grafikus processzora van (CrossFire vagy SLI). Manapság a virtuális valóság igen kedvezőtlen eredményt mutat fel az előbbi rendszereken, mivel jóval magasabb a rendszer késleltetése az AFR elvű működés miatt. Gyakorlatilag ezért ma az Oculus Rift nem igazán működőképes egynél több grafikus processzorral."
Itt én is kötekednék: mivel két nézőpontunk van, ezért pont az lenne a tökéletes, hogy mindkét kártya kiszámolja a jobb vagy bal szemnek való képet- csakis azt-majd egyszerre kiküldi a Riftnek.
-
Abu85
HÁZIGAZDA
Így van, nem véletlenül nem ér véget ott a bekezdés, ahol a kimásolt idézet véget ér.
(#4) cadeyrn: Az még a GPU-s gyorsítás előtti időkből volt. Ma már senki sem fog direkten programozni GPU-ra (ezt korábban is csak nagyon a kezdetekben tették meg), mert túl gyorsan cserélik le a cégek az architektúrát. De igen, régen nagyon tudni kellett.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
aAron_
őstag
érdekes jövő előtt állunk. nagyon remélem az NVIDIA valamivel előáll majd ami ezt az irányt erősíti, egyre nagyobb lépéskényszerben lesznek.
What is your ikigai?
-
dabadab
titán
"Izé... régen az pont, hogy nem volt gond, amikor még assemblyben készült, amit tényleg optimalizálni kellett. RÉGEN."
Valamiert azt gyanitom, hogy ezt hasrauteses alapon generaltad Valojaban regen is gyakorlatilag csak irhato memoriakent kezeltek a videokartyak memoriajat, mivel onnan barmit is visszaolvasni remenytelenul lassu lett volna (most az ISA kartyakat meg sem emlitem, de se a Vesa, se a PCI busz sebessege nem volt sehol sem a gep sajat RAM-ja sebessegenek a kozelebe - savszelessegben se, de foleg nem kesleltetesben).
[ Szerkesztve ]
DRM is theft
-
Jack@l
veterán
Összeadtad amit írtam? Tehát tökmindegy mivel, de 100fps-nél 1 kép kirajzolása 10 ms,
az input 2ms, ez manapság egy egérnél/gyroscopnál röhögve kissebb, a kijelző késleltetése még 10(nagyon megengedő voltam).
Ha jól számolok, ez 22. Faragni lehet a dolgon még 5-öt ha 200fps-el megy a game, 7,5-et ha 400-al. Akkor mi is a folyamatban a leggyengébb láncszem tekintve az elvégzett munka nagyságát?
(Persze, persze hogy a szutyok gép meg a csoró api... nem)[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
dabadab
titán
En sem ertem, hogy mi koze az API-nak ahhoz, hogy ekkora kesleltetes van. 60 fps-sel szamolva ugye egy frame az 17 ms, vagyis ha 50+ ms a kesleltetes, akkor az azt jelenti, hogy az legalabb harom frame. A kerdes ezek utan az, hogy ez miert van? Mert maga a GPU a szamolassal vegzett az elso 17 ms-ban (vagy inkabb valamivel korabban), onnan kezdve meg?...
[ Szerkesztve ]
DRM is theft
-
Abu85
HÁZIGAZDA
Össze, csak nem érted meg, hogy min lehet javítani, és min nem. Az beviteli késleltetés mindig jelen lesz, még az output késleltetés is. Ennek minimalizálása folyamatos cél. Az OLED-et ezért említettem meg, mert az egy reális alternatíva a kijelzőre vonatkozóan.
Amin sokat lehet reszelni az az API és az OS. Például a mai grafikus API-kban minden memóriamásolás implicit, vagyis nincs kontrollod felette. Ha ezt megváltoztatják, akkor rögtön nagyságrendi gyorsulást lehet elérni ugyanazzal a grafikával, vagyis csökkenni fog a számításhoz szükséges idő.
De ha úgy gondolod, hogy ez nem realitás, akkor most szólj a Crytek, Unity és Crystal Dynamics triónak, mert ők most építik be a Mantle-t. Nyilván ezeknél a cégeknél sokkal nagyobb szaktudással rendelkezel, így jól esne nekik a figyelmeztetésed.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem mindegy, hogy azt a 60 fps-t milyen grafikával éred el és mennyire stabilan tartod. Ott az Xbox 360 és a PS3. Nem a hardver erős, hanem az API vékony és ezért van még a mai játékoknak is olyan marhajó grafikája a 6-7 éves konzolokon.
Nyilván nem gond ma sem a DX/OGL, mert aligha működik ma máson a VR, csak itt nincs olyan, hogy hát elég nekem a 30 fps is. A jó eredményhez ide kell a sebesség, tehát vagy butítjuk a grafikát, vagy elismerjük, hogy OS és API szintjén is lehet ezt jobban csinálni a mainál. Ma utóbbira látsz kezdeményezéseket, aminek végső soron az lesz az előnye, hogy a teljes piac elindul egy ilyen irányba.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Jó befejeztem, mert látom nem nagyon jutott el a mondandóm az agyig.
Szólj ha majd a vékony API-d ugyanazon a kártyán 2x annyi átlag fps-t prodikál AAA-s játékban, mert akkor már van értelme megspórolni 5ms-ot...[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
dabadab
titán
"Nem mindegy, hogy azt a 60 fps-t milyen grafikával éred el és mennyire stabilan tartod."
Nekem ugy tunik, hogy a fix 60 fps nem akkora nagy truvaj, ezt megoldott a jelenlegi korulmenyek kozott is. Viszont az meg mindig nem tiszta, hogy mitol van ilyen boduletesen nagy kesleltetes. Mibol adodik az ossze? Mert ha 30+ ms az "egyeb" kategoriabol jon ossze, akkor a renderelesnek elobb be kellene fejezodnie, mint hogy elkezdodik, hogy osszejojjon a 20 ms.
[ Szerkesztve ]
DRM is theft
-
BiP
nagyúr
Itt a gond nem azzal van, hogy nem tudnak sok fps-t elérni.
A gond a beviteli késleltetéssel van, és ezt a jelenlegi API-kkal nem lehet nagyságrendileg lejjebb szorítani. Ezért jó, hogy látszik némi mozgolódás a témában PC vonalon is.Hiába rajzolsz ki 200fps-t egy játékban, ha pl. az egér megmozdításától számítva 50ms kell, hogy az látszódjon is (közben kirajzol a gép neked 10 olyan képkockát, amin még nem látszik, hogy Te elmozdultál). A nagyobb fps-től nem feltétlenül vagy előbbre.
És ahogy a cikkben is szerepel, hogy a virtuális valóság esetén az ember sokkal érzékenyebb erre a késleltetésre, ezért különösen fontos, hogy ez ne legyen túl nagy. -
Jack@l
veterán
Beviteli késleltetés manapság 2-3 ms. max. a szutyok directx-el... Ezt szinte biztosra állithatom, ilyeneket programozok pár hónapja
Arra jön rá a kirajzolás(cpu+gpu kiszámolja az elmozdult képet) és a megjelenítő késleltetése(tv, monitor, oculus belsejében lévő telefonos lcd) amin már látod a változást.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Cythyel
senior tag
A végén még tényleg megvalósul 2022-re a totális VR környezet és jöhetnek a SAO-hoz hasonló VR játékok! *-*
-
shteer
titán
A Mantle lassan mar kv-t is foz
..szerintem jónak tűnik
-
Gandhi
csendes tag
"Carmack mondja azt, hogy a 20 ms alatti késleltetés, amire törekedni kell a VR-hez. Ez az a szint, aminél gyakorlatilag egy ember nem érzékeli a problémát."
Nem ez a szint az. Ez lehet a te szinted. Egy jobb quake player simán érzi az 5 ms dif-et is.
http://www.youtube.com/watch?v=ywHVHwpbA-8 /// http://www.sk-gaming.com/video/140348-Fishstickz_vs_DKS_ESL_Clanarena /// http://youtu.be/jrvoOG_NH40
-
MCBASSTION
aktív tag
am en azt nem ertem, hogy minek a nagy izgalom?
ha a bevitel-kivitel osszesen 5ms (1ms eger/bill, 3-4ms monitor), akkor is a 20ms-bol 15ms marad, ezt boven lehet hozni egy high-end gamer configgal max grafon. Counter-Strikeban meg foleg.
A "gamer" meg nem low-end configgal jatszik. Persze a plusz FPS sosem art, es ezert is jo a mantle, de ugy kulonosebben en nem latom itt a problemat.windows7sins.org
-
Novai
tag
én nem értek az anyuhoz meg az apuhoz, de a pécén a széles felhasználás és az emberi lustaság miatt baromi sok mindennek nagyon rossz az elérhetőségi sebessége, oprendszernek is és a hardveres szinten is
-
Gandhi
csendes tag
A 20 ms az sok. A hogyanról fogalmam sincs. Arra akarok kilyukadni, hogy az OR a számok tükrében nem az, aminek mondják.
[ Szerkesztve ]
http://www.youtube.com/watch?v=ywHVHwpbA-8 /// http://www.sk-gaming.com/video/140348-Fishstickz_vs_DKS_ESL_Clanarena /// http://youtu.be/jrvoOG_NH40
-
dabadab
titán
"A 20 ms az sok. A hogyanról fogalmam sincs."
Nekem erosen ugy tunik, hogy igazan azt sem erted, hogy mirol van itt szo es csak dobalozol a szamokkal.
Tekintve, hogy a worst case eset elmeleti minimuma is 17 ms, nincs sok ertelme arrol beszelni, hogy az 5 ms mar baromi sokDRM is theft
-
dabadab
titán
"milyen felhasználási területe van kiolvasni a videómemóriából?"
Az, hogy oda tud irni a GPU, vagyis igazabol a kerdes tulajdonkeppen az, hogy mi az a felhasznalasi terulet, amikor az adatokat a CPU meg a GPU egymast valtva dolgozza fel. Ilyenbol meg van eleg sok, mert mara a GPU-bol a G kezd kikopni es egyre inkabb egy masszivan parallel processzorra valik, ami meg sokkal jobban kepes elvegezni azokat a dolgokat, ami miatt a CPU-kon kitalaltak az MMX meg SSE bovitmenyeket.
DRM is theft
-
ledgeri
nagyúr
Logikusan befogadható olvasmány volt, Köszönöm!
// #ublockO-HardMode // anti-blockadblock-er // PH! új arculat: 1/ 500 // szeksziboj -nálam van egy pirospontod! // Találtam sárga fényű lézert! (kézit, ceruzaelemest) https://youtu.be/XQnmMjYHgcM //
-
Gandhi
csendes tag
"Tekintve, hogy a worst case eset elmeleti minimuma is 17 ms, nincs sok ertelme arrol beszelni, hogy az 5 ms mar baromi sok ."
Tehát mivel ma 17 ms az elméleti minimum, attól az jó?
http://www.youtube.com/watch?v=ywHVHwpbA-8 /// http://www.sk-gaming.com/video/140348-Fishstickz_vs_DKS_ESL_Clanarena /// http://youtu.be/jrvoOG_NH40
-
Gandhi
csendes tag
Én abba kötöttem bele, hogy Carmack szerint ha 20 ms körülire szorítják a vitás értéket, az már mennyire elég lesz. Nem írtam sehol sem, hogy az 5 az sok. Azt írtam, hogy vannak akik érzékenyek 5 ms különbségre és ennek fényében a 20 ms még mindig bőven több annál, minthogy ne lehetne érzékelni.
http://www.youtube.com/watch?v=ywHVHwpbA-8 /// http://www.sk-gaming.com/video/140348-Fishstickz_vs_DKS_ESL_Clanarena /// http://youtu.be/jrvoOG_NH40
-
Glomgold
tag
aAron_ :"érdekes jövő előtt állunk. nagyon remélem az nVidia valamivel előáll majd ami ezt az irányt erősíti, egyre nagyobb lépéskényszerben lesznek."
Van egy megnyugtatóan jó hírem a számodra: az nVidiánál is rácuppant az R&D részleg erre a "most-aztán-hűde-virtuálisak-leszünk" történetre: nézd meg pl. ezt itt [nVidia fényteres mikrolencse-rendszere virtuál-szemüvegekhez ]
[ Szerkesztve ]
-
ng0ofy
KORREKTOR
A lényeg, hogy sokan eltévedtünk (először én is) az értelmezésben a cikk alapján, sok az adat meg a szám (:
Szóval a 20ms késleltetés a beviteltől a megjelenítésig (igazából agy általi feldolgozásig) eltelő idő. Carmack és a tudósok szerint ez a korlátunk. Az egér vagy jobb billzet 1-2 ms be és a jobb kijelzők 3-4 ms kimeneti késése között kellene, hogy a gép 15-17 ms alatt új kockát készítsen az adatok alapján. Ez azt jelenti, hogy min. 67 fix fps felett már elvileg jó a dolog, ha helyesen számolok. Viszont ehhez ma elég komoly gép kell az újabb címekhez. A virtuális valóságos és 3D-s tartalmaknál ez az fps duplázódik a két megjelenítő miatt, tehát fix min. 134 fps-t kellene kicsikarni a gépekből, ami nem egyszerű.
Ebben a "kicsikarás"-ban segítene, ha a grafikai megjelenítést erősítenék az API elhagyásával vagy megreformálásával.Ráadásul az oculus rift bemeneti eszköz is és nagyobb a bemeneti késleltetése, mint egy egérnek, tehát még többet kell a grafikus számításon javítani. Nem értem ezen mit nem lehet érteni és miért kell értetlenkedni, pláne értelmes embereknek, akiknek ez az érdeklődési területe....
...és azt kihagytam a számítgatásból, hogy a quakes kollegát megerősítve counter-strike-ban 100 fix fps és 95 fps közötti különbséget megérzek még én is, 2 ms-os egér késéssel és elvileg 2 ms-os CRT monitorral, tehát az az abszolút 20 ms késés inkább zavaró és nem zavaró késés határa, mint megérezhető... Ennél sokkal-sokkal többet kell majd a realisztikus érzethez produkálni, ahhoz pedig épp ideje az API-kat, OP rendszereket, GPU-kat és CPU-kat felkészíteni.
[ Szerkesztve ]
-
Glomgold
tag
Elébb kicsit OFF-szóltam, most próbálok ON lenni, ha valaki még nem látta, a napokban Palmer cége kiadott egy latency-mérő eszközt a szemcsikhez - ez a téma most náluk is forró téma, skubizzátok:[OkRi késleltetés-kupakteszt ]
Ja meg érdemes olvasgatni a videó alatti Y-commenteket is!
[ Szerkesztve ]
-
#06658560
törölt tag
A direkt megemlített kétkártyás rendszereknél viszont marad a 67fps, nem kell a 134. Az meg High-Endben annyira nem probléma. Pláne 1080p-ben. Ha pedig arra gondolunk, hogy a fej mozgásának lekövetésére is igaz kéne legyen a 20ms, akkor bizony Carmackéknak megint saját házuk táján kell pucolni a guanót- mert a termékük egyszerre bemenet és kimenet is, vagyis duplán szól bele a teljes lagba.
-
-
Rebourne
aktív tag
Az az nVidiás cucc az komolynak tűnik. Érdekes idők jönnek
Aki meg nem hisz Abu-nak, az olvassa végig őfelsége Carmack pápa irományát, aki ugyanezt mondja el, csak sokkal hosszabban:
http://www.altdevblogaday.com/2013/02/22/latency-mitigation-strategies/
-
ng0ofy
KORREKTOR
válasz #06658560 #44 üzenetére
Erre gondolt a cikkíró is és én is, csak ahgy a cikkben is volt: még nincs megoldva, erre is kell, megoldást adjanak az új API-ban. Jelenleg hiába van SLI-d nem fogja a két képet külön számolni a két kártya, sajnos. Volt SLI-m, csak a baj volt belőle késleltetés terén...
LordX: ugyanez a helyzet: jelenleg külön számítja mindkettőt a grafikus motor, hiába ugyanaz a környezet, csak más a nézőpont, két nézőpontból újraszámol mindent. Ez eléggé erőforrás zabáló. Vagy lemaradtam és van játék/alkalmazás ami tudja ezt kezelni?
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Ozeki Kft.
Város: Debrecen