- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Mikrokontrollerek Arduino környezetben (programozás, építés, tippek)
- Olcsó és visszafogottan elegáns kompakt AIO jön az ID-Cooling berkeiből
- Milyen billentyűzetet vegyek?
- TCL LCD és LED TV-k
- Multimédiás / PC-s hangfalszettek (2.0, 2.1, 5.1)
- Vezetékes FÜLhallgatók
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Fejhallgató erősítő és DAC topik
- Gaming notebook topik
Hirdetés
-
Jó dolog az AI, de emberek nélkül nincs játékfejlesztés
it A Tomb Raider franchise tulajdonosa szerint egy dolog az AI térhódítása – de a sikeres játékfejlesztéshez emberi kreativitás kell.
-
Békésen legelészik a májusi hardvercsorda
ph Ezúttal monitorokat, processzorhűtőt, házat, routert, tápokat, egérpadot és akciókat tereltünk be a szombati karámba.
-
Prémium külsőt kaphat a Motorola Moto G85 5G
ma A 300 eurós ár mellé kifejezetten igényes megjelenés társulhat.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz Busterftw #57900 üzenetére
A 4090 azért nem mutat raszterben akkora előrelépést, mert a parancsmotor a Turing óta nem változott. Ez az Ampere-ben rendben volt, de az Ada esetében már nagyon limitál még erős processzor mellett is. A 4090 például az AC Valhallában a parancsfeldolgozás szintjén limites. És hiába raksz alá még erősebb procit, a parancsmotor maga nem képes már egy ekkora hardvert kiszolgálni. Ezt a Turingba tervezték, miközben az Ada már egy négyszer nagyobb hardver a nyers kapacitást tekintve.
Az AMD azért tud jobban működni az RDNA 2 óta ezekben a limites szituációkban, mert a parancsmotort az RDNA 2-vel többszálúsították, és az RDNA 3 is megduplázza a szálak számát, pont azért, hogy etetni tudja feladattal azt a sok-sok feldolgozót. Az NVIDIA ezt majd a következő körben lépi meg, akkor majd várható az NV-nél is ilyen jellegű előrelépés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Akkor a ph-n 720p-ben lesznek tesztelve most a nagy kártyák?
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
félisten
Megint elavultak? Most jött ki, ma jelent meg hozzá a hivatalos whitepaper, nem is teszteltétek te már tudod az architektúra problémáit a parancsmotorig ?ezt a nagyobb L2 elméletileg tudná orvosolni sztem...
RDNA3 nál nem lesz semmi problémás fejlesztés ofc , nincsenek olyan béna fejlesztőmérnökök mint Nvidiánál, belepakolták a sok CUDA-t aztán most a fejükre csaptak hogy vazze parancsmotor , ezt elfelejtettük?[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz Jack@l #57903 üzenetére
1080p, 1440p és 4K. Ezeken fog menni a tesztelés.
#57905 b. : Ez nem elavultság, hanem egy döntés. Az AMD és az NV is fix tranzisztorkeretből építkezik. Ezek nagy részét az NVIDIA tensor magokra költötte. Gyakorlatilag annyira erőteljesen, hogy a multiprocesszor többsége már tensor, és a hagyományos feldolgozók már csak a 35%-át teszik ki.
A nagyobb L2 cache elsődlegesen a tensor miatt van, mert a többi feldolgozó nem tudja nagyon hasznosítani a félkoherencia problémája miatt. De a tensor az jórészt koherens mátrixműveleteket csinál.
Az AMD ugyanúgy kapott egy rakás extra tranzisztort az új generációs node-ból, de azokat nem költötték el csak egy részegységre, hanem több L0-t, több GDS-t, duplázott szálú parancsmotort, több VGPR-t, és újratervezett RB-t használnak. Ezekre költöttek javarészt. Ez is egy döntés, nem tartották annyira fontosnak, hogy nagy tensort építsenek a rendszerbe, noha lesz benne matrix engine, de az is úgy lesz beépítve, hogy meglévő adatutat használnak, és nem terveztek dedikált adatutat rá.
Nyilván dönthettek volna úgy is, ahogy az NVIDIA, de inkább mai játékokra tervezték a GPU-t. Az NV ugyanakkor nagyon hisz a frame-generationben, és ahhoz nem kell erősebb parancsmotor, mert klasszikus input nélkül számol képet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Én semmi jóra nem számítok.
A szakértők azt mondják, hogy a korábbihoz képest 5-10x magasabb energia áral (villany és gáz, mert az olaj ára egyébként nem egetrengetően magas.) még 1-2 évünk várhatóan velünk maradnak. Ha az ezt megelőző 1-2 év chipeket érintő túlkereslete, a szállítási útvonala felkavarodása (ami állítólag egy konténerre nézve aká 10x-es szállítási költséget is jelent) nem lett volna elég, az azt követő energiaár emelkedése már az elmúlt évben beröffentette az inflációt - nyilván országtól függően eltérő mértékben. Egyrészt.
Másrészt attól függően, hogy egy ország exportál vagy importálja a megnövekedett árú energiát, a devizája erősödni vagy gyengülni kezdett.Ezzel azt akarom mondani, hogy bár elképzelhető, hogy az elektronikai eszközök gyártásának piacán sok költségtétel (réz, alumínium) ára csökkent a tavalyi csúcshoz képest, de attól még termékek gyártóira is nehezedhet egy inflációs nyomás. Egyáltalán nem biztos, hogy az "összeomló világgazdaság" (nem azt mondom, hogy ez fog történni, ez most csak egy szélsőséges eset a példa illusztrálásához) arra készteti a gyártókat, hogy csökkentsék áraikat, hanem lehet, hogy akkor inkább le sem gyártják.
Tehát én arra számítok, hogy a világ fenekestül fel is fordulna a következő évben, akkor is legalább $50-ral drágulni fognak a GPU tierek.
Ez lehet, hogy a mai viszonyok közt már nem is hangzana annyira rosszul. Az igazán nagy probléma, hogy közben az elmúlt 1 év során a dollárhoz képest a forint ~40%-ot gyengült.
A szakértők azt is mondják, hogy jövőre meg fog ismétlődni az idei infláció - legalábbis Magyarországon - ami elég súlyos. És nyilván, ha folytatódik a brutális külkereskedelmi deficit (ami vagy az EU-s pénzek megérkezésétől vagy az energiaárak bezuhanásától, vagy a magyar életszínvonal bezuhanástól változhat), akkor tovább fog romlani a forint árfolyam.
Tehát lehet, hogy ha az AMD a Navi33-at manapság igazán szuperbrutál olcsónak számító $200-ért adná, nálunk már az is 150eFt lesz. Persze az még fél év.
Találgatunk, aztán majd úgyis kiderül..
-
félisten
A kommented és kiegészítő megjegyzéseid. (" az AMD a mai játékokra tervez GPU-t"- ezen nevettem a legjobban hisz itt mindig várunk valamire ) mint mindig az AMD felé mutat elfogultságot és nem igen lehet komolyan venni tőled semmiféle Nvidia újítással, tervezéssel, architektúrával való összehasonlítást és véleményt mert életedben nem nyilatkoztál fórumon még elismerően vagy pozitívan egyetlen Nvidia GPU ról vagy újításról. és így Ömlik az AMD marketing( ismét sajnos) minden szavadból és az Nvidia lehúzása amikor és ahol csak lehet. Felesleges köröket futsz, mert ezzel a fanklubbodat elégíted ki nem azokat akik valódi tényszerű információkra kíváncsiak.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
Ilyen is volt, vagy lehetett volna.
Vagyis volt, de mégse. De majd most lesz.Az XFX is árult vágott navi22-t bányászoknak.
Vajon mi lehet azok oka, hogy ez a típus egyáltalán nem jelent meg a gamer piacon?Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
Nem én döntök arról az NVIDIA-nál, hogy a tensor kapacitása nő jobban, nem pedig a szabványos API-kkal elérhető feldolgozóké. Maga az NVIDIA is így mutatta be az RTX 40-et, hogy volt egy today's game rész, és egy tomorrow...
Ez szándékosan van így megcsinálva, mert ez lesz a fő marketingüzenet: lehet, hogy ma kikapunk, na de majd holnap...
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
paprobert
senior tag
Logikailag nekem nem jön ki, hogy az NV miért gyártana konzumer szinten egy ennyivel drágább GPU-t, mint amennyi éppen szükséges lenne. A számaid alapján a GPU méretének ~a fele, vagy több is megspórolható lenne.
Én nem úgy ismerem az NV-t, hogy a saját pénze ellensége. Ez túl nagy bet már most, és pénzpocsékolás ha nem lesz valami eredménye.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
Abu85
HÁZIGAZDA
válasz Yutani #57914 üzenetére
Ezen magam is meglepődtem, de ez van.
#57915 paprobert : Igazából a GeForce FX-hez hasonlóan most az Ada esetében is lapot kértek 19-re. Lehet, hogy most bejön. Az FX-nél nem jött be, de ez nem univerzális igazság, alakulhatott volna másképp is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Busterftw
veterán
válasz Yutani #57914 üzenetére
Csak aztan nehogy a jelen jatekaiban legyen gyorsabb az Nvidia. Ahogy eddig. Atlagban.
Persze nem ph!-n, gondolom mar be van keszitve a bottleneckes CPU, mint Ampere tesztekben.
Mert ugye az ellenkezojet mar sokszor hallottuk, aztan nem lett belole semmi.[ Szerkesztve ]
-
Alogonomus
őstag
válasz Busterftw #57917 üzenetére
Azért a zöld konyhatündér (na meg a kék megcsúszásbajnok) hívői fogadják már el végre, hogy az RDNA 2 kártyákat némileg kedvezőbb fogyasztásból gond nélkül az Ampere kártyák teljesítményéhez tudták igazítani, amit számtalan független teszt eredménye is igazol. Egyedül a raytracing számít az RDNA 2 kártyák kriptonitjának. 1080p és 1440p az RDNA 2 területe, a 4K és azon túl pedig az Ampere területe.
-
Hellwhatever
aktív tag
válasz Alogonomus #57918 üzenetére
Melyik az a némileg kedvezőbb fogyasztás a TGP vagy a TBP?
[ Szerkesztve ]
-
Alogonomus
őstag
válasz Hellwhatever #57919 üzenetére
A működés kapcsán a hűtőfelületeken ténylegesen megjelenő hőmennyiség.
Egységes számítási módszer nincs, ezért az azonos gyártó azonos hűtőjével szerelt modellek átlagos ventilátorsebessége a legjobb összehasonlítási lehetőség, abban pedig az Ampere kártyák rosszabbul teljesítenek. -
Busterftw
veterán
válasz Alogonomus #57918 üzenetére
Igen, szokasos modon az mindig el van felejtve, hogy az Nvidia kartyak nem huzhatoak, csak az AMD.
-
Alogonomus
őstag
válasz Busterftw #57921 üzenetére
Lehet húzni minden gyártó kártyáját, de nem mindegy a kiinduló fogyasztási érték és a hűthetőség/tápellátás fizikai korlátja közötti mozgástér. Ebbe szaladt bele az Nvidia az elpukkanó 3080-ak és 3090-ek kapcsán, ezért kellett tápegységet csomagolni a 3090 Ti Kingpin mellé, és valószínűleg ezért kellett elengedniük a 600 wattos üzemmódot a 4090-ek kapcsán.
-
Busterftw
veterán
válasz Alogonomus #57922 üzenetére
Jo, ez neked szamit, csak ha altalanossagban beszelunk a teljesitmenyrol, akkor meg ez szamit:
Linken ott a tobbi felbontas is.
Szerinted aki 3090(Ti)-t vesz neki szamit a fogyasztas? Aligha. Az overall FPS-t nezi.[ Szerkesztve ]
-
félisten
a Whitepaper nem tér ki konkrétan az arányokra az Ada esetén még de a méretarányos GPu felbontás szerint( amiből nehéz következtetni a tranzisztor számra) 3 generáció közül a Turing volt a legerősebb Tensor/ Cuda/ RT mag arányban Az Ampere CUDA tunningot kapott az Ada pedig t 3.125 % -ra lőtte a tensor magokra/ cuda magok számát. Nem tudom honnan jön le neked az hogy a 75 milliárd tranzisztorból közel 50 milliárd ment el Tensor alapú feldolgozókra de ezt kizártnak tartom matematikailag 608 nm2 GPU nál 5 nm gyártásnál.
Nagyon elfelejtetted mennyire sokat futattad a Vega-t a Pascallal szemben , mit kapott akkoriban a GTX széria és mekkora lehetőségeket és csodákat láttál a Vega-ban ami a jövőnek készült a Pascal meg egy kiherélt játékos GPU volt . Igazából a Tükörben most ugyan az játszódik azzal a különbséggel hogy Nvidia jól hozza jelenleg azokat a fejlesztéseket amiket kell és nem marad le a jelenben ebben simán lát az ember lehetőségeket lehet az RT vagy bármilyen egyéb dolog.
Ami furcsa hogy most ez tetszik neked akkor meg az tetszett. ( természetesen nem furcsa, de én teljesen ugyan azt látom benne hogy most NV azt valósítja meg amit az AMD akart akkoriban a vegaval, az AMD meg azt akarja amit az Nvidia a Pascal szériával.)
EZ koránt sem ennyire fekete és fehér hogy ez a jelen az mega jövő meg ilyenek... Mindegyik gyártói kártyát a jelennek veszik ennyi pénzért és mindegyik jó és mindegyik drága. de mindegy is a részemről elengedem inkább, felesleges.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Alogonomus #57920 üzenetére
Megintbutaságokat hordasz össze áltudományos intrikákkal
Teljesen más elven és alapon vezérli ventilátort a két gyártó .
Eleve más mérési metódussal monitorozzák a GPU-t az Amd és Nvidia kártyák,más a megengedett hőmérséklet tartomány amiben dolgoznak. engedd már el ezt a sok légből kapott hülyeséget.
Ezt olvastuk a Turing esetén is több emberkétől aztán RMA ( meghibásodási arány) pl a Mindfactorynál 50% kal magasabb volt a Turing vs RDNA1 esetén AMD kártyákra. [link]
Az Ampere többet evett az RDNA meg magasabb Spike tüskéket produkált.
A Kingpinről fogalmad sincs mit jelent és miért csomagoltak mellé tápegységet pedig már leírtuk neked Raymond is meg én is, de képtelen vagy megérteni.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
A multiprocesszorból tesz ki kétharmadot a tensor, amiben benne van az OFA is. Főleg utóbbi lett jóval dagibb, de a tensor is sokkal több tranyót igényel már mert sokkal több formátumot támogat, ami sokkal több eltérő állapot. Ezen túlmenően az L2 főleg a tensorért nőtt mag nagyon, mert tipikusan ez egy olyan művelet, ahol sok a koherencia.
Szerintem simán elképzelhető, hogy ugyanaz lesz a felállás, mint a Vega és a Pascal esetében csak fordítva. És igen, abszolút el tudom képzelni, hogy 5 év múlva az Ada lesz a jobb, ahogy egyébként a Vega is elverte 5 évvel később a Pascalt. Csak 5 év sok idő.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #57927 üzenetére
A Vega 64 az 1080 ellen jött árban. Mára el is veri. A kérdés, hogy megérte-e ezért a fölényért ennyit várni. Ugyanez lesz a kérdés majd az Ada esetében is. Most például az AC Valhallában a leggyorsabb RDNA 3-as GPU-hoz nincs közel a 4090, annak ellenére, hogy lapkaméretben és tranzisztorszámban az AD102 sokkal nagyobb. Viszont valószínű, hogy ha előreutazunk az időben mondjuk négy évet, akkor az Ada majd gyorsabb lesz. Ez látványos tervezési különbség most az AMD és az NVIDIA között.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
-
Alogonomus
őstag
válasz Petykemano #57930 üzenetére
Amelyik oldal lendületben van, amelyikhez új ügyfelek csatlakoznak, az a mának gyárt, mert biztosan lesz igény a jelenlegi termékeire. Amelyik oldal pedig éppen veszíti el a lendületét, amelyiktől ügyfelek köszönnek el, az a jövőben bízik, a jövőnek fejleszt, míg a jelenlegi termékeivel a "megúszásra" játszik.
Az évtized második felére kiderül, hogy az Nvidia is jól olvasta-e a grafikus motorok fejlődési irányát, és egy AMD-hez hasonló feltámadást mutat majd be. -
Petykemano
veterán
válasz Alogonomus #57931 üzenetére
Ez számomra kicsit zavaros megfogalmazás, ami rejt magában némi igazságtartalmat, de inkább arra alkalmas, hogy valamilyen helyzetet hangzatosan racionalizáljunk.
Az AMD abban az értelemben talán valóban lendületben van hogy teljesítmény tekintetében beérték az Nvidiát, de legalábbis nincs szégyellnivalójuk. De ez mondjuk piaci részesedés tekintetében még nem érezteti a hatását. És ez mindig is probléma volt.
Az Nvidia a grafikus motorok fejlődési irányát nem olvassa, hanem írni igyekszik és az ebbéli befolyását (dominanciáját) nem az AMD, hanem leginkább a MS szorítja vissza, akinek az AMD csak hardvertervező beszállítója.
Az Nvidiát lehet azzal vádolni, hogy lendületet veszt, de ha ezt a kérdést egy lépéssel távolabbról szemléljük, akkor sokkal inkább tűnik úgy, hogy az Nvidia már valójában máshová fókuszál. Az adatközpontokra és a metára.
Bár a Stadia bezárt, de a MS és a GN kínálatában a streaming működik. Egyre drágábbak lesznek a GPU-k és a közönség el fog fordulni. vagy a streaming irányába, vagy az olcsóbb konzolok (kézikonzolok) felé. Szerintem hosszútávon a Sonynak és a playstationnek is vége.
Nekem vannak kétségeim afelől, hogy ha látunk az Nvidia-tól "feltámadást" az évtized második felére, akkor az még a most ismert dGPU piacon fog-e történni, fog-e még létezni ez a piac, vagy tovább szorul vissza egy nagyon drága niche hobbi irányába.
Szerintem az fog történni a gaminggel is, mint az audio-vizuális piaccal. Senki nem akar már sem kazettákkal, sem CD/DVD lemezekkel foglalkozni. Itt-ott talán még vannak USB-s vinyók, NAS-ok, de a többségnek megfelel a content streaming a saját adathordozók és azokat olvasni képes eszközök kezelése helyett.
Értem, hogy interaktív műsorok esetén nagyobb problémát jelent a késleltetés, de ezt a jövőben kezelik:
- az AV1 codec segít a sávszélesség igényen
- a DLSS vagy más felskálázási technológia be fog épülni. A streaming adatközpont majd csak kisebb felbontáson fog anyagot készíteni, ami segít a szerveroldali terheltségen, késleltetésen és a kisebb adatmennyiség miatt a sávszélesség igényen is.
- A DLSS3 típusú képkocka-beillesztési technológiák pedig segítenek a hálózati késleltetés elfedésében.Találgatunk, aztán majd úgyis kiderül..
-
qwe8585
csendes tag
válasz Petykemano #57932 üzenetére
Sajnos semmi nem segít viszont a fénysebességen .
-
Abu85
HÁZIGAZDA
válasz FLATRONW #57929 üzenetére
A Pascal egy architektúra. A VGA-t lehet VGA-hoz hasonlítani, és jellemzően ár szerint szokás megtenni, mert éppúgy hasonlítható a Vega 64 egy 1080 Ti-hez, ahogy egy 1060-hoz, ha nem számolunk az árral.
#57930 Petykemano : Mindig az volt a jobb döntés, ami eladhatóbb. Ettől függetlenül lehet arról beszélni, hogy x architektúra y-nál jobb lesz öt év múlva, de állandó kérdés, hogy megéri-e erre várni.
#57932 Petykemano : Ahány motor annyi irány jelenleg. Például az Unreal Engine 5 homlokegyenest másfele megy, mint amerre az NVIDIA fejlesztette az Adát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz qwe8585 #57933 üzenetére
Gyorsítani nem tudja a fénysebességet. De aki komolyan gondolja az űrutazást, az nem azon töri a fejét, hogy hogyan lehetne a fénysebességet elérni, hanem a térgörbítésen.
DLSS3 szerintem egy ilyen technológia. Persze csak akkor, ha úgy képzeljük el, hogy a DLSS (vagy bármilyen más felskálázás és/vagy képkocka beillesztési módszer) streaming esetén nem szerver, hanem a kliens oldalon történik.
De persze az tény, hogy ez csak az egyik irány, hogy a fogyasztó kellően folyamatos stream-et lásson. Az input lag jelenségre ez önmagában nem megoldás.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
válasz Petykemano #57935 üzenetére
"Mindig az volt a jobb döntés, ami eladhatóbb. Ettől függetlenül lehet arról beszélni, hogy x architektúra y-nál jobb lesz öt év múlva, de állandó kérdés, hogy megéri-e erre várni."
Jól értem, hogy azt mondod, hogy az elmúlt 10+ évben az Nvidia tervezett jobb architektúrákat?Találgatunk, aztán majd úgyis kiderül..
-
Alogonomus
őstag
válasz Petykemano #57936 üzenetére
Azonnali haszonra váltható piaci sikerhez egyértelműen az Nvidia architektúrák voltak a jobbak a legutóbbi generációig, a legutóbbi generációnak pedig a bányászláz adott jelentős hátszelet. Még a csekély számban elérhető DLSS és RT opciók miatt megbotló Turing is sikeresnek tekinthető, mert érdemi konkurencia hiányában gond nélkül úgy is az élen tudott maradni az új generáció érkezéséig.
-
paprobert
senior tag
"Ettől függetlenül lehet arról beszélni, hogy x architektúra y-nál jobb lesz öt év múlva, de állandó kérdés, hogy megéri-e erre várni."
Ez nagyon nagy igazság, örülök hogy a te szádból is elhangzik.
Ez a szokásos, futureproofing kérdésköre. Azonban mindig fel kell tenni a kérdést, hogy az a termék, amely feltehetően gyorsabb lesz a jövőben, a jelenben elég jól működik?FX CPU és többszálúsítás:
a várva-várt váltás megtörtént, úgy 7 évvel a Bulldozer megjelenése után, de az a CPU már a megjelenéskor is lassú volt, a 7 év alatt egyre több problémája lett, és mire ideért a 6-8 szálig skálázódó motorok időszaka, az FX a legjobb esetben is a használhatósági küszöbön egyensúlyozott.APU-OpenCL áttörés:
A szemmel látható GFLOP-TFLOP-nyi számítási kapacitás nagyon jól mutatott a specifikációkban (gyors tensor feldolgozót, valaki? ). CPU-val korábban megoldhatatlan feladatokat tudott volna abszolválni. Ellenben megjelenéskor az FX variánsok adták az alapját, tehát lassú volt a hagyományos feladatokban. Ezen felül a programozók nem ugrottak az AMD ötletére.Wait for Vega - buta Pascal:
Elmondtátok néhány kommenttel ezelőtt, hogy hogyan játszódott le ez az összecsapás.
A lényeg, hogy az AMD az elméleti számítási kapacitást nem tudta sebességre fordítani a megjelenéskor a Vega-val, csak az évek során, driverről driverre, illetve konzol-derivált címekkel. Az évek alatt pedig végigkísérte a perf/w hátrány, és az abszolút teljesítmény hiánya.NV DLSS és tensor forradalom - raszter RDNA:
Eddig az RDNA-hoz képest érzékelhető sebességet nem áldozott fel a funkciókért az Nvidia, elöl volt a versenyben. Tehát megjelenéskor önmagában gyors volt a Turing és az Ampere is.
Az NV-nak nem kellett mentegetőznie a "lassú, de fejlett" érvvel(GCN), sokkal inkább a "gyors és fejlett" volt igaz rá az elmúlt 2 generációban.Ez a nagy különbség a jelenlegi helyzetben.
Még nem láttuk egyik új generációs kártyát sem a gyakorlatban, emiatt nehéz véleményt alkotni. Ha ténylegesen az általad sugallt előnyre tesz szert az AMD az RDNA3-mal, akkor valóban eljöhet egy Vega - Pascal felállás, fordított szerepekkel.
Túl korai ítéletet mondani egyelőre.[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
Busterftw
veterán
válasz Alogonomus #57937 üzenetére
Amin a "beerte" RDNA 2 sem segitett, mert 80% korul maradt a market share.
-
FLATRONW
őstag
Ezt meg tudom érteni, viszont itt más volt a helyzet. A Vega 64 egy teljes értékű, vágatlan, minden "jóval" megpakolt GPU volt, amiben + 15 hónap fejlesztési idő volt. Ez generációs különbség. Egy ilyen GPU-nak már megjelenéskor le kell hagynia az 1080 Ti -t.
Az ára pedig csak a rossz teljesítménye miatt lett az 1080-hoz igazítva. Még belegondolni is rossz, hogy mennyi lehetett ezen a generáción az AMD vesztesége.[ Szerkesztve ]
-
Petykemano
veterán
válasz Yutani #57941 üzenetére
Valami hasonló történhetett, mint most az Intel Alchemist rajtjánál.
Nem viccből mondom, hanem komolyan. Emlékszel az NGG-re? Lehet, hogy tényleg hónapokig küzdhettek akár hardveresen, akár szoftveresen azért, hogy működjön, de nem sikerült kanyarból előzni.Találgatunk, aztán majd úgyis kiderül..
-
félisten
Jó hát most hozhatsz ilyen szélsőséges példákat amikor AC Walhalla 1440P ben a 6800 23 % kal gyorsabb mint a 3070 ti , valahol a 3800 Ti környékén van de amúgy összesített eredményben 3% van a két kártya között ugyan ezen felbontásban a 3080Ti pedig 15 % kal gyorsabb.
Az Unreal az első motor ami mindig minden Nvidia fejlesztést azonnal implantál . A nanite-t is RTX kártyával demózták a RTx I/O is Unreal 5 motorra készül bemutatkozni a Lumen demó RTX kártyán futott.
érdekes hogy homlokegyenest másfelé fejlesztenek de Nvidia kártyákat használnak PC demonstrációkra...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Yutani
nagyúr
válasz Petykemano #57942 üzenetére
Igen, jó lenne meghallgatni egy mérnököt, hogy mi folyt ott a launch előtti egy évben. Annyi szuper fejlesztés került a Vegába, aztán csak a Pascal mellbimbójáig ért fel (1080 Ti), de azt is túltolt fogyasztással.
#tarcsad
-
Abu85
HÁZIGAZDA
Az UE5 húzófícsőre a virtualizált geometria, ami homlokegyenest szembemegy azzal a ray-tracing implementációval, amit az NVIDIA erőltet. A Lumen sem AABB-ben dolgozik, hanem SDF-ben, amit nem tud gyorsítani az NVIDIA AABB-re szabott RT részegysége.
Szerinted az RTX I/O-ról miért nem hallottunk 2020. szeptembere óta? Még az NVIDIA sem említette meg az Ada bemutatásakor. A hivatalos oldalon sincs róla egy szó sem a termékoldalon. Segítek, hogy miért. Az ötlet az volt, hogy optimalizálják a peer-to-peer DMA eléréssel az SSD-k és a GPU-k közötti adatmozgatást úgy, hogy elkerülik rendszermemóriát. Ez alapvetően működik is, csak gondot jelent, hogy ilyen környezetben az NVMe eszközt a CPU és a GPU is eléri. Tehát nem elég csak úgy a GPU-ra egy peer-to-peer DMA elérést alkalmazni, hanem biztosítani kell azt is, hogy a GPU ne szakítsa meg a CPU munkafolyamatait, és persze fordítva. Itt jön a nehézség, ugyanis az NV-nek semmi ráhatása az NVMe eszközök meghajtójára. Egyszerűen a gyártók nem is foglalkoznak a GeForce-ok PCI Express implementációjával, mert soha nem kötnek rá direkten SSD-t. Tehát az NV meg tudja oldani magát a peer-to-peer DMA-t, de nem tudja megoldani, hogy a CPU és a GPU ne szakítsa meg egymás munkafolyamatait, nincs meg hozzá a platformjuk, amivel ezt kontrollálni tudnák, az AMD és az Intel pedig elküldik őket a fenébe, mert nem különösebben hasznos nekik, hogy GeForce-specifikusan peer-to-peer DMA-ra optimalizáljanak megszakításokat. Ezért nem hallani az RTX I/O-ról manapság. Az NV önállóan csak a probléma felét tudja megoldani. Az AMD és az Intel az egészet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
Talán azért mert nem volt elérhető a directstorage APi Windowsra 2022 Márciusáig, fél éve jött meg a hivatalos támogatás.
Az RTX IO a szabványos directstorage API kitömörítésének hardveres gyorsítása GPU-n. Egy GPU alapú hardvertámogatás az API részére. Keverheted ide az AMD-t meg Intelt de felesleges.
Azért erre ne vegyél mérget hogy nem hallunk róla hamarosan. Majd visszatérünk erre a kommentedre akkor.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
Lófa... vagyis hát az equus péniszét. A DirectStorage API a GPU-n szabványos compute shaderrel használható. Ami a problémát okozza, hogy ez a módszer a rendszermemóriát mindenképpen használja, mert a kódolt tartalmat onnan olvassa be a GPU, amit aztán kikódol. Amin dolgoztak a gyártók, hogy ezt az extra kört kivegyék, vagyis olvassa csak be a tartalmat a GPU direkten az NVMe SSD-ről. A probléma ezzel az, hogy az NVMe SSD-t a CPU is eléri, és ha egyszerre küldenek az adattárolónak parancsot, akkor az elég durva para. Ezt az utóbbit az AMD és az Intel meg tudja oldani, mert platformot kínálnak, míg az NV-nek ehhez az AMD és az Intel segítsége kell. Ezért írtam, hogy az NV csak a megoldás felét tudja biztosítani, mert a másik felére meg kell győzniük az AMD-t és az Intelt, hogy ugyan támogassák már GeForce-specifikus peer-to-peer DMA-t. Annyit tehet esetleg az NV, hogy elkezdenek alkalmazkodni az AMD és az Intel megszakításoptimalizálásaihoz, csak közel sem biztos, hogy ezekkel jól érzi magát a GeForce. Ezért jelenleg pihen a téma, mert látni kell, hogy egyáltalán kivitelezhető-e a gyakorlatban egy driveres behackelés az AMD-féle SAS-ba, és az Intel készülő saját megoldásába, amelyek egyébként nagyon gyártóspecifikusak, tehát a SAS Ryzen+Radeont, míg az Intel technológiája Core+Arc-ot igényel. A keverés itt még nem működik.
Opcionális megoldás még, hogy a Microsoft specifikáljon egy SSD-k számára kötelezően támogatandó mechanizmus egy szabványosított peer-to-peer DMA-ra, de ez évekbe telik, noha valószínűleg, hogy elmegyünk majd ebbe az irányba. Khmm... DirectStorage 2 vagy 3...[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
sakal83
addikt
Ahogy nezem az elmult evek legjobb fejlesztese a Rája kirugasa volt. Az atok atment az intelhez. Nagy sikereket er el...
Azota az AMD ujra azvTI idoket idezi:)
[ Szerkesztve ]
-
Pano
addikt
Sziasztok!
Vettem egy SAPPHIRE NITRO+ Radeon RX 6700 XT 12G kártyát.
Ezen a kártyán van fizikailag egy BIOS switch. Ez a kapcsoló most (ha a pci-e csati befelé néz) bal oldalon van gyárilag. De mivel 0, azaz 0 jelzés van rajta, nem tudom ez milyen módot jelent, illetve a többi állás melyik mód.
Át szeretném rakni performance-ba. Ha már megvettem egy jobb kártyát, működjön ahogy kell.
Találtam egy ábrát, hogy van a 3-2-1, de nem egyértelmű, hogy balról 3-2-1, vagy jobbról 1-2-3.Akinek van ilyen kártyája, az tudja esetleg?
A Sapphire szoftverét próbáltam, de használhatatlan. Állandóan összeomlik, ha meg nem, akkor RX 6600-nak látja a kártyát.[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Formula-1
- Yettel topik
- Ukrajnai háború
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Óra topik
- A fociról könnyedén, egy baráti társaságban
- Mikrokontrollerek Arduino környezetben (programozás, építés, tippek)
- VoLTE/VoWiFi
- Samsung Galaxy S21 Ultra - vákuumcsomagolás
- Gyúrósok ide!
- További aktív témák...
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Promenade Publishing House Kft.
Város: Budapest