- Beszáll a kézikonzolok világába a PC-s házairól elhíresült az Antec
- Olcsó és visszafogottan elegáns kompakt AIO jön az ID-Cooling berkeiből
- Q, mint Quiet: új változat született a Chieftec Apexből
- Megérkezett a legújabb és eddigi legátfogóbb 3DMark teszt
- Szinte bankkkártya méretű a LattePanda x86-os SBC-je
- Milyen billentyűzetet vegyek?
- Milyen egeret válasszak?
- Azonnali informatikai kérdések órája
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- 3D nyomtatás
- NVIDIA GeForce RTX 4060 / 4070 S/Ti/TiS (AD104/103)
- Milyen SSD-t vegyek?
- Nvidia GPU-k jövője - amit tudni vélünk
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Vezetékes FEJhallgatók
Hirdetés
-
Warhammer 40k: Space Marine 2 - Középpontban az egyjátékos és a multi mód
gp A készítők a minap két új előzetessel jelentkeztek a sokak által várt programhoz.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
Közönségkedvenc Galaxy vált One UI 6.1-re
ma Ezen a héten sem tétlenkedett a Samsung szoftverfejlesztő csapata.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Mirkessz
csendes tag
Sziasztok volna itt nekem egy ilyen vidokártyám ---> AMD Radeon HD 5870 Series (1024 MB) húzni szeretném , tudnátok segíteni , vagy adni egy topicot, mert nem találok sehol Köszönöm a választ !
[ Szerkesztve ]
-
-
KillerKollar
senior tag
-
Crytek
veterán
válasz Malibutomi #8461 üzenetére
Valaki aki tudja mik ezek a tesztek valamit írhatna hogy ezek most jók vagy rosszak a GTX 970-980-akhoz képest.
Next PC Upgrade: 2022
-
Crytek
veterán
válasz Malibutomi #8464 üzenetére
Nem értem mit kell nézni ez nekem magas
A tied:
Score 55.0GB/s
Expected Score Range (Confidence Interval) 12.0GB/s - 57.1GB/s390:
Score 42.4GB/s
Expected Score Range (Confidence Interval) 36.4GB/s - 52.6GB/sNem tudom ez játékokra vetítve mit jelentene nekem ez így kínai.
Next PC Upgrade: 2022
-
daveoff
veterán
válasz Malibutomi #8464 üzenetére
290X
AMD Radeon R9 200 Series (2816SP 44C 1.1GHz, 3GB DDR5 5.8GHz 512-bit) (OpenCL)
55.0GB/s 44CU 1100MHz390X
AMD Radeon Graphics Processor (4096SP 64C 1GHz, 4GB 1.25GHz 4096-bit) (OpenCL)
63.6GB/s 64CU 1000MHzTehát akkor a 390X durván 15%-al gyorsabb egy 1100MHz-es 290X-nél, jól gondolom?
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
daveoff
veterán
válasz TESCO-Zsömle #8467 üzenetére
Igen, akkor egy alap 290X-hez képest meglesz a nagyjából a 25%-os többlet teljesítmény, ennyire számítottam én is. Ha egyáltalán valósak ezek az adatok....
Már csak a fogyasztásra/melegedésre leszek nagyon kíváncsi, és természetesen a tuning potenciálra.
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Mindegy, a nyers teljesítmény nem érdekes, mert úgyis jön majd vele valami új GCN feature, ami nélkül egyenesen siralmas lesz bizonyos hamarosan érkező sikerjátékok futtatási sebessége, úgyhogy nem lehet majd nélküle élni.
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Malibutomi
nagyúr
Edit: téves
[ Szerkesztve ]
-
-Solt-
veterán
válasz Malibutomi #8471 üzenetére
Jó lenne... a 390X személyében asszem meglesz a 780-m utódja...[ Szerkesztve ]
www.smart-bus.hu
-
Dtomka
veterán
válasz TESCO-Zsömle #8469 üzenetére
Én annak örülnék, ha a 380x 200 w alatt lenne, nem tudom erre szerintetek van/lehet esély?
-
KillerKollar
senior tag
-
daneeeeee
aktív tag
válasz KillerKollar #8474 üzenetére
Valóban nagyon érdekes amit Mr. Huddy mond.
Hogy ha ez igaz (már pedig miért ne lenne) az Nvidia és az Intel is megcsinálhatná a saját Mantle driverét.
A feltételek ezek szerint adottak, már ma is lehetne next-gen élmény ha a gyártók összeállnának.
Kíváncsi vagyok mi tartja őket vissza. -
nagyúr
válasz daneeeeee #8475 üzenetére
korrekt nyilatkozat volt, de nem mondott semmi újat. abban a kényelmes helyzetben van, hogy őszintén mondhatja, amit az 1.0-ról mond (miszerint nem viszik be az erdőbe a konkurenciát) - nincs is rá szükség, mert az eddigi Mantle-fejlesztők a GCN-t vették alapul, és a másik két gyártó automatikusan (akár jelentős) hátrányba kerülne.
vagy mondhatjuk úgy is, hogy azért nem támogatja az nVidia a Mantle-t, amiért az AMD a PhysX-etPedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
daneeeeee
aktív tag
A fickó azt mondta hogy a Mantle 1.0 raw változatát bárki használhatja, sdk is pubkikus hozzá.
Ezen felül kiemelte hogy még sokáig nem is akarnak változtatni ne, hogy az legyen, hogy a saját szájuk íze szerint alakítják az Api-t.
A Mantle játékok is kint vannak, a GCN azért volt alapul véve mert ez volt dokumentálva. Természetesen az Nvidia-t ettől még semmi sem akadályozza, hogy megírja a saját Mantle driver-ét az adott játékhoz.
Ehhez még csak az sem kell hogy dokumentálva legyen a hardver, a drivert az Nvidia írja, ők pedig tudják milyen a saját hardverük.A PhysX pedig rossz példa mert ez egy Nvidia feature ami csak Geforce-on aktiválható. A Mantle pedig ezek szerint egy nyitott dolog, az interjú alany szerint semmi akadálya nincs annak hogy Geforce alatt is működjön.
-
nagyúr
válasz daneeeeee #8477 üzenetére
a Mantle-nek pont az a lényege, hogy a driver által végzett absztrakció minimális, és a szoftver a valódi erőforrásokhoz közeli fogalmakkal dolgozik. ha az nVidia írna egy Mantle drivert (ami ebben az esetben igazából egy driver és egy interface kombinációja), akkor elfutnának a jelen Mantle portok a GeForce-okon, de esetleg a DX-sebesség felével. ennek mennyi értelme lenne?
a PhysX ugyanúgy implementálható lenne bármilyen GPU-ra, csak a CUDA-layert kellene megcsinálni az AMD-nek. ehhez az nVidia megadna minden támogatást, csak erre meg persze az AMD nem vevő. pont ugyanaz a két történet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
daneeeeee
aktív tag
Tudtommal a Cuda nem egy nyílt GPGPU technológia, ez csak az Nvidia-é. De ha nem így lenne és Cuda-layer elérhető lenne Radeonokon sem hiszem, hogy megoldható lenne egy PhysX. Az AMD a Mantle-el nyitott a konkurencia felé is (bár ez nem ért túl sokat) NV-nél ilyen szándékot eddig még nem fedeztem fel mondjuk a PhysX-el kapcsolatban. Szóval nem hiszem hogy megadnának minden támogatást.
"ha az nVidia írna egy Mantle drivert (ami ebben az esetben igazából egy driver és egy interface kombinációja), akkor elfutnának a jelen Mantle portok a GeForce-okon, de esetleg a DX-sebesség felével. ennek mennyi értelme lenne?"
Ezt igazából nem tudhatjuk hogyan futna, nincs rá precedens.Mindenesetre az NVidia a DX12-t viszont támogatni fogja ami a Mantle-höz nagyon hasonló api. Szóval én nem vennék rá mérget hogy komolyabb difi kialakulna a két gyártó között DX12 alatt.
Sőt a Maxwell-t többek között DX 12-es Fable Legends-el is reklámozták. -
nagyúr
válasz daneeeeee #8479 üzenetére
ne vedd rossz néven, de az, hogy mit hiszel, nem valami fényes érv
a CUDA ugyanolyan API mint a DX vagy az OpenCL, ha az interface-ek pontos dokumentációja megvan, akkor bármilyen eszközön lehet implementálni. a performancia persze kérdéses, ill. mivel nem nyílt, felmerül a licenszelés költsége is. de technikai akadálya nincs.
a PhysX GPU-s része egy CUDA-implementáció, bármilyen CUDA-enabled eszközön futna. megint a sebesség a kérdés.van precedens, sajnos. nézd meg az R9 285 tesztekben, hogy megy a Thief Mantle alatt. ha egy kis mértékben módosított architektúra begyűjt 10-15% hátrányt, akkor egy teljesen más architektúránál mi lehet a helyzet?
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
daneeeeee
aktív tag
Közben utána néztem a Cuda valóban licencelhető, tehát pénzbe kerül ellentétben a Mantel-el ami ingyenes. Ez az AMD részéről egy komoly gesztus amivel kvázi nyit a konkurencia felé. A két cég hozzáállása tehát merőben különbözik ennyiben sántít szerintem a PhyX-es példád.
"van precedens, sajnos. nézd meg az R9 285 tesztekben, hogy megy a Thief Mantle alatt. ha egy kis mértékben módosított architektúra begyűjt 10-15% hátrányt, akkor egy teljesen más architektúránál mi lehet a helyzet?"
Tudtommal ez nem a VGA hibája hanem a low level api-k használatának egyik velejárója. Ebben az esetben a játékot kell optimalizálni, hogy támogassa az adott VGA-t Mantle alatt (vagy később ezt javítócsomagokkal pótolni). forrás
DX 12 esetén is fent fog állni ez a probléma, szóval előbb-utóbb az AMD mellett majd az NVidia-nak is szembe kell néznie vele (ahogy Mantle mellett is kellene ha támogatnák). Tehát ez nyilván nem lehet akadálya egy Mantle támogatásnak az NVidia részéről.Szinte biztos hogy üzleti okokból nem állnak a Mantle mellé megvárják inkább a DX 12-t. Pedig jó pár kellemetlenségtől (pl: Wach Dogs, AC Unity) megkímélhettek volna minket. Akár az említett játékok mantle portjai is elkészülhetek volna ha anno beálltak volna az api mögé. Mennyivel másképp alakulhatott volna minden. Na mindegy ez már történelem.
-
Abu85
HÁZIGAZDA
Igazából nincs különbség a koncepciók között. Ugyanazt kell csinálniuk Mantle és DX12 alatt is, tehát effektíve mindegy, hogy lesz driver vagy sem, mert nem az API adja a hátrányt, ha lesz, hanem az alkalmazás, ami ugyanúgy lehet hátrányos DX12 alatt.
Azt kell mérlegelni, hogy mennyit ér a Windows 7-es bázis. Nem véletlen, hogy a két low-level API esetén a Mantle-nek van nagyobb támogatása a DX12-vel szemben. Nézd meg a motorokat például:
DX12: Unreal Engine 4, Nitrous
Mantle: Frostbite, CryEngine, Nitrous, Asura, Gamebryo, LORE, Panta Rhei
A helyzet jelenleg az, hogy a fejlesztők úgy számolják, hogy a Win7/8/8.1-GCN részesedés még 2016-ban is nagyobb lesz, mint a Win10-DX12 hardver részesedés. Ez nem mindegy, így két évig biztosan a Mantle a fókusz.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
válasz daneeeeee #8481 üzenetére
semmi jelentősége a jelen helyzetben a licensznek, az AMD-nek nem ez a fő baja. olyannyira nem, hogy szerintem az nVidia ingyen odaadná nekik, ha egy kicsit is akarnák.
igen, az a fő gond a 285-nél is, hogy tweakelni kellett volna a renderert. nem tették. vajon nVidiára mennyi idő alatt tennék, ami korántsem csak tweakelést jelentene? a javítócsomagra várás a felhasználónak lehet OK, de az IHV-nek a legrosszabb. elég egy hiteles teszt, amiben a saját megoldása fele FPS-t izzad ki magából, mint a konkurencia, az jól beég mindenkinek a retinájába - onnan nehéz visszahozni a márkát.
lentebb már leírtam, miért nem állnak a Mantle mellé, és nyilván az okok üzletiek, nem műszakiak.
a WD és az AC nem alakult volna jelentősen másképpen - sőt, az is lehet, hogy még rosszabbak lettek volna. 2-3 éves projektekről beszélünk, amiknek a termékét az optimálisnál korábban kellett kiadni - nem volt elég idő tesztelni.(#8482) Abu85: ezt tuti ide akartad?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Igen. Tök mindegy, hogy milyen API-val neveznek be a low-level versenybe. Az előnyök és a hátrányok ugyanazok. Az viszont nem mindegy, hogy melyik API mögött milyen a jelenlegi támogatás, mert az egyik mögött két, míg a másik mögött hét motor van. És a probléma az, hogy a DX12 felhasználóbázisa az új OS miatt kisebb lesz egy ideig. És a fókuszt nem a kisebb bázis szokta kapni. Ezeken agyalni kell, mert abban a két évben is történnek eladások, amíg ez probléma.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Z10N
veterán
Ugy latom meg nem volt.
Hawaii Rev2
source# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
KAMELOT
titán
Már jó lenne ki is adni valamit nem csak irkálni róla!
V1200 - 18CORE - SUPRIMX
-
KAMELOT
titán
válasz Malibutomi #8487 üzenetére
Én kedvemért nem kell....csak az eladásaik csökkennek!
V1200 - 18CORE - SUPRIMX
-
Crytek
veterán
Ezer éve várok már új gép vásárlásával ,de ezek a végleges pár hónap már szinte kibirhatatlanok
Akkor leszek pipa ha az általam várt és beképzelt 380x nem lesz erősebb mint a 970
Next PC Upgrade: 2022
-
daveoff
veterán
-
daveoff
veterán
válasz Malibutomi #8492 üzenetére
Gondolod, hogy még a Hawaii-ból kitudnak annyit préselni, hogy a 980Ti ellenfele legyen? Vagy hogy értetted?
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
HSM
félisten
válasz daveoff #8493 üzenetére
Elvileg még kb. 200 shader van benne, letiltva. Azt be tudják kapcsolni, plussz tudnak szinte biztosan egy revízióval is kicsit javítani a fogyasztáson is. Nem tudom, mennyire lesz ütős, meglásuk. Nekem a jelnelegi 290X-ek is bejönnek, szóval ha jó áron adják, kicsit javított fogyasztással, szerintem teljesen jó lehet.
Ez a 980 Ti ellen tuti kevés lenne, de egy sima 980 megközelítésre jó lehet.
-
daveoff
veterán
Remélem valami ütőssel rukkolnak elő, ami végre nem lesz kazán meleg. Nagyot kell dobbantaniuk, mert ahogy KAMELOT is mondja, nagyot esett a részesedésük a piacon a 970/980 megjelenésével. 290X szinte teljesen elvesztette a létjogosultságát a 970 által.
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
HSM
félisten
válasz daveoff #8495 üzenetére
Nem a létjogosultságát, hanem a népszerűségét. Az Nv-nek sikerült akkora marketinget tenni a terméke mögé, amivel megvette kilóra az embereket. Persze, a termék is jó lett, szó se róla, de azért közelsem egy akkora eresztés, mint amennyire népszerű lett. Persze, ez csak az én véleményem.
Ha ma VGA-t kéne vegyek, nem lenne kérdés, R9 290-et vagy Maxwell 900-ast vegyek, egy jóárasított 290-es lenne újra.
[ Szerkesztve ]
-
KAMELOT
titán
Ja csak nem mindegy, hogy 150W vagy 250W van ugyan akkora teljesítménynél!
És ugye multimonitornál a GPU/RAM Mhz-e olyan mintha 1 monitor lenne. AMD kártyáknál mint pl nálam is 2 monitornál 500/1500Mhz ami felesleges fogyasztás IDLE állapotban!
Ezt a haverom 970-én meg is néztük! És nekem nem mindegy mivel egész nap megy a gépem!(#8497) Malibutomi: Előre felesleges találgatni! Majd ha kint van és lesznek eredmények akkor leszünk okosak!
AMD-nek most nagyot kell alakítani. Ár / teljesítmény / fogyasztásban ugyan azt kell hozniuk vagy jobbat mint az NV![ Szerkesztve ]
V1200 - 18CORE - SUPRIMX
-
HSM
félisten
válasz KAMELOT #8498 üzenetére
Akkor számold ki, mennyi idő alatt hozza vissza az árát az a 100W. Számold azt is, mennyit fogyaszt a sok egyéb kütyü, monitor, és egyebek. Nagyon sokat kell játszanod, hogy valami visszajöjjön. Annyi a "valódi" előnye, hogy gagyibb hűtésű ház és gagyibb hűtésű kártya is halk működésű tud maradni.
Természetesen a rossz multimonitor fogyasztás az EGYETLEN valós, lényeges hátránya a 290-eknek szvsz. Akinek több monitora van, annak vagy számolnia kell a 290-nél +40W-al, vagy tényleg jobb vétel lehet a 900-asok közül valamelyik. A sokat járó gépnél a folyamatos +40W nagyságrendekkel nagyobb plusszfogyasztást tud összeszedni, mint a játék alatti +100W.
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Kertészet, mezőgazdaság topik
- Milyen billentyűzetet vegyek?
- Milyen egeret válasszak?
- Tovább csiszolja a Nothing a Phone (2a) kameráját
- Azonnali informatikai kérdések órája
- bambano: Bambanő háza tája
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- E-roller topik
- 3D nyomtatás
- Ukrajnai háború
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen