- Raspberry Pi
- Kormányok / autós szimulátorok topicja
- Milyen videókártyát?
- Melyik tápegységet vegyem?
- Azonnali processzoros kérdések órája
- Megérkezett a Corsair új M.2-es SSD-je, és mindennek mondható, csak lassúnak nem
- Modern monitorokra köthető 3dfx Voodoo kártya a fészerből
- Hamarosan megjön a Samsung 360 Hz-es QD-OLED monitora
- HiFi műszaki szemmel - sztereó hangrendszerek
- Videós, mozgóképes topik
Hirdetés
-
Steet Fighter 6 - Így harcol Akuma
gp A sorozat legútóbbi részének DLC karaktere alig több mint egy hét múlva érkezik a játékba.
-
Nálunk is telepíthető a One UI 6.1 a Galaxy S22-re
ma Gyorsan rendbe szedte a frissítést a Samsung, Dél-Koreában újra elérhető, itthon pedig először.
-
Tetőfokára hág a tavasz, és ezt a hardverek is érzik
ph Asztali PC-k, monitorok, videokártya, hát, hűtés és egér is került heti válogatásunkba.
Új hozzászólás Aktív témák
-
djculture
félisten
"Ebből kitalálható, hogy azonos lapkaméret mellett a 20 nm-es lapkák jóval drágábbak lesznek, mint a 28 nm-es elődök."
Sok értelme akkor nincs neki... -
fatallerror
addikt
most akkor pánikkeltés megy v tényleg ekkora a baj és csak egyre drágább lesz minden? azért ezt nem hagyhatják és nem is fogják, biztos megoldják vhogy :]
don't tell me what i can't do!
-
Puma K
veterán
"Az NVIDIA elnök-vezérigazgatója a jövőt miniatürizáltan látja. Állítása szerint a PC jelentősen összemegy, így a jövő számítógépei akár egy kisebb zsebben is elférnek majd. ... a komoly számítási teljesítményt pedig a számítási felhőből szerzi majd a felhasználó."
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Male
nagyúr
Azonos lapkaméret, nem azonos tranzisztorszám mellett. Ha nem vagy nem nagyon emelik a tranzisztorok számát, akkor még mindig olcsóbb lesz + kevesebbet fogyaszt (vagy az órajel nyomható feljebb).
Előbb-utóbb el kell majd fogadniuk, hogy ez a fejlődési tempó nem tartható örökké, akár mennyire kapálóznak... -
djculture
félisten
válasz fatallerror #2 üzenetére
Á nyugodj meg ha igy haladunk hd7750 szintű vga lesz majd 10nm-en 50 000 000 ft 2016-ban..
Jester01
Az egy dolog tudom hogy kisebb a fogyasztás de most az hol ér meg azonos teljesítmény esetén dupla árat? Most ott tartunk hogy több pénzért tudsz venni gyengébb kártyát...Nagyon megéri cserélni a régit...
Ma vettem egy hd6870-est 39 k ért mellett ott volt az árlistában afényévekkel gyengébb hd7770 43 ért[ Szerkesztve ]
-
ne_nezze
aktív tag
az nvidia kemény lett mint a vidia
mit hittek mikor felszólították erre az intelt?Intelligence is not the privilege of old age. »»───(knee)───►
-
mrhitoshi
veterán
LoL. Kicsit elszállt velük a ló.
Mi ez, hogy felszólítják őket (nyilvánosan leégetve őket, mert nincsenek benne a mobil iparágban annyira, mint az Nvidia), és akkor még ők várják a megváltást. Nevetséges.Ebből kitalálható, hogy azonos lapkaméret mellett a 20 nm-es lapkák jóval drágábbak lesznek, mint a 28 nm-es elődök.
Ideje lépni. Szerintem nagyon lassan vége a mai értelembe vett számítógépeknek, és ideje átállni Kvantum számítógépekre. Igaz ettől még messze vagyunk, de jobb mihamarabb belevágni.
[ Szerkesztve ]
PS4
-
arn
félisten
talan mert ez is a versenypolitika resze?
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
djculture
félisten
Kb visszakell hozzá menni a időszámitásunk előtti időbe az xt-k korszaka előtt volt ám olyan is hogy az intel és a motorolla (68000) versenyzett a saját processzor megoldásaikkal. A motorolla proci rengeteg harcászati cuccban ma is megtalálható.
Az akkoriban indult kompatibilitás trend miatt a motorolla el is bukott, az intel került be az első ibm gépbe. Ha a motorolla nem kötötte volna az ebet a karóhoz valószínűleg most a motorolláról beszélgetnénk[ Szerkesztve ]
-
Angel1981
veterán
Ilyen jellegű grafikonokat már régóta hiányoltam!
-
juzer78
tag
Korábban volt hír, hogy az nVidia elégedettlen a TSMC-vel, pedig elég nagy puszipajtik... és ez egy finom kis utalás volt, hogy az Intel igazán gyárthatnak az nVidiának chippeket...
Azt az nv is tudja, hogy jelenleg a legjobb gyártástechnológia az Intelé, és megeszi a fene őket, hogy ők meg a TSMC-vel kínlódnak. Hát na. Kínlódjatok csak! Azt gondolom hamarabb fog az Intel AMD-s chippeket gyártani, mint nvidiát. Pedig a sansz arra se túl nagy!
Az hogy az Intel bedőlne? Jó vicc, csak a technológiai licenszekből is majdhogynem megél, és ha megnézzük, hogy az elmúlt 3 évben milyen növekedést produkált, nos igen meglepő lenne. De ha hirtelen tizedére esne az x86-os processzorok iránti kereslet, még mindig könnyen beszállhat az ARM lapkáká gyártásába...
-
fatallerror
addikt
-
Tigerclaw
nagyúr
El kell fogadni, hogy valahol megáll vagy lelassul a miniatűrizálás. A drágulást a piac meg úgy fogja lereagálni, hogy egyre jobban csökken a forgalom. Be kell látni, hogy a számítógépek 95%-ában nincs valódi szükség ilyen erős hardverelemekre, és ha a gyártók ezeket csak drágán tudják majd gyártani, az emberek kevesebben és ritkábban fognak fejleszteni. A másik akadály az egyre nagyobb fogyasztás és egyre növekvő energiaár. Lassítani kell és nem a teljesítmént és a tranzisztorok számát kell növelni, hanem a fogyasztást csökkenteni.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
-
.mf
veterán
"Ez természetesen két év múlva újabb dráguláshoz fog vezetni a GPU-k piacán, már amennyiben a gyártók számolnak majd ezzel a szegmenssel."
Addigra már az APU-k is (sőt, talán az ARM SoC-ek is) megfelelően erősek lesznek a játékok megfelelő minőségű futtatásához, ha a kiadók (játék és os) kegyeskednének időt szánni az optimalizálásra, és nem kéne szénné hajtani a legerősebb kártyákat is olyanokkal, amik 3-4 évvel ezelőtti hardveren is elfutnának optimalizálva -- mint jelenleg...
"Az NVIDIA elnök-vezérigazgatója a jövőt miniatürizáltan látja. Állítása szerint a PC jelentősen összemegy, így a jövő számítógépei akár egy kisebb zsebben is elférnek majd. E termékekben egy SoC rendszer lesz,"
Én is így látom, vagy legalábbis remélem: a hardver már adott (legújabb vagy érkező ARM SoC-ek nyers teljesítményben elég sok általános júzer feladatra elegendőek), már csak a szoftvernek kéne lépést tartani.
Fotóim és kalandjaim a világ körül: https://www.facebook.com/fmartinphoto/
-
Abu85
HÁZIGAZDA
Nem a gyártástechnológia az integrálás gátja, hanem a licenc. Az NV-nek nincs x86, vagy AMD64 licence. Egyszerűen képtelenek x86/AMD64-es processzormagokhoz olyan IGP-t tervezni, amire szükség lenne. Ezért mennek az ARM irányába, mert onnan kapnak licencet.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #24 üzenetére
Csak a Cape Verde, Pitcairn és Tahiti van 28 nm-en. A többit 40 nm-en gyártják. Ide tartozik a ma is gyártott Cedar, Caicos, Turks és Cayman. A Barts és a Juniper gyártása leállt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
attól még igaz amit írtam h szinte az összes most megjelent 28nm-en van, 7750től fölfele és a 7750est nem nevezném túl erős hardvernek :]
a hírben is írtad h volt már hasonló probléma 55 nm-en és még nekem a 40 is rémlik h parás volt a kezdetekben szóval nem olyan nagy újdonság h probléma van ezzel
don't tell me what i can't do!
-
Abu85
HÁZIGAZDA
válasz fatallerror #27 üzenetére
Csak ez a hír nem specifikus problémáról szól, hanem arról, hogy egyre drágább a gyártás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
schwartz
addikt
válasz fatallerror #29 üzenetére
így a jövő számítógépei akár egy kisebb zsebben is elférnek majd. E termékekben egy SoC rendszer lesz, a komoly számítási teljesítményt pedig a számítási felhőből szerzi majd a felhasználó.
Kenje a hajara a szamitasi felhot a zsebben a nyomi kijelzovel egyutt...
If he dies, he dies.
-
Sólyom szava
csendes tag
Intelnek tényleg gyorsan vége lehet ha a mostani pc éra másfele fordul
Azé' Intel mégsem csak a pc-ből él, a szerverekből is rengeteg pénzt vasal be, azon a téren meg még mindig stabilan áll, AMD csak egyes feladatoknál (webkiszolgálás - talán?) rúg labdába, az ARM pedig még mindig méretes lépésekre van a komoly szerver-feladatoktól.
Peace is a lie. There is only Passion.
-
Alchemist
addikt
a komoly számítási teljesítményt pedig a számítási felhőből szerzi majd a felhasználó.
Ezen megint jót nevettünk...
Éppen olvasok egy érdekes könyvet az antigravitációról... képtelen vagyok lerakni.
-
CYBERIA
őstag
Jár a keze, mint a motolla.
APU: AMD, MB: AMG :) A peresztrojka nálunk olyan gyors, hogy már ma jobban élünk, mint holnap! | Tudja Mohnke, a nyugati demokráciák dekadensek. Előbb-utóbb alulmaradnak a szigorúan fogott keleti népekkel szemben. | Volvo och SAAB beundrare. | A vér nem válik vízzé.
-
#56573440
törölt tag
"mivel nem szégyen a konkurensek termékeit gyártani."
nem szégyen a futás de hasznos, jah, de ha még kocogni se kell, mert erősebb vagy akkor hova futkossál? gondolom inteléknél a gyártósorok nem állnak tucatszámra kihasználatlanul, akkor meg minek görcsöljenek bérgyártáson ha sajátot is termelhet és van rá jelenleg kereslet.
ha csökken majd, akkor lehet beszélni arról hogy merre hova, de azt majd az intel is látni fogja vélhetően...a felhős számítós kliensazsebben koncepció meg még odébb van szerintem, ahhoz olyan mobil összeköttetés kéne ami jelenleg nem sok helyen áll rendelkezésre sajnos. aztán a szerver oldalt is fel kéne építeni, és oda kakaó kell, nem hiszem hogy arm alapokra építenék majd a farmokat. az intel max nem a desktop vonalra fogja eladni a termékeit, hanem a felhős szerverekbe jó drágán.
-
raper
senior tag
A SAMSUNG is gyárt alkatrészeket az APPLE-nak, holott konkurensek. Ott nem fintorognak ettől. Én sem foglalkoznék ezzel, ha rendelkeznék megfelelő kapacitással és eszközzel.
-
Dilikutya
félisten
Az APU-k kisebb-nagyobb kompromisszumokkal már most is alkalmasak játékra. Egy 20000Ft-os A6-3500 jelenleg 1280*1024 vagy 1024*768-as felbontáson már a korszerű játékok többségével is elboldogul többnyire high beállítások mellett. Egy A8-3850, ami talán most 35000, már ennél jóval többre képes. 35000-ből teljes értékű CPU és VGA nem rossz. A memória sebességét kéne növelni, mivel a diszkrét kártyák GDDR5 chipjei gyorsabbak sokkal.
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
.mf
veterán
válasz Dilikutya #39 üzenetére
Tudom, hogy a jelenlegiek még csak megfelelő mennyiségű megszorítással és peremfeltétellel alkalmasak -- ld. te is írod a csökkentett felbontást, valamint sejteted a csökkentett beállításokat is. Viszont az érkezőben lévő Trinity már egy jókora előrelépés lesz, alsó-középkategóriás kártyákkal is felveszi a harcot, inkább erre utaltam.
Fotóim és kalandjaim a világ körül: https://www.facebook.com/fmartinphoto/
-
KvPt
tag
válasz Dilikutya #39 üzenetére
Persze, jók ezek az apu-k, csak azt kéne látni szerintem, hogy a különbség a dVGA-ak, és az apu-k igp-je között nem igazán csökken. Pusztán annyi történt, hogy megjelent egy normális graf részleggel rendelkező gyártó, aki tudott a korábbi inteles cuccokhoz képest valami elfogadhatót csinálni, és ettől most mindenki azt hiszi, hogy már mindjárt a dVGA-k szintjén lesznek. Dehát hol vannak ezek az új generációs vga-któl, mit tudnak kezdeni a manapság már alap fullhd-ban, illetve mi lesz, ha majd kijönnek az új generációs motorok? Pont olyan kevesek lesznek, mint mindig is voltak, vagy legalábbis, ahogy te is írod kompromisszumokkal majd elmennek.
Persze, ha majd ez a heterogén programozás, meg a fene tudja még mi megjelenik a gyakorlatban is, akkor lehet majd lesz valami javulás, de egyenlőre ez nem tűnik túl közelinek. -
Dilikutya
félisten
De, épp ez a lényeg, hogy csökkent. A kompromisszum jelen esetben nem azt jelenti, hogy 640*480-ban tudod használni igen alacsony minőségi beállítások mellett. Sok embernek van ráadásul 17-19" TFT-je, itt ugyebár 1280*1024 a natív felbontás, itt pedig ezek az APU-k már kielégítő teljesítményt nyújtanak, egy alsó kategóriás videókártya sem tud többet, ellenben nagyságrendekkel jobb az Nvidia és az Intel korábbi integrált megoldásainál, sőt, az Intel CPU-ba integrált IGP-je most sem ér sokkal többet.
Tisztában vagyok vele, hogy játékos konfigurációkba nem elégséges, és a legújabb játékokat nem fogják HD-ben futtatni maximális grafikán talán sosem, de nagyon jó alternatíva egy olcsó videókártya helyett, úgy tudsz megspórolni 15-20 ezret, hogy ugyanazt a teljesítményt kapod. A 3 magos A6-3500 (nekem ilyen van) pl. 1280*1024-ben maximális grafikán 30 fps fölött is bírja a Dead Island-et pl., ami nincs fél éves sem. Úgyhogy játékra is alkalmas, és még kompromisszumra sem feltétlenül van szükség. Nagyobb felbontáson már nyilván lenne gondja, de 17-19" monitoroknál ez úgysem szempont.Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
FireKeeper
nagyúr
-
KvPt
tag
válasz Dilikutya #43 üzenetére
Alapvetően arra a nézetre reagáltam, hogy néhány év múlva az igp-k már képesek lesznek megfelelő minőségben futtatni az akkori dolgokat.
Én csak azt akarom mondani, hogy szerintem ez nem fog összejönni, mert a grafika ugyanúgy fog fejlődni, mint eddig, sőt talán lesz némi ugrás is a konzol gen váltás miatt, szóval hiába fejlődnek, ha egyszer amit meg kell hajtani az is fejlődik, és azt se látom, hogy miért tudnák gyorsabb ütemben növelni a teljesítményüket, mint a dvga-knak. -
vadcoca
tag
Még jó, hogy ez a drágulás pont akkor kezdődik, amikor a felhőt is egyre jobban erőltetik. Micsoda véletlenek vannak...
6x9 = 42
-
Oliverda
félisten
Érdekes lenne, ha az Intel az NVIDIA-nak és az AMD-nek is bérgyártana, de sajnos ez jó eséllyel sosem fog bekövetkezni, mivel az Intel legnagyobb fegyvere épp a gyártástechnológiában lakozik. Hülyék lennének odaadni a konkurenciának...
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
-
FireKeeper
nagyúr
na és mi van azokkal az eljárásokkal, amik a PCI-e brutális kéleltetése miatt nem is tudz megoldani dVGA+CPU konfigon? pl megatextúrázás.
tetszik vagy sem, a jövő a heerogén chipeké, még ha ezt most nem is látod.steam, GOG, uPlay: @petermadach || HotS: PeterMadach#2675 || Xperia 10 V || Ultrawide & SFF masterrace || Unofficial and unpaid VXE R1 shill
-
Dilikutya
félisten
válasz FireKeeper #49 üzenetére
Igen, itt van az APU vitathatatlan előnye, egy buszon csücsül a videó a processzorral, ez azért sokat jelent. Ezért került a memóriavezérlő is a CPU-ba már korábban.
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
KvPt
tag
válasz FireKeeper #49 üzenetére
Jó csak ez az egész átállás marhára bizonytalannak tűnik, mert, ha az igp-ket részesítik előnyben a pci-e késleltetése miatt, akkor elég sokan megszívják majd a jelenglegi kártyákkal, ilyet meg ritkán vállanak be fejlesztők, szóval szerintem ez a folyamat elég lassú lesz.
-
FireKeeper
nagyúr
nézd meg a grafikus piac hány százalékát teszik ki a diszkrét kártyák. vagy hogy mennyire csökkent a bevétel a vga piacon az elmúlt években.
steam, GOG, uPlay: @petermadach || HotS: PeterMadach#2675 || Xperia 10 V || Ultrawide & SFF masterrace || Unofficial and unpaid VXE R1 shill
-
Male
nagyúr
válasz Dilikutya #50 üzenetére
Hátránya pedig az igen gyér mem sávszél... most a költözéssel van nagy ugrás, és egy ideig tudnak is gyorsan fejlődni még, de nem sokáig. Onnantól a sávszélesség visszafogja őket egyre durvábban, és ez viszont csak lassan fog nőni. Nézz meg egy jelenlegi csúcs VGA-t, hogy mekkora sávszélességgel gazdálkodik egyedül... a jelenlegi 2x64 bitről nehéz feljebb lépni (pontosabban rohadt drága, lásd SB-E alaplapok), az órajel emelésével meg... 7970: 384bit 5.5GHz... ha ezt 2x64 biten hozni akarod, akkor 16.5GHz-en kéne mennie a memóriáknak...
-
schwartz
addikt
válasz FireKeeper #49 üzenetére
Brutalis kesleltetes? Meg nem lehet megoldani a megatexturazast? Talan elso perctol jobban ra kellett volna fekudni az id-nel a PC-s kodra s most nem lenne mirol beszelni...
[ Szerkesztve ]
If he dies, he dies.
-
Abu85
HÁZIGAZDA
Így is szarrá van optimalizálva a kód. Egyszerűen ott keletkezik a probléma, hogy a kikódolt textúraadatok 1 TB-ot foglalnak. Ahhoz, hogy ez felkerüljön két korongra 12 GB-ra van tömörítve. Na most ez a formátum nem értelmezhető a GPU-k számára, vagyis a megatextúra szeleteit a processzornak át kell konvertálnia a GPU számára is értelmezhető formátumra. Ezek az adatok bekerülnek a rendszermemóriába és a GPU pedig elsétál értük. Itt látható, hogy a PCI Express oldalán kapja a rendszer a büntit, na meg persze nagyon gyors többmagos processzor kell. Érdemes 4 magossal nekimenni, mert annyi szükséges a gyors kikódoláshoz, és így még a többi feladatra is marad erőforrás.
A Carmack megatextúrázásának másik problémája az AF hiánya. Sajnos szeleteken szoftveres shader alapú megoldást kell futtatni. Ezért megy csak az anizó 4x-ig a motorban, mert annyira írta meg Carmack. Mivel ezt a shaderek számolják, így a 16x eléggé erőforrás-igényes lenne. A driverből nyilván hardveres AF nem lehetséges. Ez persze minden szoftveres implementáció esetében igaz a virtuális textúrázásra. Ez nem Carmack hibája. Már mondta is, hogy a Doom 4 itt jobb lesz, mert az a játék az AMD PRT-jét használja megatextúrázáshoz, ami támogatja a hardveres AF-et is.
Sok még a megoldandó kérdés a megatextúrázásnál. Az AMD PRT-je sem jelent mindenre megoldást. Például a PCI Express busz késleltetése itt is probléma. A hardveres menedzsment miatt előnyösebb a helyzet, de a késleltetés fizikailag ott marad.(#56) FireKeeper: Nagyjából így van. Carmack mikor ezt elkezdte fejleszteni, akkor úgy gondolta, hogy 2011 környékére eltűnnek a dGPU-k. Sweeney is nyilatkozott már sokszor hasonlót. 2000-ben például azt állította, hogy 2008-ra nem lesz szükség VGA-ra. Nem egyedi meglátások ezek. Alapvetően nem is tévednek, csak az időpontot lövik be rosszul. A nagy koponyák mindig próbálnak nagyot alkotni. Carmacknek ez most sikerült, csak túl hamar tette le az asztalra. De nem kérdés, hogy az öreg jól látja a jövő játékfejlesztési problémáit. Sweeney-nek sem voltak annyira jó évei. Ő beleszeretett a Larrabee-be. Talán még ma is siratja. Gondolom fejlesztett is rá, amit még jobban sirat, mert annak egyelőre lőttek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
schwartz
addikt
Erdekes, mikor eloszor demozta az engine-t meg nem volt szo kesleltetesbol adodo gondokrol. Ha amugy is csak ns-okrol beszelunk ugy mit szamit, hogy 10x nagyobb a kesleltetes, addig mig az APU-k teljesitmenye mashol mindenben alul marad a dedikalt megoldasokhoz viszonyitva. Ha lesz pl. quad channel 6Ghz DDR5 egyseges rendszer memoria es egy GK104-hez hasonlo teljesitmeny a grafikai oldalon akkor majd elhiszem, hogy nem csak bohockodnak az APU-kal.
Carmack-re visszaterve: 2008-ban ugy nyilatkozott, hogy mar majdnem tokeletes a motor csak az animacion es a megatexturazason kell polirozni egy keveset...If he dies, he dies.
-
Abu85
HÁZIGAZDA
Gondolom 2007-ben még úgy gondolta, hogy minden frankó lesz a megjelenésre az integrálással. Hát rosszul gondolta.
A késleltetés nem 10x nagyobb, hanem nagyjából 200-300x.
A GPU nyers számítási teljesítménye a Rage esetében nem nagy kunszt. Gyakorlatilag egy 20k-s VGA-n is elfut maxon, ha raksz alá egy kellően erős procit és egy gyors rendszermemóriát.
Nyilvánvalóan túlzott, hogy keveset kell polírozni rajta. Eleve 10000x tovább tart egy pixel update a PC-n, mint a konzolon. Ez a Rage nagy problémája. A PCPer-nek nyilatkozta Carmack, hogy az AMD csinált egy algoritmust, amivel 50 pixel update megy le egyszerre PC-n. Ezek párhuzamosan már használható eredményt adnak, így PC-n nem kellett a grafikát butítani. [link] - itt elolvashatod.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Van a CUDA-ra egy ilyen megoldás, de lassú és elveszi az erőforrást a grafika számításától. Egy GF110-es GPU-ra épülő kártya olyan gyorsan kódolja ki az adatokat, mint egy 4 magos Sandy, vagy 4 modulos (8 magos) Bulldozer. És ehhez elhasználja az összes shader egységet. Ha még grafikát is számol, akkor már lassabb a kitömörítés, mint ha egy erős CPU-val csinálnád. Emellett sajnos az alapproblémát nem oldja meg a GPU-s modell, mert az adatok a rendszermemóriába lesznek visszaírva. Szóval csak annyi történt, hogy elvetted a grafika elől a számítási kapacitást. Kétmagos prociknál persze előnyös a dolog, de négymagos (vagy hat-nyolcmagos) procik esetében már nem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem a VRAM-tól függ, a rendszermemóriába lesz visszaírva az adat. A program nem engedélyezi az opciót a kisebb GeForce-okra, mert úgyis csak lassítana. Elméletben minden CUDA-kompatibilis GeForce tudná, csak ha lassít, akkor nincs értelme. Ez egy logikus limitáció.
Ez az egész akkor előnyös, ha kétmagos procit kap a Rage (és ezt mondjuk egy GeForce GTX 570 mellett lehet ellensúlyozni). Esetleg a hárommagosok is ide sorolhatók, azok annyira nem gyorsak. Egyébként hátrányos.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Elképzelhető, hogy egyes GPU-kra engedélyezve van, amelyek esetében a VRAM lehet korlátozó. A feldolgozás alatt álló adatokat természetesen el kell tárolni a VRAM-ban, de nem ez a rendszer működésének legfőbb gátja.
Nagyjából így működik ez a megatextúrázás:Ez most az AMD PRT rajza, ami Sean Barrett megoldására épül. De a lényeget mutatja. Van az egész textúra, és az szeletekre bomlik. A PRT 64 kB-os szeletekkel dolgozik, de a Rage például 32 kB-ossal. Ezért nem tud Carmack erre implementációt. Na de ez mellékes. Látható, hogy a page table-be bekerül az adat (pontosabban csak a címe) és onnan a VRAM-ba. Na most erről a CPU-nak kell lennie egy képnek, így ezért szükséges az információkat a rendszermemóriában tárolni. Azokat aztán a GPU VRAM-ja megkapja, ha az adott szeletre szükség van a játékos pozíciójától függően. Ez a szoftveres implementációja a megatextúrázásnak. Az mindegy, hogy a textúrákat hol kódolod ki, de az már nem, hogy az információt hol tárolod. Ebből a szempontból a GTX 295-tel nem buksz semmit. Ha van legalább négymagos procid, akkor előnyösebb azon számolni. A PRT a menedzsment szempontjából különbözik. Ez jelenti lényegében a hardveres implementációt (néhány egyéb extra mellett ... egyszerűbb mipmap kezelés és teljes értékű textúraszűrés) a GCN architektúrában.
Eléggé bonyolult rendszer ez szoftveres implementáció szintjén. Nem csoda, hogy PC-n nem működik tökéletesen. Ez még a PS3-ra is elmondható, bár ott jobb. Az látszik, hogy Xbox 360-on a legjobb..
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
zka67
őstag
Én nem gondolnám, hogy az asztali PC-knek vége lenne. Attól, hogy a sok idióta megveszi az okostelefonokat, még nem kell temetni a PC-t. Egyrészt jóval olcsóbb és jóval nagyobb teljesítményre képes, másrészt pedig ott vannak a vállalatok, hivatalok. Azt meg azért megnézném, amikor Mancika, a könyvelő egy telefonon vagy egy tableten könyvel, azt meg különösen megnézném, amikor egy cég egy külső, felhő alapú szolgáltatásra bízza az egész rendszerét. Ez az okostelefon-tablet-mobilnet mizéria is hamar le fog csengeni, amikor már nem lesz kinek dicsekedni velük. Én pl. a notebook-oknak sem vagyon a híve. Mert egyrészt kurva drágák, cserébe lassúak, zúgnak, kicsi a képernyőjük és többnyire elromlanak. Ha pedig elromlik és nem garis, egyszerűen nem éri meg megjavíttatni. Ebből következően nem csak a gépet kell kidobni, hanem a monitor, billentyűzetet és mindent, míg egy PC-nél valószínűleg meg lehetne úszni a javítást pár darab ezresből.
-
Male
nagyúr
Hm... szóval nem nagyon éri meg (teljesítményt nem nagyon néztem, hogy mire képesek a GPU-k ebben).
Ott viszont már hatékony lehet ez, ahol a videó dekóder rész nem a shadereket használja. Az játék közben úgyis csak pihenne, ellenben a textúrák tömörítésére jó az, amivel videót/képet tömörítenek, így a kitömörítéshez használható a videós rész. -
LordX
veterán
Semmi gond nincs a okostelefon-tablet-mobilinternettel, csak épp a csúcson vannak a Hype-cycle-ben.
-
Abu85
HÁZIGAZDA
A dedikált dekódolók nem jók erre. DXT formátumú adatokat kell kreálni, mert azt eszi meg a GPU. De már a bemenetként szolgáló JPEG-et sem eszik meg. Csak általános számolókkal lehet dolgozni.
Azt érdemes még mérlegelni, hogy a procikban az IGP részt erre fel lehet használni. De kérdés, hogy erre a számításra a VLIW4/5 (vagy akár az Ivy-k HD Graphics része) mennyire hatékony. Nem vagyok benne biztos, hogy gyorsabb lenne a procimagoknál. A GCN az jelentősen gyorsabb lenne, az az architektúra a Larrabee-re hajaz, vagyis ilyen feladatokra készült. Ott megéri áttenni IGP-re a számítást, de ilyen IGP meg még nincs.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
zka67
őstag
-
Male
nagyúr
Várjál, nem arra gondolok, hogy pl h.264-el tömöríted, vagy JPEG-be mert abból persze hogy nem lesz megfelelő formátum, hanem a DXT-t betömöríted a videóknál is használt CABAC-al pl. (bár nem tudom, hogy a DXT formátum mivel tömöríthető hatékonyan, hiszen az már eleve tömörített)
Hm, igen, mehetne az IGP-n, de akkor csak a proci terhelést csökkented, a PCIe-n ugyan úgy át kell tolni a kitömörített textúrákat állandóan, így ezen a ponton semmit sem nyersz a procis verzióhoz képest.
-
Abu85
HÁZIGAZDA
JPEG-ből kell DXT3-ba kódolni a Rage esetében. Ezt a dedikált kódolók nem támogatják. Azok DXT1-be tudnak kódolni, de az nem jó.
A PCI Expressen a dGPU-val való átkódolás során is át kell nyomni a textúrákat. Mint írtam az adatot vissza kell írni a rendszermemóriába. Ez sem segít a procis kódhoz képest. Ezért írtam, hogy csak akkor van értelme, ha nincs meg a procierő a rendszerben. Ezért jobb opció az IGP, mert ezzel viszont a dGPU-t a számítások szempontjából felszabadítod, s emellett a procit is. Egyelőre a szoftveres implementálása a megatextúrázásnak eléggé nehézkes. A hardveres implementációk felé kell haladni, ezt Carmack meg is lépte azzal, hogy jelezte a Twitteren, hogy a Doom 4-et a PRT-re építi.
Később ez még jobb lesz az NV és az AMD platformterveivel (akkorra talán lesz egy szabványosan elfogadott hardveres implementáció is erre). Mindkét cég APU-ra építi a rendszereket, és a dGPU-k az APU-k kiegészítései lesznek. A VRAM szimplán egy gyorsítótárként szolgál. Persze ennek a hátránya, hogy a GeForce csak NV, míg a Radeon csak AMD APU-val fog így működni. Ettől függetlenül az a tudás, amit így kap a teljes rendszer megéri.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Male
nagyúr
válasz FireKeeper #73 üzenetére
Igen, ezért írtam, hogy "csak a proci terhelést csökkented"
Abu85: A JPEG a Rage esetén adott, de nem az adott játékról írtam, hanem általánosságban. Persze, ha dekódolva vissza kell küldeni, és ott meg a proci feldolgozza a megfelelő formátumba, akkor az egész nem sokat ér, könnyen lehet többet bukni vele, mint amennyit nyersz. Akkor lenne ez előnyös, (és ezt a megoldást hoztam fel,) ha a tömörített verziót kapja meg a dGPU, azt kitömöríti, megfelelő formátumba hozza... lehetőleg ezt nem a shaderekkel, hanem pl a videós résszel, és onnantól azzal dolgozik (bár talán az egésznél egyszerűbb lenne, ha megennék a JPEG-et mint textúra formátumot a GPU-k).
-
Abu85
HÁZIGAZDA
Értem. Általánosságban attól függ, hogy mennyire gyorsan kódol a dedikált hardver. Ha most ezek korlátozott tudását nem számítjuk.
Az lenne valóban a legegyszerűbb, ha eleve megenné a textúrát. Bár nem feltétlen a JPEG kellene, annak vannak kellemetlen mellékhatásai. De egy jóval jobb textúratömörítési formátum már tényleg elkélne.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Male
nagyúr
Hm, hát igen.
Jah, a JPEG azért elég durva hibákat tud csinálni, persze erősen beállítás függő... viszont előny a blokkokra osztás (gondolom megatextúrához ez jól jön), és nincs sokkal hatékonyabb módszer összetett képek tömörítéséhez. (Hm, ráadásul az "alacsonyabb felbontású/minőségű" verzió is könnyen kinyerhető pl távoli textúrákhoz.)
-
Entryy
aktív tag
Azért ezek a grafikonok úgy vannak megszerkesztve, hogy még a végén megsajnáljuk őket...
A wafferek árazását mutató graf y tengelye nincs skálázva. Itt azonban nem szabad elfelejteni, hogy hiába lesz sokkal drágább 1 db 14nm es csíkszélességhez alkalmazható wafer, sokkal több tranzisztos( chip) is jön ki belöle!
Véleményem szerint ez csak magyarázkodás, hogy benyeljük az alkövetkezendő 800-1000$ os VGAkat és egyéb dráguló cumókat.
Mondjuk ha a kihozatali arány szar, akkor tényleg csökkenhet a profitjuk, ami viszont talán nekünk vásárlóknak jöhet jól, ha felhagynak ezzel az értelmetlen fejlesztési ütemmel és inkább rágyúrnak az optimalizációra.
http://www.adrenalinbase.com/index.php?L=fr&T=videos# -- The need4speed " The art of flight "
Új hozzászólás Aktív témák
- GIGABYTE RTX 3060TI GAMING OC 8G
- Asus TUF FA507 - 15.6" IPS 144Hz / Ryzen 7 6800H / 16Gb DDR5 4800MHz / RTX 3050 Ti / 1 ÉV GARANCIA
- NVIDIA Dell RTX 2080 Ti 11GB GDDR6 - Beszámítás: OK
- AKCIÓ, BOLTI ÁR ALATT! tado BASIC Okos Radiátor Termosztát 3db-os
- AKCIÓ, BOLTI ÁR ALATT! Xiaomi HUTT C6 ablaktisztító robot
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen