Hirdetés

Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz rocket #4081 üzenetére

    Nem tudom, hogy játszottál-e a bétával, de a Crysis 2 azok szerint, akik játszottak csalódás. Főleg azért mert 4-5 óra alatt ki lehet tolni és vége.
    Persze én nem akarok előre ítélkezni, így javaslom várjuk meg a véglegest az ítélettel. Amit viszont fenntartok, az az, hogy a játék címe nem garantálja a minőséget. Erre már több tucat példát láttunk a történelemben.
    Az pedig jelenleg tény, hogy ha a Metacritic 70%-os minőségi határát vesszük alapul, akkor egyedül a Metro 2033 üti meg az NV-nél ezt a szintet a megjelent TWIMTBP játékok közül, miközben az AMD Gaming Evolved programjain belül hét játék is 70% fölött teljesít. Ezek után én nem értem azt, hogy az AMD miért ne dolgozna minőségi címekkel?

    Ehhez még hozzá lehet venni, hogy a Metro 2033 rendelkezik arányaiban a legnagyobb gépigénnyel, vagyis a többség számára semmit sem ér a DX11 benne. Mi is butítjuk a grafikát, hogy értékelhető FPS-t kapjunk 1680x1050-ben. és mindezt csúcskártyákkal. Ha feltennénk mindent maxra, akkor azt néznénk, hogy a HD 6970 és a GTX 580 küzd a leggyorsabb címer mindezt 10-15 fps sebességgel. Ennek szerintem nem sok értelme van. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #4084 üzenetére

    Az igazából szerintem nem baj, ha sokat vár a Crysis 2-től. Ami érthetetlen számomra, hogy miért az a cég végez rosszabb munkát, aki már hét darab DX11-es minőségi játékot tett le az asztalra, szemben a konkurencia egy DX11-es minőségi játékával. :F

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #4100 üzenetére

    Nem driveres megoldást fognak alkalmazni az OEM-ek. A BIOS-ban is beállítható a PowerTune limit, és le is zárható (pl.: A HD 6900-akon le is van zárva OEM szinten, bár ott az érték default 0%-on maradt). Gyakorlatilag arról van szó, hogy az ATI letett egy fogyasztási határt 300 és 450 watt között. Innentől kezdve a kártya fogyasztását az ügyfél választja meg. Az OEM-ek lezárják a legkisebb értékre, míg a retail kártyákon mehet a dolog +/- irányba is, ahogy a usernek jól esik. Erről írtam korábban a HD 6990 extráinál, hogy a PowerTune lesz a termék kulcstechnológiája, persze az ATI ezt jobban értékesítette, mint gondoltam. Nagymértékben konfigurálhatóvá vált az egész, anélkül, hogy alapjaiban át kellene tervezni a NYÁK-ot, és a legtakarékosabb PowerTune értéken megfelel a szabványnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #4102 üzenetére

    Majd megnézzük a teszteket. Egyelőre nem panaszkodik erre senki a HD 6900-nál.
    Ami a legfontosabb, hogy a PowerTune lehetőséget ad a szabvány betartására, vagyis eladható a termék az OEM csatornákon. Mindemellett azok igénye is ki van elégítve, akik agyon akarják tuningolni a terméket. Csak egy csúszkát kell áthúzni a másik oldalra, és máris mehet a tuning.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #4104 üzenetére

    Az nem jó, mert az nem állandó vezérlés. Ha az órajelet fixre korlátozod, akkor az nem állandó fogyasztást jelent, és előfordulhat, hogy a termék fix órajel mellett ingadozik a fogyasztásban. A cél 300 watt alá menni, nem pedig jelentősen 300 watt alá menni. Akkor is szabványos a kártya, ha a fogyasztás a teszt alatt 290 és 300 watt között alakul. A PowerTune azt éri el, hogy a fogyasztás legyen egy állandó határértékhez kötve (legyen az bármi), és úgy állítja be az órajelet, hogy a termék ne fogyasszon többet, miközben mindig a maximális teljesítményt nyújtja. Így hozható ki a legmagasabb teljesítmény egy adott fogyasztási határ alatt.

    Természetesen az NV is csinálhat valamit, hogy 300 watt alá vigye a saját termékét. Ez nincs megtiltva. Van a GeForce GTX 580-on egy power monitor. Ebben beállítható egy határ. Ha a GPU energiafelhasználása ezt túllépi, akkor a vezérlő kiadhat egy pihen parancsot. Ezután a GPU nem dolgozik tovább, amíg nem érkezik a tovább parancs.

    Gyakorlatilag a cél ugyanaz. A megvalósítás különbözik. Az NV rendszere nem állít órajelet, de leállíthatja a munkafolyamatot. Az AMD rendszere olyan, mint a CPU-kban a turbo, csak nem pozitív, hanem negatív órajelezéssel. Nem pihenőt ad, hanem megmondja, hogy állítsd lejjebb az órajelet, és dolgozz tovább.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #4106 üzenetére

    Ha az órajel csökken 200 MHz-et, akkor az egy 16 ms alatt kiszámolt képkockákra 3 ms-os változást jelent. Ahhoz hogy recegés legyen 30-40 ms szükséges, vagyis konkrétan 30-50 MHz-re kell csökkenteni az órajelet. A Cayman 3D módban (a magas feszültség mellett) nem képes 500 MHz alatt üzemelni, így erre semmi esély. Egyelőre nem számoltak be a nagyobb hardver oldalak zavaró recegésről a HD 6900 kapcsán. Meglátjuk mi lesz a HD 6990 esetében. Bár gyanítom ott sem fognak észrevenni 3-4 ms-os változást, hiszen ez túlmegy az emberi teljesítőképesség határán, nem legyek vagyunk ugye. :D 30 ms-ot talán, de az lehetetlen PowerTune által.

    A kapcsoló azért nem jó, mert az OEM is megnézi az alternatívákat. Rendel ebből, és vélhetőleg az NV kártyájából is. Az az egyik szempont, hogy férjen be 300 watt alá, a másik, hogy legyen gyors. Az lesz a kiválasztott, amelyik gyorsabb 300 watton belül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #4107 üzenetére

    A PCI-SIG-nek van egy terhelésvizsgálata. Ez több egyénileg kalibrált tesztből áll. Ezekben a tesztekben a kártya nem lépheti át huzamosabb időre a 300 wattos határt. Pontosan nem tudom, hogy mennyi a megengedett, asszem pár ms-ig átlépheti pár wattal. Az eredményeket kiértékelik, és a végén megy vagy nem megy a PCI Express pecsét.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #4111 üzenetére

    Egyrészt egy olyan egyén kellene, akinek az agya képes lereagálni 3 ms-os különbséget 60 fps mellett. Szerintem ilyen nincs a világon, így az egész vita értelmét veszti.
    Ne keverjük ide a netes lagot. Ott 100-150 ms-okról van szó, itt maximum 3-5 ms-ról. Nyilvánvaló időbeli különbség van a kettő között. :)
    A tudomány jelenlegi állása szerint az emberi agy 30-40 ms-os késést észrevesz, de kevesebbet nem. Egyszerűen biológiailag nem vagyunk rá képesek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #4111 üzenetére

    A PowerTune limit stabilitási határok között mozog. Lehetne +/-50% is, de úgy nem stabil a HD 6970 esetében, vagyis a rendszer kifagy. A HD 6990 értéke is egy stabil határon belül lesz alkalmazva. Szerintem marad a +/-20%.
    Az AMD tudja, hogy miben tesztelik a kártyát. A PCI-SIG tesztek elérhetőek a cégeknek, hiszen ezekre készítik fel a termékeket. A PCI-SIG nem azért van, hogy kibasszon az AMD-vel és z NV-vel, hanem, hogy mindketten szabványos terméket tegyenek le az asztalra. Innentől kezdve annyit segítenek, amennyit tudnak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #4114 üzenetére

    Lényegében a legtöbb film 23,976 fps. Senki sem panaszkodik, hogy akad. A játék az más, mert ott nem fix az érték, de ha nincs a program 30 fps alatt, és megy a double vsync, akkor nem panaszkodik senki. A legtöbb xbox360 és PS3 játék ilyen. Fixre be vannak lőve 30 fpsre, és van teljes szinkron. Ez gyakorlatilag azt jelenti, hogy a képkockák között fixen 33,3 ms telik el. Milliók játszanak így panasz nélkül. És mi most 3-5 ms-os különbségekről beszélünk, azt egy légy se érzékeli, pedig nekik sokkal kifinomultabb a látás feldolgozása, az emberhez képest. :D

    Szerintem a HD 6990-nél úgy lesz megoldva a hitelesítés, hogy egy PowerTune beállításhoz kapja meg a pecsétet. Innentől kezdve ezt leközlik az OEM gyártóknak és oda állítják a limitet ahova akarják. A BIOS-ban ez teljesen konfigurálható és lezárható. Lényegében ez a legegyszerűbb forma. Itt a kártya és konfiguráld ízlésed szerint.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #4116 üzenetére

    Néztem, de 30 fps nem jött át. Biztos szokható, de világ életemben a 24-25 fps-sel néztem, így nekem szar élmény volt. Na de majd egyszer USA-ba költözök, és ott kötelező az átállás. :DDD

    A GRiD az sajna multiplatform. Nézz inkább GoW 3-at. Az is 30 fps, de azt jól tartja. Mondjuk nem meglepő, mert PS3-ra fejlesztették.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Med1on #4134 üzenetére

    Mocsok dolog ám lelőni a poént. :( El is ment a kedvem a hír befejezésétől. :W ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #4177 üzenetére

    Az utolsó mondat a legjobb a hírben. A dőlt bekezdés. :P

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz csatahajós #4306 üzenetére

    HD 7950 ... brutal bullshit. A 30 nem osztható 4-gyel. :D
    XDR2 felesleges. Drága és van még tartalék a GDDR5-ben.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4317 üzenetére

    Mert a skalár egységet közös gyorsítótárat használnak 4 CU-nként. Le lehet tiltani kettő CU-t a négyből, mert asszimetrikus is lehet a rendszer, de ez nem a legjobb az integer ALU teljesítményére.

    Az XDR2 pedig az árát fogja szépen megnövelni a wide-IO kialakítás miatt. Inkább 7 GHz effektív GDDR5-re tippelek. Más eléggé necces, mert az XDR2 bármennyire gyors, nem kevés pénzbe kerül. Az igaz, hogy fogyasztásban az XDR2 előnyösebb.

    ---

    A másik dolog a fake alertre, hogy a Thames az nem sziget :D. Az egy mobil GPU (Londonból kiindulva). Az asztalon New Zealand (2x az egyik GPU), Tahiti, Cape Verde, Pitcairn és Lombok lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz korcsi #4324 üzenetére

    Az AMD-nek évek óta állandó licencszerződése van a rambusszal minden technológiájukra. Ez a része a dolognak nem ütközik problémába. A rambus csak azokkal a vállalatokkal bánik kesztyűs kézzel, amelyek ki akarnak bújni a licenc fizetése alól, akik fizetnek, azokkal "mosolyszerződés" van. :)

    (#4322) gbors: 384 bites buszt az AMD nem akar szerintem semmilyen szinten nem akar. Inkább legyen nagyobb a chipméret, mert az összességében olcsóbb, mint a tokozási és a NYÁK költségek drágulása a +128 bitből. Mondjuk én az XDR2-t eleve nem tartom logikusnak, de elképzelhető persze. Egy GPU-nál a hátrányai nem jönnek ki.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Robi BALBOA #4327 üzenetére

    Ugyanaz, mint egy GPU-nál. Amit írtam azt úgy kell érteni, hogy a GPU típusú, vagyis throughput optimized processzornál lényegtelen az, hogy az XDR2-nek nagyobb a késleltetése, mind a GDDR5-nek.
    Az XDR2 előnye, hogy a GDDR5-höz képest kevesebbet fogyaszt, mert a bázisórajel alacsony, de magasabb késleltetése, ami persze egy GPU-nál nem számít. A nagy hátrány, hogy drágább, mind a chip maga, mint pedig a tokozás több csatija miatt az implementálás.

    (#4331) gbors: A 256+ bitet nagyon érdemes kerülni. Nem a mérnöki teljesítmény a probléma, mert 512 bitet is összehoznak, vagy többet is ha kell, de a VGA-piac bevétele drasztikusan csökken (idén a JPR 33%-os mínuszt vár, ami az elmúlt évekhez képest óriási). Az új fejlesztéseknél alapvető elvárás, hogy a mindenhol ahol lehet spórolni lehessen. Ez már nem a nyereség növeléséről szól, hanem a piac fenntartásáról. Egyébként 256 bit mellett is lehet 64 blendinget csinálni. Így is két blokk van egy csatornán, semeddig sem tart négyet rakni rá.
    A fő probléma persze nem itt van. Nézd meg Carmack megatextúrázását. Kurva nagy ötlet, de közben tiszta szopás az egész, mert a dedikált GPU-k nem kezelik az x86 virtuális memóriát. Egyszerűen el kell vándorolni az adatért a rendszermemóriához, és a proci segítségét kell kérni, hogy az meglegyen, majd az információkkal vissza kell térni. Szimplán a PCI Express erre nem alkalmas. Nem az információk mennyiségével van a baj, mert azt simán átviszi egy 4-8 GB/s-os link, de teljes a késleltetés (szoftveres és hardveres oldalról együtt), ami ezzel a procedurális jár, kivégzi a teljesítményt. Carmack szerint a direkt eléréshez képest több 10000-szer lassabb a texture update folyamata, egy pixel frissítésénél. Ez így low, szart sem ér az egész. Nem véletlenül tartja úgy, hogy a Sandy Bridge kamu-IGP-jét is ki lehetne hozni gyorsabbnak. Direkt programozással simán 10000-szer gyorsabb frissítést csinálhat, mert kizárja a szoftveres korlátokat, és a rendszermemória is közvetlenül elérhető, ami kizárja a PCI Express fizikailag kivédhetetlen késleltetését.
    Erre a problémára egyébként az AMD kitalálta a PRT-t, ami az új architektúrában benne is lesz, de a PCI Express késleltetését ez sem zárja ki, csupán közvetlenül eléri az x86 virtuális memóriát. Ezzel a proci kizárható a texture updateből, ami biztos gyorsulást hoz, de a konzolos direkt programozással elérhető szinttől még mindig messze van. Aminek ez a PRT nagyon, de tényleg nagyon fog segíteni, azok a GCN-es IGP-vel rendelkező Fusion APU-k. És akkor egyre inkább arra megyünk, hogy a IGP teljesítménye túró az erős dGPU-hoz képest, de mégis ott van a rendszermemória mellett, és ez a megatextúrázásnál durva előny egy PRT-vel megspékelve. A texture update késleltetése töredék időt igényel. A direkt programozástól ez is gyengébb, de az időigény már nem 100-szoros, 1000-szeres, vagy 10000-szeres.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4354 üzenetére

    Mert a ROP nincs ingyen a tranzisztorszámban, és a fogyasztásban sem. Egy dolgot kell nagyon észrevenni. A 300 dollár fölötti termékek eladása a teljes VGA-piacon 2% alatt van. Ide nem kell két terméknél több. Ha több van az nem jó, mert a 2% az nem sok. Kell egy 400 dollár alá, és egy 600 dolláros. Ez az ideális felállás. A költséghatékonyság sokkal fontosabb a piac jelenlegi viszonyát tekintve. Nem mellesleg a Cayman esetében kettőt kellett benyomni 300 watt alá. Ehhez használni kellett a PowerTune-t, de -20%-on ez sikerült. 64 blendinggel ez nem ment volna.

    A texture streaminget ne felejtsd el. Az nem olyan terhelő, mint a megatexture, de rengeteg motorban ott van. Szintén kell a proci hozzá, és eléggé problémás dGPU-val. Persze nélküle még problémásabb lenne, de ezen is lehetne csavarni. A PRT ide is jó, persze itt megint a Fusion nyeri a legtöbbet a rendszermemória közvetlen elérése miatt. Ugyanakkor a dGPU-kon is segít, ha teljesen hardveres lenne a texture streaming.
    Ezeknek egyébként a legnagyobb hátráltató tényezője, hogy az AMD támogathatja az x86 virtuális memóriát, míg az NVIDIA a licenc hiányában nem. Megoldják persze a támogatást I/O virtualizációval, csak ez már annyit jelent, hogy a nem egy, hanem két algoritmus kell. Aztán az NV-hez olyan platform is kell, ami IOMMU, vagy VT-d kompatibilis.
    Én úgy gondolom, hogy ha valamit is akarunk még a PC-vel, akkor ki kell gyilkolni az API korlátjait. Össze kellene fogni a gyártóknak, és létrehozni egy közös architektúrát, ami a kritikus helyeken megegyezően működik, azaz natívan programozható. Ha ez nem történik meg, akkor szegmentált lesz a PC-s játékpiac. Esetleg ez akkor kerülhető el, ha az összes konzolba egy gyártótól kerülne GPU, de akkor sem lennénk kisegítve, mert akkor meg verseny nem lenne.
    Én az összefogásra és a közös alapokra szavazok, legalább a kritikus részeket tekintve.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4356 üzenetére

    Nem feltétlenül lett volna 25%-kal gyorsabb. Az AMD-től már hallottam, hogy a Cayman a dispatch részen gyenge, ezt a motort egy az egyben a Bartstól kapta meg, csak az már nem elég jó. A 64 ROP-ból jó ha 10%-ot nyernek. Többre nincs lehetőség. Ráadásul a rendszer is asszimetrikus lenne, mert a setup motor nem képes 32 pixelnél többre. Az extrákkal pedig szimplán kivitelezhetetlen lett volna a HD 6990. Vissza kellett volna venni az órajelet, és akkor a GTX 590 elverte volna, bár ez nem biztos, de sanszos lenne. Most viszont a HD 6990 a leggyorsabb rendszer. Tudják azok a mérnökök, hogy mit csinálnak, hiszen mind az asztali, mind pedig a mobil piacon egy Radeon a leggyorsabb.

    Ez a fúzió következő nagy állomása. Az AMD három lépcsőre osztja az egészet. Az elsőt már ismerjük a Llanoval. Egy CPU és egy GPU egy lapkában, egy nagyon alacsony késleltetésű, és gyors busszal összekötve (Onion busz). Ez valószínűleg azért alakult így, mert az aktuális programokat CPU+VGA feldolgozásra írják, és nem lenne célszerű ennél többet csinálni. A Sandy Bridge erre jó példa, mert az Intel ennél továbbment azzal, hogy az IGP ír az L3-ba, de az inkább cache-szemetelés, mint jól kezelt fícsőr, amire az AMD gyártja is az összehasonlító videókat. [link] - Ez az egyik, de mindegyikben ugyanazt a koncepciós hibát használják fel, vagyis azt, hogy a Sandy Bridge IGP-je következmény nélkül piszkíthat 1,5 (HD Graphics 2000) vagy 3 (HD Graphics 3000) MB-ot az L3-ba, ezzel a procikat cache-missbe taszítja, és mehetnek a rendszermemóriához az adatért. Az egész azért súlyos, mert az adatok L3-ba való újratöltése után semmi sem garantálja, hogy a következő órajelben már nem barmol oda az IGP. Az egész egy konkrétan futtatott programnál kezelhető, mert az Intel a grafikus driverben szépen profilozza be a játékokat, és kapcsolgatja ki az IGP L3 írási funkcióját, ahol ez gond, de több program mellett ez nem kezelhető ilyen simán. Elég egy olyan program, ahol az IGP írhat az L3-ba, és már érezhetően megbomlik az egész rendszer hatékony működése. Az AMD a videóban a "biztonság kedvéért" (;]) két 3D-s programot is bevetett, hogy az IGP 6 MB-os területet barmoljon szét az L3-ban, ez konkrétan ugye az aktuális proci teljes kapacitása, így nem csoda, hogy a rendszer ennyire meghalt. Ha most csinálnák meg ugyanezt, akkor már kisebb lenne a hatás, mert az Intel már tiltja az L3 írás arra a Final Fantasy benchmarkra, így a videó elején mutatott másodperces akadások is megszűntek. Persze a sebesség kisebb, de a futás úgymond egyenletes. Ilyet még az NV rendezvényén láttam a Dead Rising alatt, amikor Igor játszott rajta, és az klotyóajtó 3 másodperc múlva nyílt ki, addig teljesen lemerevedett a kép. Azóta (áprilisi driver) ebben a játékban is tiltva van az L3 írás, így nincsenek akadások, csak folyamatosan 20 alatt az fps. Jó amúgy ez az írós koncepció, mert kétségtelen, hogy erre szükség van a hatékony CPU+GPU feldolgozáshoz, de jelenleg nulla program van erre felkészítve, és ez így lutri, mert vagy jól működik, vagy nem. Na de elkalandoztunk a tárgytól.
    A következő fúziós lépcső a Trinity. Ez a lapka már majdnem kész, volt is belőle demó, így sokat lehet róla tudni. A működésben nagyon hasonlít a Llanora, vagyis az AMD továbbra is az Onion buszos összeköttetést tartja jónak, a programokra és a fentiekre való tekintettel. Annyi lesz a különbség, hogy a GPU része a rendszernek képes lesz több, teljesen független utasításfolyam párhuzamos futtatására. Ezzel például több OpenCL-es program is futhat egy időben. Szintén megjelenik a GPU C++ támogatása. Bár nem programozástechnikai dolog, de megváltozik az energiamenedzsment. A Llano esetén eléggé kimért a dolog, vagyis kvázi fix fogyasztása van a procimagoknak és a GPU résznek. A Trinitynél ez átlapolható, vagyis a proci durván turbózhat, ha arra van szükség, és akkor a GPU-rész alacsony órajelű módba kapcsol. Fordítva is előfordulhat persze, ha nagy GPU-erőre van szükség, ilyenkor a proci rész gazdálkodik. Úgy tudom a GTC-s rendezvényről, hogy alapértelmezetten 30%-os fogyasztásátlapolás lehetséges, de az egész módosítható lesz a Catalystból +/-10%-os irányban, vagy akár manuálisan vezérelhető, ezt mondjuk csak az expert felhasználóknak javasolja az AMD. A manuális rész persze picit gázos, mert nyilván ez a százalékos játék nem következményektől mentes. A lapka teljes fogyasztása fix, ha mondjuk +40%-ot power budgetet adsz a GPU-nak, akkor azt elveszi a procirésztől. Nyilván a manuális kontroll állandó hatás, vagyis jól kell ismerni az alkalmazást. Persze a legtöbb felhasználó úgyis az automatikus kontrollon hagyja, akkor pedig a hardver dönt a menedzsmentről. Szvsz az a legjobb.
    A Trinity utáni lépcső a durva fúzió. Eddig csak nyalogattuk a heterogén feldolgozást, amire valóban van lehetőség a Fusion lapkákban, de az egész korlátozott. A harmadik lépcsőben közös címteret és teljesen koherens memóriát kap a CPU és a GPU, továbbá a GPU kezelheti az x86 virtuális memóriát CPU pointereken keresztül. Ezt hívja az AMD architekturális integrálásnak. A chip kódneve nem ismert, de nyilván ez a következő állomás a Trinity után. Valószínűleg ez a lépcső két lapkát is eredményez, mivel a 16 nm messze van, így addig belefér egy upgrade, jelentsen az bármit is. A heterogén éra utolsó lépcsője, vagy mondjuk úgy kiteljesedése pedig az AMD szemében rendszerszintű integráció. Erről még nagyon kevés adat van, és ez még nekem sem teljesen világos, de amolyan Cell-szerűvé vállnak majd a chipek, az előny, hogy logikai szinten eltűnik a különbség a CPU és a GPU között. Az AMD-nél ennek az előjele a Bulldozer modulos felépítése, nyilván ez az architektúra az elkövetkező 5-7 évet meghatározza az AMD-nél, hiszen mindent alárendeltek az alapok fejlesztésénél a Fusion terveknek.

    A Kaigai blog előrejelzéseiből az Intel is ugyanezt az utat járja be, némi eltéréssel. Nekik ugye az első APU-juk az Ivy Bridge, ami folytatja a Sandy L3 írást, remélhetőleg jobb felügyelet mellett. A következő chip a Haswell, ami szintén erősít a CPU és a GPU kapcsolatán, de inkább a CPU fejlesztését helyezi előtérbe, ellentétben az AMD filozófiájával. Ugye itt az AVX2, mint újdonság, ami előnyt jelenthet. Nyilván a tick-tock miatt lesz egy szokásos upgrade, illetve az úgynevezett, vagy AMD-nél látható architekturális integrálás lépcsője nem igazán valósul meg. Majd végül, nagyjából hasonló időben (pontos időpont nincs, de mindkét cégnél úgy 2015-2016-ot jelent ez) az Intel is eljut rendszerszintű integrációhoz, ami a náluk annyit jelent, hogy a Larrabee-szerű magok beköltöznek a prociba a főmagok mellé. Ez is amolyan Cell-szerű minta. Itt is eltűnik a logikai különbség a CPU és a GPU között. Már ha a Larrabee magokat valaha is GPU-nak tekintettük. :)

    Az NVIDIA esetében nincs ilyen előrejelzés, de az irányt nem nehéz kitalálni. Náluk a Tegra 4 lesz az első APU. Az I/O koherencia a CPU és GPU között biztosítható, ha felhasználják az ARM MMU-400 buszát (ez ugye a miért ne eset, mert hát csak egy licenc kérdése az egész :) - persze biztosat nem lehet tudni). Ezzel 2012-ben ez lenne a legmodernebb chip az APU integrációt tekintve. A következő lépcső náluk a project denver, és nagyjából ugyanazt az utat járják, amit az AMD időbeli lépcsője, vagyis közös címtét és teljesen koherens memória a CPU és a GPU között, illetve a GPU kezelheti az virtuális memóriát. Itt ugye az x86 hiányában az ARM-ra kell építeni. Ennél tovább nem teljesen ismertek az NV lépései. Annyit tudunk, hogy a fejlesztéseknél a GPU dominál, vagyis az Intellel és az AMD-vel ellentétben minden egyes lapkában a CPU kapja a háttérszerepet. Az Intelnél ugye a CPU-é a főszerep, míg az AMD egyensúlyozni próbál, hogy mi lehet a valós alkalmazások szempontjából az ideális elosztás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #4480 üzenetére

    Egyelőre semmit sem tudunk a Tahiti GPU-ról. Felesleges a fogyasztását találgatni. Mobil szinten konkrétan nem lehet 100 watt fölé menni. Azért itt pici a hely a notebookban, így nem fogják felrúgni a szabványt. Asztalon még megtehető, mert a házak mérete változik.

    Egyébként a PowerTune a kulcsa az egésznek. Azért fejlesztették ki, hogy az órajelet ne kelljen visszavenni. Majd a hardver automatikusan csökkenti, ha erre szükség van.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cheatergs #4463 üzenetére

    Fudzillától származott a név. Ezért nem lett belőle semmi. Szimpla kitaláció volt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4484 üzenetére

    Technikailag óriási előny. Tekintve, hogy maximális a fogyasztási szint, így abból kell kihozni a lehető legnagyobb sebességet.
    A feszültség csökkentése nem opció még. Elég terhelés az a hardvernek, hogy órajeleket kell valós időben állítania. A feszültség bevonása ezt nagyon bonyolítaná.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4486 üzenetére

    Nekem nem tűnik gáznak. Egy extra opció, amivel szabályozhatom a notebook fogyasztását. Ha esetleg nem vagyok konnektor közelben, akkor negatív PowerTune-nal biztos tovább tudok játszani pl. a vonaton, hiszen kötelezem a rendszert, hogy fogyasszon kevesebbet, és ezek mellett a teljesítmény is a lehető legjobb lesz a fogyasztáshoz mérve. Ez számottevő érték. Amíg minden manuálisan kalibrálható, addig nem látom a problémát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4488 üzenetére

    Miért lenne baj, ha nincs rádkényszerítve a szolgáltatás? Ha viszont szükséged van plusz húsz perc üzemidőre, akkor nagyon örülsz majd neki szvsz.
    A szabályzás a biztonsági kérdésekben is fontos. A PowerTune nemcsak a mobil vonalra lett fejlesztve, hanem a csúcs-VGA-hoz. Ha átléped a fogyasztási határokat, akkor atombiztos megoldás kell oda, hogy a termék ne pusztuljon meg. A HD 6990 azért élte túl a teszteket, mert a PowerTune felügyeli a kártyát. A GTX 590-ből ez hiányzott, és nem kevés meghalt tesztelés közben. Később ez driverből szabályozva lett, de ez nem olyan korrekt megoldás, mint a PowerTune, mert ha a túlterhelés érzékelve lesz, a PowerTune pár MHz-el csökkenti az órajelet, ráadásul dinamikusan visszaállítja, ha elmúlt a veszély. Gyakorlatilag észre sem veszed. A GTX 590 driveres megoldása már fix órajelre csökkent. Ezt könnyen lehet ellenőrizni. Ha húzod a terméket, és emeled a GPU-k feszültségét, akkor a GTX 590 sebessége csökken.
    A feszültség szabályzása a PowerTune alatt sem gond, de a GPU kvalifikálása igen. Itt nem a technikai megvalósítással van gond, hanem azzal, hogy a dinamikus feszültségállítás komoly mértékben növeli a lapkák tesztelési igényét. Anyagilag a VGA-piac jelenlegi helyzetében ez nem fér bele.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #4490 üzenetére

    Nem feltétlen. A GPU terhelése különbözik a mérhető fps-től. Inkább a jelenettől függ. A Furmark sem egy komplex dolog, és pont ezért terhel, mint az állat.
    A PowerTune mellett másik opció, hogy durván le lesz korlátozva szoftveresen a sebesség, és akkor megérzed a tempón. A harmadik megoldás pedig a nuku védelem, és reménykedhetsz, hogy túléli a VGA a kalandot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #4492 üzenetére

    Ennyire nem durva a probléma. Az AMD és az NV is igyekezett a refparamétereket úgy beállítani, hogy a túlterhelés csak a Furmark és társainál jelentsen problémát. Ez pedig nem hiszem, hogy bárkinek probléma. Egyébként jogos, bár nekem nem a két GPU-val van a bajom, hanem a szabványos fogyasztási határ átlépésével. Ez nekem sem tetszik. Remélhetőleg a nextgen alatt erről az irányról letérnek az érintettek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #4494 üzenetére

    Szerintem érdemes elfelejteni a korábbi pletykákat. Semmi sem valós belőlük. Már az vicc, hogy mit keres egy mobil GPU kódneve az asztaliak között.
    A Wiki sajnos egyre nagyobb vicc lesz ezekkel a találgatásokkal. :(

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4496 üzenetére

    Az a -20%-os PowerTune. Az nagyon agresszív, mivel 60 watt mínuszt jelent. Próbálj -10%-ost.
    Nem hiszem, hogy 5 ms különbség észrevehető. Az más miatt akadt. Észrevehető akadást 40 ms-os különbség okoz. Mikroakadáshoz pedig 20-30 ms minimum kell.
    Állandó órajellel biztos nem lenne olyan magas az fps. Pont az a lényeg, hogy a lehető legtöbbet hozd ki belőle mindig.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4499 üzenetére

    Százalékosan ez annyi, de valójában 5 ms-ról beszélünk. Szinte bármikor előfordulhat egy ilyen esés, akár ciklikusan is fix órajel esetén.
    A videó az messze nem ugyanaz. Ha beszúrsz valahova egyetlen képkockát, akkor az már kapásból megduplázza az azonos tartalmat, így nem +30-40%-ot kapsz, hanem 100%-ot alapból. Azt elhiszem, hogy egy megduplázott képkocka alacsony fps mellett okoz ilyet, de 60 fps-nél kételkedem, mert technikailag minden videót rendszertelenül nézel egy 60 Hz-es monitoron, hiszen a 23,976 és 24 fps-sel rögzített tartalom nem szinkronizálható 60 Hz-re.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4502 üzenetére

    60 Hz-en egy átlagos 23,976-24-25 fps-es videón is hasonló játszódik le. A képkockákat nyilván nem lehet a frissítéshez szinkronizálni, mert nem többszöröse a tartalom sebességének. Természetes, hogy az egyes képkockákat háromszor kell kirakni különben a hang elcsúszik egy idő után.
    Ezért van a driverekben natív mód, illetve a 25 fps-re jó az 50 Hz. Igazából ekkora eltérés nem probléma. Ha Vsync-et használsz, akkor a monitor oldaláról akár 16 ms-os lagot is kaphatsz, ehhez képest a képkockaszámításban az 5 ms egy pite érték. Más probléma volt ott.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz KillerKollar #4511 üzenetére

    Mindkét cég ugyanazoktól a problémáktól függ, szóval akármennyire akarnak árversenyt, a profit fontosabb. Minél kisebb a piac, annál több lesz az egységnyi teljesítmény ára. Ez persze egy önbeteljesítő dolog a piac szűkülésére, de semmit sem lehet tenni. Az IGP-k elég gyorsak a vásárlók nagy részének. A VGA-piac innentől kezdve egy mellékvágány. Idővel ezen a fejlesztők is elgondolkodnak, és egyre jobb optimalizációkat kapnak majd az IGP-k. Lásd az új CoD. Hogyan tudna egy olyan játék hardvervásárlásra sarkalni, ami majdnem kimaxolható egy A8-3850-es Fusionön ... ahogy szűkül a VGA-piac úgy válik egyre fontosabbá a tömegek által használt IGP-k kiemelt támogatása. Ez folyamatosan veri a szögeket a koporsóba.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz KillerKollar #4513 üzenetére

    Konkrétan meg tudom neked mondani, hogy a PowerColor szerint, ha a piac kb. hozza azokat a negyedéves számokat, amiket a Q2-ben (ez elég szarnak számít a múlthoz képest), akkor olyan +50-150 dollárra lehet számítani termékkategóriától függően. Természetesen a legtöbbet a csúcskategóriában emelik, míg a legkevesebbet az olcsóbb régiókban. Ha lesz HD 7990, akkor biztos lesz úgy 800 dollár.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz KillerKollar #4515 üzenetére

    Biztosan állíthatom, hogy nem lesz semmilyen 3 GPU-s VGA. A roadmap szerint 2 GPU-s lesz (opciósan), de nem januárban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz KillerKollar #4517 üzenetére

    Nem ismerem az új csúcskarik végső árát. Nem tudok erre pontost választ adni.

    Az, hogy a HD 7970 ugyanolyan gyors, mint a HD 6990 eléggé pletyka. Ráadásul megalapozatlan. Fogalmazzunk inkább úgy, hogy alulról közelíti teljesítményben. Ellenben az új architektúra sokkal, de sokkal okosabb lesz. Ez helyenként jelentős előny lehet. Persze ezt szoftveresen ki kell használni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4527 üzenetére

    Ennél jóval egyszerűbben gondolkodik egy mérnök. Veszik a CU SIMD-jeit és a VLIW4 tömb szuperskalár procijait. Mindkét esetben 64 FLOPS/ciklusról van szó. Innentől kezdve összehasonlítják a CU négy darab 512 bites SIMD-jét a VLIW4 tömb 16 darab superskalár procijával. Az AMD elmondása szerint az előbbi kisebb mm2-ben. Semmi gyakorlati mérés nincs itt. A dolog pedig lényegtelen is, mert a feldolgozó a teljes lapka kis részét teszi ki. Sokkal nagyobb helyet foglalnak a regiszterek, a vezérlés, na meg a gyorsítótárak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #4532 üzenetére

    Írtam, hogy tisztán feldolgozók a lapka aránylag kis részét teszik ki. Az rendben van, hogy itt hatékonyabb a rendszer, de a lapka nagy részét a regiszterek, a vezérlés és a gyorsítótárak foglalják, na meg az egyéb dolgok, most mindbe ne menjünk bele, mert sok tényező lesz. Nyilván az elődhöz képest a fő változás a vezérlésben történik. Ott az ACE motor. Eszi a tranyót, de a compute teljesítményhez kell. Az AMD ezt modulárisra tervezte, így lehet játszani a teljesítmény, és a tranyóigénnyel, de ettől még egy ACE motor sem olcsó. És itt jönnek képbe a játékok igényei, melyek a compute képességeket nagyon egyszerű post processre használják főleg, amihez nem kell bonyolult OoO logikás vezérlés. Elméletben az ACE motor nem szükséges a GCN működéséhez, de csak az AMD tudja, hogy a rendszer mennyire hatékony nélküle. Valószínűleg a játékokban általánosan nem annyira, mint a VLIW4. A másik a tesszellátoros megközelítés. Maga a tesszellátor nem foglal sokat, így az nem tényező, de a scan konverziós egység már probléma. Az AMD az NV-vel ellentétben minden tesszellátorhoz egy scan konverziót rendel, ráadásul ezek is paraméterezhetők, vagyis készültek különböző teljesítményű egységek. Ettől még a DX11 noSplit megvalósítása mikropoligonok mellett egy rohadt pazarló megoldás, de ezt a pazarlást gyorsan is lehet csinálni. Ez igazából egy erőfitogtatás inkább, mint valós fejlesztés. Szimplán az NV-nek egy üzenet miszerint, ha erre akarjátok vinni a fejlesztést, akkor itt szanaszét tudunk titeket verni. Az viszont senkinek sem érdeke, hogy kihasználatlan egységek tömkelege legyen a lapkán belül, pláne olyan API mellett, ami noSplit tesszellálást csinál, vagyis a minőségben a legrosszabb, és egyben egy erősen pazarló megoldást az összes opció közül. Láthatatlan geometriákat pedig felesleges rajzolgatni, ez csak a gépigényt növeli, és a VGA-piac értékét csökkenti. Na meg a tranyókat viszi, ami senkinek sem az érdeke. Főleg nem az NV-nek, hiszen a Keplerben az eddig készülő legbonyolultabb vezérlés lesz, ami képes lesz a szálakat magasabb prioritását szerint előnyben részesíteni. Ez kb. nulla jelentőséggel bír majd egy játékban, viszont a tranyót azt eszi.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #4534 üzenetére

    Persze, hogy nem lesz gyors. De a lassú leépülés sem jó. Az már eleve nem jó, hogy -30%-ot kap a piac a 2010-es bevételekhez képest.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #4538 üzenetére

    Attól függ, hogy a piac miképp változik. Rengeteg koncepció van arra, hogy megtartsák a dGPU-t. A fő cél, hogy a reform anyagilag is kedvező legyen, mert ha nem az, akkor értelmetlen. Láttam pár tervet az elmúlt időben. Az elsődleges opció a dGPU-k alaplapra integrálása, egy nagyon gyors összeköttetéssel az APU felé. Ezt az NV és az AMD meg tudja oldani, hiszen mindkettőjüknek ott a HyperTransport. De akár PCI Express is lehet a kapcsolat, az viszont a nextgen konzoloktól függ, hogy elég-e, vagy gyorsabb kell. A VGA-k esetében a koncepciót a teljesen post process effektek jelentik. Átadod a végső képkockát, és azon dolgozhat a rendszer. Akár kívülre is helyezhető a VGA, ha nagyon menne a piac a mobil irányba.
    Vannak koncepciók az APU-kra. Ott az AMD FSA, ami az OpenCL kiegészítése jelenleg, de implementáció kérdése a C++ AMP támogatása, sőt akár a C, vagy a C++ is kiterjeszthető. Az NV is készül egy hasonló koncepcióval, majd ma írok róla.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #4541 üzenetére

    Nem tudom, hogy foglalattal akarják, vagy integrálva. Tematikus rajzokon láttam, és ott csak logikai összekötésről van szó.

    VRAM szvsz nem lesz, maximum gyorsítótár szintjén egy kevés a tokozáson belül. Pont azt akarják a fejlesztők, egy rendszermemória legyen, és ennyi. A VRAM csak probléma, mert driverből el kell fedni a különbségeit. Ezeket a korlátokat akarják eldobni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #4544 üzenetére

    Értem, de ezt a gyártó dönti el. Te csak fogyasztó vagy, aki dönthet úgy, hogy nem veszi meg.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #4548 üzenetére

    Szuper elnéztem. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4550 üzenetére

    Igen. Az APU-hoz kötött dGPU, inkább hasonlít majd egy koprocesszorhoz. Ezért kell, hogy nagyon-nagyon gyors legyen a két lapka között a kommunikáció.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dragbajnok #4889 üzenetére

    [link] - itt van egy adag találgatás, nem nevezik meg a forrást. Az én infóm nem innen származik, hanem a PC Partnertől. Ők mondták, hogy a GK107 és a GK106 ugyanaz, és a GK104 nyáron jön, míg a GK100 egyelőre semmis, készült, de egy ideje semmit nem tudnak róla. Lehet olyan opció is, hogy GeForce nem lesz belőle, a Tesla és a Quadrora nem kérdeztem rá. A helyzet viszont az, hogy ha nincs belőle GeForce akkor nagyon gazdaságtalan lesz a gyártás. Ezért gondolom, hogy nem törölték, mert egyrészt ott a Titan, másrészt egy új lapka 2012 decemberre lesz.

    (#4891) FireKeeper: Lehet, hogy az egésznek köze van ahhoz, hogy az NV beadott egy kérvényt a 400 wattos fogyasztás szabványos elfogadására. A 4gamer is arról ír, hogy a GK104 250 wattot fogyaszt. Egy nagyobb lapka simán megehet ebből az architektúrából 400 wattot. Persze feltételezve, hogy a 4gamer forrása helyes.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #4896 üzenetére

    384 bit + XDR2??? ... beteg állatok ezek, nem kétséges. ;]

    Amúgy GDDR5 lesz. Most már elég nagy a valószínűsége. ;)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #4899 üzenetére

    384 bittel egy specifikáció szerinti max órajelű XDR2 memória 600 GB/s-ot jelentene.

    De amúgy mondom, hogy GDDR5 lesz. Ez már eléggé biztos infó. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #4910 üzenetére

    Fogyasztásban egyértelműen az XDR2 + 256 bit. Az árban már lehet, hogy a 384 bit + GDDR5, mivel nagy az igény rá, illetve az XDR2-höz nagyon komoly memóriavezérlő kell. Nyilván a kockázat nagyon magas.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #4917 üzenetére

    Történt valami, csak akik ott voltak kusszerződést írtak alá. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FireKeeper #4919 üzenetére

    Én sosem írok alá semmit. ;] Megteszik helyettem. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4958 üzenetére

    Csak egy egyszerű versenytárs az Intel Skylake-nek, és az NVIDIA Maxwellnel. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #4965 üzenetére

    Azt nehéz összehasonlítani (főleg úgy, hogy a GCN rendkívül moduláris ... ki lehet hagyni a ACE-t is belőle, persze nem ajánlott, de az Intel és az NV is el fog menni a nagyon moduláris felépítés felé). Az AMD már 2013-ra összerakhatja a Bulldozert a GCN-nel. Az NV hasonlóval 2014-ben, míg az Intel 2015-ben állhat elő. Természetesen az AMD sem a 2013-as verziót hagyja meg 2014-re és 2015-re.
    Egyébként minden generációban a 300 mm^2 lesz megcélozva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák