Hirdetés

Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Kendek #19 üzenetére

    Előfordulhatnak olyan játékok, amelyeknél ez a beágyazás hátrányos, de jellemzően vagy gyorsít, vagy nem számít semmit.

    (#21) Sasal1ty: Annál lassan mindegyik IGP gyorsabb.

    (#4) GeryFlash: A beágyazott memória a frame és a back buffert tárolja, meg egy-két render targetet még, ha belefér. A többi a rendszermemóriából leválasztott VRAM-ba kerül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #26 üzenetére

    A jelenlegi doksikból az derül ki, hogy a Sideport és a Haswell megoldása pont ugyanúgy működik. Ez igazából nem meglepő, mert így van értelme. Mindkét memória egy különálló rész a VRAM-tól, amit a GPU gyorsabban elér. Ide helyezte a hardver a minden játékban jelen lévő puffereket, mint a frame, a back és a Z, vagy ami elfért még. Ami nem fért bele, azt a rendszermemóriában tárolta a leválasztott VRAM-ban. Az a fontos, hogy a kettő között nincs átjárás. Ami a VRAM-ban van az nincs benne a beágyazott memóriában és fordítva. A játékokra lebontva azoknak fekszik ez, amelyek kifejezetten VRAM barát rendert használnak. Ezzel a teljes VRAM igényből levetítve relatíve sok adat fér majd a beágyazott memóriába. Ilyen a DiRT motorja, vagy az Unreal Engine 3.5 előtti verziók. A Frostbite 2.0 például a másik véglet. Az Full HD-ben még AA nélkül is több mint 300 MB információt tárol csak a képkockára. 4xAA mellett már 500 MB-ot, és akkor még nem számoltunk a textúrákkal és a tartalommal.
    Ez eléggé szélsőségesen fog működni, viszont negatív irányba nagyon ritkán mozdítja el a teljesítményt, szóval összességben megéri.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MCBASSTION #40 üzenetére

    A 3DMarkban már az Ivy Bridge is a Trinity közelében van, mert az egy olyan benchmark, ami nem terheli együtt a procit és az IGP-t. Ergo garantálja az állandó turbó órajelet az IGP-nek. A játékokban ez közel sincs így, és ez az egyik oka, amiért nem hozza azt az arányt az Ivy és a Trinity közötti mérés, mint ami van a 3DMarkokban. Nem mindegy, hogy 650 MHz-en fut az IGP, vagy 1 GHz felett. A 3DMarkban állandóan az utóbbi órajelszint él. Számos játékban az előbbi órajelszinten van többet. Ilyenkor már a harmada a teljesítménye a Trinity IGP-jéhez képest.

    A driver főleg azokban a játékokban befolyásolja negatívan az Intel eredményét, amelyek OpenGL-t használnak (Minecraft még ma sem játszható maxon Intel IGP-vel), vagy sok rajzolási paranccsal dolgoznak (főleg stratégiai játékok ... a Civilization V és a Total War: Shogun 2 konkrétan katasztrófa, majdnem a Brazos szintjére esik vissza a legerősebb mobil Ivy, a Trinity-vel köszönő viszonyban sincs). A többiben már annyira nem rossz a driver általánosan. Persze a specifikus optimalizálás nem ártana.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Strezi #59 üzenetére

    Mondjuk azért az új motor, amit a Showdown használ az jóval fejlettebb forward render, mint amit a Dirt 3 használt. Ez kapásból látszik a grafikán és a sebességen is. Persze ki lehet kapcsolni ezt a részt.

    Az nem baj, hogy a Showdown vonalat eldobják, vagy pihentetik. Én is inkább egy DiRT 2-3 keverék játékot szeretnék Showdown grafikával. Az lenne az ultimate DiRT. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #61 üzenetére

    Már használni is lehet. Nem kell ezt várni. Közel 3 GB-nyi szoftver van rá.

    Borzalmasan kicsi az esélye, hogy az Intel az elkövetkező pár évben felérjen az AMD IGP-khez. Hardverben lehetséges, de a szoftverben szemléletváltás kell. Nem elég egy játékra szánt IGP-t 1+1 évig támogatni, és a játékosok azt sem fogják tűrni, hogy ha valami gond van, és beírják az Intel fórumára, akkor az Intel a fejlesztőkhöz irányítja őket át. Ha bármit is akar a játékosokkal kezdeni az Intel, akkor ezek azok a tényezők, amelyeken változtatni kell. Viszont meggyőződésem, hogy a vezetőség a játékfejlesztéseknél is úgy gondolkozik, hogy ők a piacvezetők és majd a fejlesztők az Intelhez igazodnak, így nekik nem kell tenni semmit. Ez látszik mennyire működik. A legnépszerűbb játék ma a MineCraft és nincs Intel IGP, ami maxon stabilan 25 fps fölött viszi. Ehhez képest a Trinity stabilan 100 fps környékén van. Erről olvastam régen egy fórumos beírást. Az Intel szerint Notchnak kellene átírni a motort D3D-re, a probléma az, hogy Notch ezt marhára nem így gondolja. Igazából mindkét álláspont érthető, de Notchnak igaza van az OpenGL mellett. Az is egy ipari szabvány, tessék támogatni. Előbb utóbb az Intel is rákényszerül arra, hogy a Linuxhoz saját zárt drivereket fejlesszen, így az open projekt támogatása nyújtotta kényelem el fog tűnni. Ez szerencsére a windowsos OpenGL driverre is kihatással lehet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Lacccca87 #66 üzenetére

    Az AMD nem tudom, hogy megnézte-e, de a TUL-tól tudom, hogy egyszer ellenőriztek egy olyan hibát, hogy az Intel PCI Express vezérlője a 3.0-s kártyákkal 1x-es módba kapcsolt be, de csak újraindítás után, és csak bizonyos alaplapokon. Valamelyik Core szériával volt ilyen gond. Lehet, hogy a Clarkdale. A VGA oldaláról nem lehet javítani, mert a VGA olyan módban működik, amilyet az alaplap mond neki. Szerintem ezt az AMD-nek nem küldték el, mert úgy sem tudnak semmit sem tenni. Az Intel és az alaplap gyártója az illetékes. Nekik kell ezt elküldeni. Az egész egyébként az alaplap energiagazdálkodásához kötődhet. Azt sok gyártó nem teszi kikapcsolhatóvá.
    Mivel egyedi energiagazdálkodási sémákat a PCI-SIG nem definiál, így minden saját sémát az adott hardverekhez kell szabni. Ez akkor gond mindig, amikor jön egy új szabványra épülő hardver, és nem kompatibilis a gyártók egyéni energiagazdálkodásával. A PCI-SIG már számtalanszor figyelmeztette az alaplapgyártókat, hogy ha építenek is ilyet be a termékükbe azért a szabványos energiagazdálkodást is tegyék elérhetővé a jó kompatibilitás érdekében.

    Van a HWSW fórumon egy srác, aki ugyanezzel küzd. Talán keresd meg. Asszem Virus9AX a nickneve.

    Itt az AMD-nek a report formja: [link] - Az Issues résznél válaszd az Othert, különben nem fogják megnézni, mert rossz helyre megy. Írd oda, hogy a Sapphire-ral is beszéltél, és ad meg az ürgének az elérhetőségét nekik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Lacccca87 #70 üzenetére

    Ha nem szabványos az energiagazdálkodás egyik alaplapon sem, akkor simán jelenhet problémát. Tipikusan a Giga és az ASUS kezdte el ezt az egyedi fejlesztéseket, mert nem voltak elégedettek a szabványos eredményekkel. Sikerült maradandót alkotniuk, és ma már sajnos sokan követik a példájukat. :(

    A TUL-nál neked nem fognak válaszolni, mert ők OEM cég. Direkten felhasználókkal nem foglalkoznak, csak cégekkel. Én csak onnan tudom, hogy a TUL-nál dolgozott még az év elején egy compalos kontakt és ő mondta el, hogy ebből lesz majd galiba szerinte. Akkor annyira nem tulajdonítottam neki jelentőséget, de láthatóan igaza lett. Azt tényleg nem tudom, hogy átadták-e az AMD-nek ezt a hibát. De még ha átadták is, akkor sem tudnak vele mit kezdeni.

    Nem tudtam, hogy te vagy Virus9AX. Ebben az esetben tárgytalan. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák