Hirdetés

Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz ddekany #1 üzenetére

    Akkor még két grafikont ki kellett volna hagyni. Egyszerűen nézni kell a tengely kezdőértékét és kész. Ez a kezdőérték már a marketing része, nem tudunk vele mit csinálni. Az oszlop mögött/fölött, viszont ott a valós érték, amit csak le kell olvasni. A cikkben is benne van, hogy a valós alkalmazásnál 50%-ot gyorsult, vagyis jelezni próbáltam, hogy a 100%-ka több mag, nem jelent 100%-kal nagyobb teljesítményt, ahogy azt a grafikon mutatja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz eXodus #3 üzenetére

    Az elméleti érték volt. A CPU-rész tisztán számítva 2x, míg a GPU GFLOPS teljesítménye 3x gyorsabb. 2+3=5x-ös GFLOPS teljesítmény elméletben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz eXodus #7 üzenetére

    Nyilván az, én csak az elméleti leveztetéssel szolgáltam. A gyakorlat más.

    A fotós tesztben például duplázott a Tegra 3, ha sok a számítás, akkor nem lehetetlen. A játékokban valóban nincs meg a 3x, ez valószínű ezért van, mert a memória 32 bites buszsávszélessége már szűkös a Tegra 3-nak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #9 üzenetére

    Ha program feldolgozásából kiveszed az API+driver korlátjait.
    A külön VGA csak a jövőben probléma a jelenben nem. Az új generációs xbox-ra például azt mondják, hogy egy Odeb nevű lapka, amiben van egy IBM CPU és a AMD GPU. Ezek közös címtartományt és teljesen koherens memóriát használnak. A nextgen konzoloknál ezt kellene átportolni PC-re, CPU+dGPU konfigurációra. Nem lehetetlen, csak durván le kell butítani a játékot (nem feltétlenül csak grafikailag). Ha a konzolok erre mennek, amerre az új Xbox, márpedig eléggé nyilvánvaló, akkor a rendert egy lapkára kell bízni, ami szintén közös címtartományt és teljesen koherens memóriát használ a CPU és a GPU részre. A dGPU szerepe maximum post-process effektek szinten maradhat meg, ahol már önállóan is képes dolgozni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #11 üzenetére

    Félrevezetve nincs senki, mert a számok világosak a trükk létezik, de ennyi.
    Nem azért kellenek a képek, mert színesek, hanem azért, mert a sajtóanyag részei. Kapcsolatápolás a gyártóval, stb. Nyilván sokan örülnek annak, hogy ha van teszt egy termékről, és ez akkor lesz megoldható a leghamarabb, ha nem nekünk kell rohanni a kereskedőhöz a cuccért, hanem kapunk egyet a gyártótól. A gyártó pedig elvárja, hogy az anyagokat lehozd. Nyilván, ha nem valami orbitálisan nagy baromság, akkor képekkel linkeljük. Jelen esetben csak egy elterjedt marketingtrükkről van szó, és a képeken ott a tényleges érték is. El lehet ítélni, de az eredmény szempontjából lényegtelen. Az adott termék képességeiről pedig úgyis független teszt dönt.

    (#13) fatallerror: Mi lenne? Az ami most, csak nem konfigot veszel, hanem egy lapkát, de ettől még egy csomó gyártó azért lesz, hogy az ő termékét vedd meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #17 üzenetére

    Ha megnézed, akkor már nincs olyan anyavállalat, aki csak VGA-t gyárt. Leányvállalatok vannak, de ott is keresik az új piacokat. Rendszerint az alaplapgyártás a sláger, de nem kötelező ezt a vonalat követni. Nyilván a VGA-gyártásról az alaplapra a legkönnyebb átállni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz erdoke #22 üzenetére

    Először adjuk már meg a Tegra 3-nak a lehetőséget, hogy megjelenjen, és majd akkor ítéljük meg az értékét, ha a független tesztek is megérkeztek. Egyébként a vSMP-ről szóló hír be van linkelve, ami pont arra vonatkozik, hogy az NVIDIA az optimális üzemidő/teljesítményre törekszik. Ebből a szempontból szerintem nem kell aggódni. Igen, a nagy terhelésnél (4 mag+IGP) többet fog fogyasztani, mint a Tegra 2, de az átlag terhelésnél már nem hiszem, sőt valószínű, hogy a jelentősen továbbfejlesztett energiamenedzsment miatt jobb értékek várhatóak. Idle állapotban a társmag miatt például jóval kevesebb fogyasztás várható.

    A kisebb csíkszélesség nem mindig előny. Az optimalizált gyártástechnológia, és a jó energiamenedzsment az. Az Intel is azért vált később gyártástechnológiát az Atomon, mert először optimalizálni kell azt, hogy jó legyen. Ez az első lapkáknál nem biztos, hogy sikerül. Azzal, hogy az NV a 40 nm-nél maradt, megkímélte magát a 28 nm-es szopástól, ami a TSMC-nél várható. Mire a többi gyártó elintézi a node jó állapotát, akkorra az NV berakja tömeggyártásba az új Tegrát. Ez teljesen logikus gondolkodás. Az NV már csak tudja, hogy mekkorát lehet szívni egy gyártástechnológiai váltásnál pár rossz döntés után, lásd GF100+40 nm. A 28 nm sem egyszerűbb. Ott a HKMG, ráadásul gate last, és a HP node-on a SiGe cap. Mindkettőn nulla tapasztalattal bírnak, de lényegében más is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cqr #29 üzenetére

    Azért vegyük figyelembe, hogy a Tegra 3 IGP-je nem éppen akkora, mint az SGX543 MP2 konfigurációban. Az extra tranyó főleg a proci részre ment el, ami öt fizikailag beépített maggal nem csoda. Gyakorlatilag az ULP GeForce csak a pixel shaderben javult, meg a szokásos optimalizálásban, de ez nem olyan sok. Az NV ezen a szinten a programozható blenddel próbál előnyt kiépíteni, de kétségtelen, hogy a SGX543 MP2 sebességben előrébb tart. Persze lesznek kivételek, de többnyire a Power VR a jobb.

    A shader-heavy környezet miatt lett megduplázva a pixel opciós rész. A triangle throughput nem hiszem, hogy sokat változott. Ebben óriási előnyük van a konkurens architektúráknak (PowerVR, Mali, Adreno), ilyenkor megéri inkább oldalra fejleszteni, ha érted mire gondolok. Az NV a szoftvereket elviheti olyan irányba, ami pont, hogy az ULP GeForce-nak előnyös.

    Annyira nem nagy az a 4-5 watt. Az Apple A5 is 4 watt fölé lő max. terheléssel. A Tegra 2 is 3,5 watt fölött fogyaszt maxon. Itt az energiamenedzsment minősége döntő. Az átlagos terhelés mellett kell jót alkotni. Itt szokott kijönni az ARM előnye. Ugye ott az Intel Lincroft lapka, ami max fogyasztásban 3,7 watt kimérten. Alatta van több ARM SoC-nak is, de amíg az ARM SoC-ok képesek 1-1,5, vagy az erősebbek 2 wattos átlagos fogyasztásra, addig a Lincroft 2,5-3 watt között dolgozik, ami nyilván átlagos terhelés mellett sok. Az, hogy a lapka 5 wattot fogyaszt max, nem jelenti, hogy általánosan sok, mert az energiamenedzsment lehet örült jó, és akkor mindjárt semmi probléma.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cqr #32 üzenetére

    Természetesen így van, a lapkaméreten belül az IGP kiterjedése sok embert nem hat meg. :) A vásárló lényegében csak az ár/érték viszonyt nézi, de ez teljesen normális. A programozót is hidegen hagyja ez a rész, ami szintén normális.
    Én úgy gondolom, hogy a négy mag erőltetése stratégiai jellegű. Egyrészt a 40 nm-es node-ra Cortex-A15-öt rakni nem kedvező. Megoldható, de az ARM a 28 nm-es processekre tervezte. A Cortex-A9 van 40 nm-re alakítva. Ha az NVIDIA úgy döntött, hogy maradnak a 40 nm-en, ami utólag látva nem volt rossz döntés, akkor a teljesítmény növelése a magok duplázásával a legértékelhetőbb megoldás. Az órajel növelése is opció, de az magasabb általános fogyasztást jelentene átlagos terhelésű helyzetekben, és ez nem jó. A másik alapja ennek a szoftveres fejlesztések. Az NVIDIA a PhysX-et átültette már Androidra. Gyakorlatilag a rendszer fejlődése a PC-n megállt egy szinten, miközben Androidon komolyan fejlődik. A GPGPU-ban viszont a Google rendszere le van maradva, így a hagyományos utat kell járni, vagyis a központi processzormagokon kell számoltatni. Ez a másik oka a magok duplázásának. Nyilván az NV-ről tudjuk, hogy sokat fektetnek a játékokba, ott pedig előny a több mag. Van is lehetőség a többszálú feldolgozás kialakítására.

    A Tegra egy immediate render. A háromszögek feldolgozása más, mint a konkurens architektúráknak. A különböző kivágási technikák mellett a Tegra biztos több feladatot végez ezen a ponton, mert nem választja ki a látható háromszöget előre, hanem minden rendereléi, és utána, a mélységteszt alapján lesz a látható pixel kiválasztva. A konkurens architektúrák sorba rendezik a háromszögeket, és csak a legelsővel dolgoznak. Ebből a szempontból a Tegra számára a triangle setup sok veszteséggel jár, és a memóriával sem takarékos ez a megoldás. Nyilván ez valamennyire architekturális örökség. Az ULP GeForce alapjai a GeForce 7-ből származnak. Amikor az NV partnerprogramján belül készül egy alkalmazás, akkor mindig ügyelnek arra, hogy ez ne legyen komoly gond. Alapvetően nem is az, de a hatékonyság tekintetében a PowerVR, Mali, Adreno trió a Tegra előtt jár. Persze ez ellensúlyozható, mert a Tegra meg másban jár a konkurensek előtt.

    Hát a teljesítményről majd a tesztek fognak árulkodni, egyelőre az előzetesek jól mutatnak.

    Sajnos a IGP-kre nem nagyon adnak meg fogyasztást. Az ULP GeForce és az Adreno esetében ez lényegtelen, mert egyik sem licencelhető IP, vagyis senkit sem érdekel, a mi kíváncsiságunkon kívül ugye. A PowerVR esetében pedig a licenc csak terveket tartalmaz, vagyis a valós implementálás a gyártó feladata (az Img Tec ajánlásokat tesz, de nyilván nem kötelező követni). Ezzel a fogyasztás erősen függ a beállított órajeltől, az MP konfigtól és a gyártástechnológiától. Ez amúgy jó, a fogyasztás ezzel nagyon széles spektrumon mozoghat, ami egyfajta szabadság a licencelőknek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Kotomicuki #33 üzenetére

    A fele-negyedannyi rész sokkal kisebb. Egyelőre nem a hardverrel van a baj, hanem azzal a hosszú szoftveres feldolgozórutinnal, amíg a DirectX API-val elért driver és az OS kiadja a valós parancsot a hardvernek. Ez rossz esetben több tízezerszeres időigénnyel is rendelkezhet, mint a direkt elérés.
    A PCI Express késleltetése addig nem gond, amíg a konzolt is CPU->GPU feldolgozási irányban programozzák, vagyis nem csak a PC-n van minimalizálva az összekötő busz használata. A nextgen konzoloknál változik ez meg, mert elmennek heterogén irányba. Ha az új Box Odeb lapkája tényleg olyan lesz, amilyennek az előzetesek leírják, akkor nem csak a CPU->GPU feldolgozási irány lehetséges, hanem erősen keverhető az egész, hiszen az az időigény, amíg a magok az adatokat átadják egymásnak gyakorlatilag órajelciklusok szintjén ns-okban mérhető. PC-n CPU+VGA párosítás mellett már nem, mert a busz nagyon lassú.

    Gyorsítótárat biztos nem alkalmaznak DRAM-mal. Túl lassú. Lapkán belül nem a méret a legfontosabb, hanem a gyorsaság. Az AMD egyébként az architektúrával pont arra készül, hogy a CPU és a GPU integrációja értékelhető legyen. Ezért lesz a Bulldozer olyan amilyen.
    Nem kell olyan erős rendszer, ha direkten programozol. Egy Sandy Bridge-ből kihozhatsz annyit, mint egy SB+HD 6990 kombóból. Azzal, hogy eldobod a driver+API modellt, jelentősen gyorsulhat a feldolgozás. Persze ezzel eldobod a kompatibilitást is, ami jelenleg ennek a gátja. Itt megint a nextgen konzolok fognak dönteni. Nyilván a gyártóknak semmiképp sem opció, hogy a PC-re butítani kelljen a játékokat, így a driver+API modellel már senki sem ért egyet, még ha nem is kürtölik világgá. Valaki a felhőben látja a megoldást, míg más a hardver low-level elérésének biztosításában.

    Tök mindegy, milyen buszt raksz a CPU+VGA összekötésre, annyira gyors soha sem lehet, mint a lapkán belüli kapcsolat. Még csak meg sem fogja közelíteni a sebességét. Ha a nextgen konzolok elmennek az egybeintegrálom irányba teljesen koherens memóriával és közös címtartománnyal, akkor a PC-knek is követni kell ezt a vonalat. A VGA-k megmaradhatnak post-process effektek szintjére, mert az egyszerűen megoldható feladatátadás, és egyirányú is lényegében.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz julius666 #38 üzenetére

    Persze, hogy nincs, de a marketingben sosem a valóság közelítése a cél. Ugyanezek más gyártóknál is megvannak. Az NV-nél azért maradt köztudatban, mert a roadmapra volt ez a gyorsulás rakva.
    Mondok én más példát, amivel én sokszor találkozom. Az AMD-nél az APU-k megjelenése óta van egy computional GFLOPS paraméter, ami hozzá van mérve minden marketinganyagban az SB procik GFLOPS értékéhez. Nyilván az IGP teljesítményének a hozzáadásával a grafikonon a Llano elhúz nagyon. Szerencsére ez csak egy-két dián jelenik meg, és azok nem hordoznak értékes infót, vagyis ki lehet őket hagyni. Na de az értelmi része ugyanaz, mint a Tegra 3-nál, vagyis a CPU és a GPU rész teljesítményének direkt összeadása. Igazából nem lepődnék meg azon, ha az öltetett az NV innen vette volna. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cqr #40 üzenetére

    Itt azért valamivel egyszerűbb lesz a dolog, mármint a program támogatását tekintve. A több cpu magon való skálázódással már aránylag sok az elméleti tapasztalat, ami a PC-s bevezetésnél nem volt általános. A másik dolog, hogy nem csak az NV megy erre. Ez egy fizikai kényszer, mert van egy dark silicon jelenség, amit több maggal kezelni lehet. Nem végtelenségig, de aránylag jól kizárható a probléma. 2013-ra eléggé általános lesz a négy ARM mag a SoC-okban, és ez elsősorban a dark silicon miatt történik. A fejlesztőknek pedig le kell követni.

    Félreértettél, vagy csak rosszul fogalmaztam, mindegy. Megpróbálom még egyszer. A Tegra esetében mindkét általad felvázolt esett külön probléma. A triangle throughput direct render miatt, míg a shader heavy környezet azért, mert a Tegra IGP-je a fragment shaderekkel emulálja a blendinget. Ha növeled a programodban a fragment shader terhelést, akkor az nyilván több erőforrást követel, de eközben a Tegra számára még a blending emulálása is szükséges ugyanazokon az erőforrásokon. Ez okozza a visszaesést a többi architektúrákhoz képest, amelyek amúgy a blendinget direkt ROP-okkal kezelik emuláció nélkül. Az NVIDIA választása egyfajta kényszer is. Azért a mobil IGP-k esetében kell a tapasztalat. Az NV-nek ez az asztali szintről van meg, vagyis a mobil megközelítésük is eltérő. Ez természetesen bizonyos helyzetekben előny, míg máskor hátrány (a hátrány részét azért érzed jobban, mert a konkurensek jó ideje itt vannak ezen a piacon, és a programokat ezekre írják ... a Tegra IGP-jét nemrég ismerték meg). De ezt te is látod, hogy a Tegra IGP-je a működés szintjén mennyire eltérő. Nem mondom, hogy az NV kiváló munkát végzet, de azt sem hogy rosszat. Nem egyszerűbb a nulláról összerakni egy mobil igényekhez igazodó IGP-t. Sokkal kifizetődőbb volt elővenni a GF 7-et és mobilosítani amennyire csak lehet. Az eredmény tekintetében jónak mondható a rendszer. Nem kiváló, de nem is rossz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák