- Steam Deck
- Gaming notebook topik
- Androidos tablet topic
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Visszatérne a PC-s kliensbizniszbe az NVIDIA
- TCL LCD és LED TV-k
- Melyik tápegységet vegyem?
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Mérföldkőhöz ért az LG a Micro-OLED technológiában
- AMD K6-III, és minden ami RETRO - Oldschool tuning
Hirdetés
-
Nubia Neo 5G - olcsó játék
ma Van-e esélye a legolcsóbb gaming telefonnak a piacon közel egy év késéssel?
-
Itt van az eddig legjobban teljesítő kétfiókos NAS a TerraMastertől
ph A 19 dB-es zajterheléssel dolgozó, médiaszerverként is bevethető megoldás lineáris adatáteresztése elérheti a 283 MB/s-ot.
-
Spyra: nagynyomású, akkus, automata vízipuska
lo Type-C port, egy töltéssel 2200 lövés, több, mint 2 kg-os súly, automata víz felszívás... Start the epic! :)
Új hozzászólás Aktív témák
-
Sanya
nagyúr
akkor most gyorsabb lesz, vagy csak a neve lesz más?
A bortól bolondokat gondol az ember, DE A PÁLINKÁTÓL MEG IS CSINÁLJA!!!
-
Löncsi
őstag
Jajj, furcsa, ahogy ez a hapsi Intel logo mellett ácsorog, nem szívbajos, hogy AMD-től átigazolt.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
frescho
addikt
A cikk elegge zavaros, ahogy ugral az Ivy esa Haswell IGP-je kozott.
A revolucio ugye azt jelentene, hogy forradalmian uj. Ezzel szemben:
"Az új IGP nem épül új architektúrára, így alapvetően a HD Graphics termékcsalád része, azon belül is az Ivy Bridge APU-ba szánt, úgynevezett hetedik generációs megoldás feljavított változata."
Inkabb evolucio lesz, amit irni akartatok.
https://frescho.hu
-
.mf
veterán
Hetedik generacio? Mi volt az elozo hat? 8xx GMA, 915-945 GMA900/950, 965 GMA3000, G3x GMA3xxx, G4x GMA4xxx, CD HD Graphics, SB HD Graphics 2/3000; s kozben volt meg Atom is, Poulsbo GMA500, Cedar GMA600, meg GMA3150...
Fotóim és kalandjaim a világ körül: https://www.facebook.com/fmartinphoto/
-
P.H.
senior tag
"Richard Huddy valószínűleg jól fogja érezni magát az új munkahelyén, ugyanis az Intel kedveli az API-kat nélkülöző jövőképet, melynek a szakember korábban élharcosa volt."
Inkább csak egy stratégát igazolt az Intel a személyében: az NV CUDA-ja mögött álló PTX egy önálló ISA, az FSA is ilyesmi lesz, és az Intel sem ma találta ki (Intel Technology Journal 2007-3) ezt a megközelítést.
Az API nélküli megvalósítás ilyen önálló, eléggé hardverközeli, de nem konkrét hardverhez kötött "virtuális" utasításkészletek lévén lehetséges.Ezek többé-kevésbé úgy önálló ISA-k, mint a Java bytecode-ja: a hardver mint fizikai megvalósítás cserélhető alattuk, de (a Java-val ellentétben) egy-egy cég saját hardverei kihegyezhetők rá, másokon meg valahogy - lassan, de hiba nélkül - elfut; ahogy az CUDA x86-os vagy ARM-os megvalósításai, vagy az FSA jelenlegi ígéretei.
[ Szerkesztve ]
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
-
Abu85
HÁZIGAZDA
A GMA900-tól számolják. A 8xx-es GMA csak egy félresikerült valami volt. A többit jól írtad.
Az Atom nem számít bele ebbe a generációs mércébe. Az egy külön vonal.
Az architektúránál a GMA-k épültek azonos alapokra, míg a HD Graphics volt nagyobb lépcső.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Inkább csak egy stratégát igazolt az Intel a személyében
Hülyeség szerintem, egyszerűen megint a zsozsóról van szó. Carmack is furcsa mód magasztalta az Intel IGP-t (QuakeCon), Huddy pedig mint az AMD egyik nagy fejese csak úgy átigazol, ennyit érne neki az AMD .. ? De ez persze nem szakmai feltevés, szal részemről OFF.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
.mf
veterán
"A GMA900-tól számolják. A 8xx-es GMA csak egy félresikerült valami volt. A többit jól írtad."
Mintha a GMA9xx ne lett volna felresikerult
Nem volt benne hw-es T&L, igy a dx9-et csak szoftveresen emulalta, meg is latszott a teljesitmenyen. Szerintem az elso epkezlab darab a 965 volt, csak drivert nem tudtak hozza irni (deja vu? ). Szerintem mar ott kulonvaltak, hiszen 965-os dx10-es volt, programozhato shaderekkel. Nem volt akkora valtas, mint a HD Graphics, de mar mas alapra epult.Fotóim és kalandjaim a világ körül: https://www.facebook.com/fmartinphoto/
-
félisten
Na most mi lesz az amit ez nem fog tudni, csak az amd-apu? Játkokat ne soroljunk, kevesen játszanak, főleg apu-val. Fogyasztani is kevesebbet fog. 1.0 user szemszögéből ez lesz a mekka, lehet vele filmezni, és egy i3 szint is elég minden másra. HTPC alapnak szerintem jól hangzana egy valamim 35W-os i3 ami a szintén ennyit fogyasztó AMD terméknél kétszer erősebb prociban. szerintem
Vissza kell vinnem pár kazettát.
-
Abu85
HÁZIGAZDA
Carmack elsősorban az integrációt magasztalta. Neki jelenleg a VGA-piac nyűg, mert nem úgy írta az ID Tech 5-öt, hogy jó megfelelő legyen a dGPU-khoz. Persze az AMD PRT-je most még kisegítheti, de a jövőben az integrációval teljesedhetnek ki az új GPU-architektúrák képességei. Valszeg igaza van abban Huddy-nak, hogy az API előbb-utóbb menni fog. Egy virtuális ISA sokkal jobb lenne. Az egyik gyártó hardverén nyilván baromi jól fog futni, de nem tartom kizártnak, hogy a többi gyártó hardverén hozható legyen az a teljesítmény, ami az API-val megoldható.
Aztán persze a szívás meglesz ezzel is. Olyan szegmentálás lesz, hogy azt öröm lesz nézni. Például a játékpiac annak lesz nyitott, aki bekerül pár konzolba. A többiek hardvere szenvedni fog.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A 8xx-hez képest áttörés volt.
Most is van egy csomó hiba az Intel IGP-iben. De önmagukhoz nagyon is fejlődnek. Azt nyilván senki sem várja, hogy az AMD, vagy az NV minőségi szintjét megközelítsék. Túl nagy a lemaradásuk ahhoz. Három év alatt nem lehet 10 év mínuszt behozni.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Plazmacucci #11 üzenetére
Az majd csak akkor derül ki, ha megjelenik.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Neki jelenleg a VGA-piac nyűg
Nade ilyet egy (hagyományos ?) programozó nem mondhat, rendelkezik egy univerzális kódolási technikával amit adaptálni kell(ene) a megfelelő/cél hardverre, ennyi erővel a Crytek is nyavajoghatna, vicces módon náluk pont fordítva volt, ők a konzolos architektúra miatt panaszkodtak (kevés memória) és az sem jó megoldás mert minden platformon mennie kell a szoftvernek ami fontos.
Webfejlesztőknek is nyűg pl. az Internet Explorer, de muszáj megcsinálni, mert a megrendelő így kéri stb.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
Miért nem mondhat? Neki van egy jövőképe, amiben a VGA nyűg. Ez az ő dolga. Tekintve, hogy milyen igényekkel rendelkeznek a fejlesztők, egyre nagyobb probléma lesz az, hogy a VGA saját disjoint memóriával rendelkezik, és nem közvetlenül a rendszermemóriát használja. Lehet trükközgetni, ahogy a CUDA teszi, de a valódi megoldás a felmerült problémákra az integráció. Ezért megy mindenki erre. Carmack csak előre látja, hogy mi lesz, és készül rá.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ezek az átlag százalékok nem átfogók. A végső teszt fog erről dönteni. Valószínűleg fejlődhet annyit, hogy 40%-kal gyorsabb legyen az SB IGP-jénél, de itt ez nagyon alkalmazásfüggő lesz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Persze, mert nincs kedvük megírni diszkrét kártyára a kódot, mert abból nem keresik hülyére magukat így a konzolos architektúrát akarják ráerőltetni a hagyományos PC rendszerekre, mert az egyszerű. Már most is vannak jó multi-plat motorok, ezért nem értem, ennyi erővel a konzolok is használhatnának PC-s felépítést, amire elvileg van esély 2013-ban.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
P.H.
senior tag
Tetszik, nem tetszik, ezt kell szeretni. Venni azt kell majd, ami valóban kell
Több szempontból jobban lehet járni ezzel: pl. a driver-es szenvedések eltűnnek: komplett DirectX/OpenGL eljárások/eljárásrészek helyett egyszerű virtuális utasításokat megvalósítani fordítóból könnyebb egy teljesen új architektúrán is; úgymond "optimalizálni" is könnyebb, mert egy-egy konkrét, jól dokumentált virtuális ISA-n könnyű megtalálni a legjobb megoldást.
Persze hátrány is lesz; de ha mondjuk a Khronos is csinálna egy ilyen ISA-t az OpenCL-hez...?Végülis, bizonyos sanda szemszögből ezt is lehet már mondjuk szoftver-rendering-nek nevezni, nem?
#9 Löncsi:
Ez egy buta kérdés, Ő sem az AMD saját gyermekeként született, csak egy (szellemi) munkás, aki tisztában van azzal, mennyit ér a tudása.
Inkább az az érdekes, hogy az Intelnek megér annyi pénzt az Ő szerződtetése és szaktudásának jövőbeni felhasználása, amennyit.[ Szerkesztve ]
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
-
Abu85
HÁZIGAZDA
Nem a VGA-val bajuk a fejlesztőknek. A eddig nekem annyi jött le, hogy a nextgen konzoloktól mindenki azt várja, hogy a CPU és a GPU egységes címteret, és teljesen koherens memóriát osszon meg egymással. Tekintve, hogy az Xbox 360 már egy apró lépés volt errefelé, így logikus evolúciónak tartom. Ez viszont a VGA-knak nem ideális, mert ezek az igényeknek nem igazán felelnek meg. Nem feltétlenül akarnak a fejlesztők integrálást, de az fenti igények, így valósíthatók meg a legjobban, de még, ha nem is lesz integrálás, akkor is lehetetlen lesz a gyártók mixelése, mert a CPU-t a GPU-hoz kell tervezni, és fordítva. Pl. az NV az ARM felé megy, és nem lehet a GPU-nak átadni egy tetszőleges pointert az x86 memóriából. Itt a platform óriási jelentőséget kap a jövőben. Gyakorlatilag döntő fontosságú lesz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Angel1981
veterán
"A feldolgozók esetében a korábbi pletykák maximum 40 darab úgynevezett Execution Unit beépítéséről szóltak, az új információk szerint azonban ez a szám inkább 20 lesz."
Pedig kezdtem volna reménykedni, hogy a Haswell-nél már végre tényleg egy erős (illetve az AMD megoldásaihoz viszonyítva; "megfelelő") IGP-t fognak összedobni, de így nem fűzök nagy reményeket hozzá - az Intel igen csak takarékon fejleszti az IGP-it...
-
-
Abu85
HÁZIGAZDA
A Khronosnak ez opció lenne. Ők biztos megoldanák normálisan. Persze lehet, hogy az elején lenne némi szenvedés. Az OpenCL sem indult jól.
Tulajdonképpen ezzel a módszerrel a DX-ben előre lerakott futószalagot a fejlesztő írja meg. Akár módosíthat is rajta. Ez a része nekem például nagyon tetszik. Simán lehet szoftver rendernek nevezni.
Ki tudja mennyit keres majd Huddy papa. Bár gondolom többet, különben nem ment volna át. Amit a Gaming Evolveddel lerakott az jó ajánlólevél. Az Intel biztos nyerni fog vele. Náluk most pont ez hiányzik a szoftveres oldalon. Egyszerűen egy csomó játékot nem tesztelnek HD Graphics-on. Huddy ismeretei és kapcsolatai aranyat érhetnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Én tudom, de fura, hogy az Intel IGP jobb helyzetben van mint maga az AMD, nem gondoltam volna. Az AMD le fog morzslódni a piacról,az nVidiával nem fogják tudni tartani a lépést szvsz.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
Annyira új dolgok jönnek, hogy senki sincs jobb helyzetben a másiknál. Egyelőre senki sem tett le egy olyan APU-t, amiben a CPU és a GPU egységes címteret használ, és teljesen koherens memóriát oszt meg. Most kamu APU-k vannak, meg lesznek 2012-ben, amik ugyan heterogén módon programozhatók, tehát ténylegesen APU-k, de ennél több kell.
Annyi van, hogy az AMD-nek már kész van rá a hardvere, mert a Bulldozert tervezték a CPU-ra, és a GCN-t a GPU-ra. Az Intelnél a CPU rész valszeg nem sokat változik, míg a GPU-részt a Larrabee fogja adni, illetve ezt már MIC-nek nevezik. Utóbbi még nincs technikailag kész, de formálisan már igen. Az NV-nél a CPU-t az ARM-os denver adja, míg a GPU-t a Kepler. Előbbi még tervezőasztalon, utóbbi viszont formálisan kész, technikailag még nincs meg.
A többi már az üzleten múlik. Nyilván a játékokban az lehet nyerő, aki bepakolja a technológiát a nextgen konzolokba.
Valószínű még az előnyben lesz, aki leghamarabb tesz le egy ilyen rendszert. Arra kezdhetnek el fejleszteni az érdeklődők.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
P.H.
senior tag
Miért kell megélni mindent ilyen fekete-fehér módon, miért lenne csak az a kimenetele mindennek, hogy csak egy maradhat? (pl. miért gyárt még mindig processzort a VIA? Mert nyereséges.)
Az AMD nem hiszem, hogy lépést akarna tartani a jövőben az NV-vel, ahogy a CPU-knál az Intel-lel sem; abból a szempontból biztosan nem, hogy övé legyen a legerősebb akármelyikben. Próbálj meg összehasonlítani egy Brazos alapú notebook-ot egy GF590-nel: bizonyára nem az előbbi lesz erősen rétegtermék.
#25 Abu: Két dolog elgondolkotató:
- a relatív erős integer-feldolgozási rész, akár a GCN-t, akár a Fermit nézzük; ezt valaminek ki kell majd használni
- az AMD az épp következő generációs Bulldozert zárkóztatja fel ezen a a téren a GCN-hez (pl. BMI utasítások)
Most egy CU még gyengébb (az OoO-etetés ellenére) skalár integer-ben, mint egy sima BD integer-mag. De meddig?[ Szerkesztve ]
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
-
Löncsi
őstag
Én értem, de azt látom, hogy mindenki abból gazdálkodik amije van. nV-nél ott a Kepler hagyományos dGPU-hoz, Tegra meg jó lesz Tabletbe/telóba, ennyi, Ő nem is fog soha APU-t csinálni mert nincs proci lincensze, Te írtad annó (max majd a GPU lesz heterógén rendszer).
De az AMD-nél sok minden nincs, van APU, de ilyen van az Intelnek is, és láthatóan utóbbi fölényben van, a sima CPU pedig nem olyan jó mint a Core i-procik (szvsz), dGPU-nál meg ott van konkurensnek nVidia és játéktámogatás náluk jobb (szvsz). Mintha az AMD minden lovat meg akarni ülni, csak éppen székre esik, én egyedül konzolokba tervezett GPU-ban látom bennük a lehetőséget másban nem (de csak részemről tippelek, azt se tudom holnap mi lesz ).
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
Ó dehogynem fognak. Már régen megírtam (hivatalos forrásból), hogy a Kepler utáni Maxwell nem GPU, hanem egy APU lesz. Ők ugyanúgy rá vannak erre izgulva, mint mindenki. Az MS ARM-os nyalakodása pedig nyitja meg előttük az utat. Az, hogy nincs x86-juk, hát mennek ARM-ra. A Win 8 ideális első lépésnek. A Win 9 pedig kiterjesztheti a támogatást olyan minőségűre, amit az x86 kap. Az NV-nek ez nem sürgős, mert 2014-ben lesz leghamarabb Maxwelljük. Gondolom a Win 8-9 is olyan lesz, mint a Vista-Win 7. A Win 8 a nagyobb fejlesztés, míg a Win 9 elsősorban egy optimalizálás. 2014-ben simán befuthat.
Itt mindenki platformmal fog nyomulni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
P.H.
senior tag
Én több rációt látok ebben az írásban.
Ha most azt nézzük, hogy az Intel a 32 nm-es Atommal (és annak még mindig papíron létező driverével) most szabadon hagyta a 15W alatti területet úgy fél évre és az Ivy Bridge is első körben 17W-tal fog érkezni mobil területre, akkor az AMD-nek szabad terep ez most.
Amit linkeltél, az kb. sosem lesz
Egy OS se nem virtuális ISA-ra van megírva, se ilyen gyorsan változó hardverekre. Egy GCN-en nincs ring0-...-ring3, nincs natív megszakításkezelés, stb. Nem is kell, ez legyen a CPU-magok feladata. Csak mondjuk ezeken keresztül lehet memóriát foglalni, file-t elérni, képernyőre kitenni egy szöveges üzenetet valamilyen formában. Ennyi kell, hogy valami OS legyen. Ezt mindig is valós hardver-re fogják írni, és valós CPU-magokon fog futni.[ Szerkesztve ]
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
-
Pikari
addikt
a korábbi pletykák maximum 40 darab úgynevezett Execution Unit beépítéséről szóltak
csak?
új információk szerint azonban ez a szám inkább 20 lesz
A teljesítmény tekintetében az Intel 20%-os átlagos előrelépést vár a grafikailag megterhelő programokban
azt a rohadt. akkor a grafikailag megterhelő programok ezentúl nem 2, hanem 2,4 fps-en fognak menni? hát ez hihetetlen! ha az ufóknak ilyen technológiája lenne, biztos hogy azonnal leigáznának minket. elképzelni sem bírtam volna soha, hogy egyszer ilyen hatalmas teljesítményű hardverek lesznek a boltok polcain.mely területeken várható ekkora gyorsulás
hát, ha már az egyszerű polygonok renrederelés nem gyorsul, akkor majd biztos kitalálnak valami hülyeséget, hogy de bezzeg a magfizika szimuláció gyorsabb lett 50%-al (mi!?)Jöhetnek a játékok is
már előre izgulok, kiváncsi vagyok, hogy kiket fognak rávenni, hogy erre a csodára fejlesszenek, a megfelelő csúszópénzek kifizetését követően.A Dunning−Kruger-hatás az a pszichológiai jelenség, amikor korlátozott tudású, kompetenciájú vagy képességű emberek rendkívül hozzáértőnek tartják magukat valamiben, amiben nyilvánvalóan nem azok.
-
félisten
-
Pikari
addikt
válasz Plazmacucci #34 üzenetére
nem akar? nocsak! akkor miért van odaírva a cikkbe, hogy az Intel 20%-os átlagos előrelépést vár a grafikailag megterhelő programokban? :Đ
A Dunning−Kruger-hatás az a pszichológiai jelenség, amikor korlátozott tudású, kompetenciájú vagy képességű emberek rendkívül hozzáértőnek tartják magukat valamiben, amiben nyilvánvalóan nem azok.
-
-
félisten
-
Angel1981
veterán
Arról nem is beszélve, hogy a CPU rész, már gyakorlatilag "túl erős" a legtöbb alkalmazásban.
No mármost; ha a CPU-részt "felesleges", az IGP részt meg nem akarják (kellőképpen) fejleszteni, akkor hol az előre lépés?
Tudom, esetleg még ott a fogyasztás csökkenése, de ez önmagában szerintem kevés... -
Pikari
addikt
[/old gentleman]
[underage megmondóember]
Szerintem ez így fos lesz, dobják a francba az egészet, ha már úgyis 40 ,,futószalagot'' (sic) terveztek bele, akkor tegyenek bele mindjárt helyből 80at, plussz ha már ott járnak, akkor kapjon az igp egy önmagába integrált 64 megás extra gyors ,,cache'' memóriát, ami tud pörögni legalább 40 gbyte/sec transferrel, és ahol aztán elparáználkodhat magában az épp bözgetés alatt álló memóriaterület, pl a frame buffer.
aztán akkor a ,,grafikailag megterhelő'' szoftver mindjárt nem 2, hanem 30 fps-en fog futni.
[/underage megmondóember]
[old gentleman]
[ Szerkesztve ]
A Dunning−Kruger-hatás az a pszichológiai jelenség, amikor korlátozott tudású, kompetenciájú vagy képességű emberek rendkívül hozzáértőnek tartják magukat valamiben, amiben nyilvánvalóan nem azok.
-
Abu85
HÁZIGAZDA
Nem pont a EU-kon múlik ez. Nekünk itt fogalmunk sincs arról, hogy ez az architektúra, hogyan skálázódik. Ha szarul, akkor a 40 EU szart sem ér. Lehet, hogy 20 EU-ra jó a skálázás, így logikus, hogy ezt választják. Persze ilyen esetben lehet mondani, hogy szar az architektúra, de ezt nehezen lehet megváltoztatni ilyen rövid idő alatt. Valószínű, hogy a
Larrabeebocsánat MIC még nem áll készen az integrálásra, így ezen kell tovább főzni. Ezt az Intel jobban látja, mint mi.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Pikari
addikt
A kérdés az, hogy mi a limitáló tényező. A probléma megoldása pedig az, hogy azt javítják. Ez véleményem szerint már 6 éve várat magára. Megérdemlik a sorsukat.
A Dunning−Kruger-hatás az a pszichológiai jelenség, amikor korlátozott tudású, kompetenciájú vagy képességű emberek rendkívül hozzáértőnek tartják magukat valamiben, amiben nyilvánvalóan nem azok.
-
Abu85
HÁZIGAZDA
Az írás elveiben én is látok rációt, de egy picit érdemes logikusan gondolkodni. Az AMD Z-01-es tabletcucca mindent tarol teljesítményben, de 5,9 wattot fogyaszt, ami itt sok. A Z-02 ugyanez lesz, csak 4,5 wattos TDP-vel, ami már kedvezőbb, és ebből már lehet egy korrekt high-end tablet, de itt meg előjön a szoftver problémája. A Win 7 rossz tabletre, az Android képességei meg még gyengék ahhoz a szinthez, amit a Brazos-T platform tud. A Win 8-ig nem nagyon fog itt mit kezdeni az AMD. A nem hivatalos x86-os Androidot akarják kigyúrni olyan irányba, ami nekik kedvező (OpenCL, OVD API, C++ AMP), de mire ezt kihasználják, már rég egy éves lesz a Win 8.
Ez majd az Androidon egyre nagyobb probléma lesz, hogy a gyártók kezdik növelni az igényeket. Az OpenCL-ben benne van a Google, mert az minden gyártónak igénye, de mondjuk az NV CUDA-t akar, ami már baj. Az Android filozófiája az egyszerűség, és a Google egy csomó dologra saját API-t használ, de ezt meg fogja törni az, hogy a gyártók igényei eltérőek. Ilyenkor pedig előkerül az, hogy a gyártók egyéni Androidot akarnak, ami lehetséges, de akkor meg nincs Android Market.Persze. Szerintem se, csak érdekes. Találgatás van bőven.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez világos. Minden javítható, de az a kérdés, hogy megéri-e. Ennek az architektúrának a kuka lesz a sorsa, amint a Larrabee/MIC integrálásra kész lesz. Az is kérdés, hogy mennyire költséges a problémákat javítani.
Például az Ivy IGP-jében tipikusan problémának tűnik, hogy a 32 kB-os LDS a teljes 16 EU-n osztozik. Konkrétan egy LDS van az egész rendszerben. Ahhoz, hogy több legyen át kell tervezni az architektúrát, vagy esetleg megdupláznia a teljes tömböt, de az úgy néz ki, hogy tranzisztor szintjén nagyon drága lenne.Az Intel rendszerének tipikusan gyenge része a front-end. Az SB IGP-je 4 órajelenként raszterizál egy háromszöget, míg a Llano ugyanezt 1 órajelenként teszi meg. Gondolom, illetve remélem, hogy itt az Ivy előrelép. Az 2 órajelenkénti raszterizálás már elég jó, az 1 órajelenkénti pedig abszolút karaj. Tekintve, hogy a DX11-ben már a tesszellátor is játszik. A stream out kezelés szintén nagyon gyenge az SB-ben. Az Ivy itt biztosan javít, bár a megoldás végtelenül egyszerű, hiszen kiírják az adatot az LLC-be. Nem a legjobb, de az SB megoldásánál biztos sokkal hatékonyabb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sondi1986
addikt
Na gyönyörű, majd a játékok azért nem fognak megfelelően futni mert az intel IGP-re van tervezve!
-
P.H.
senior tag
A fogyasztási értékek szépek.
Milyen Intel-hardver (és milyen megbízhatósággal) fog megjelenni ebben a 4-15W szegmensben 2012-ben?"Ilyenkor pedig előkerül az, hogy a gyártók egyéni Androidot akarnak, ami lehetséges, de akkor meg nincs Android Market."
Szerinted miért csinált az NV ARM-os CUDA-t? A saját megoldásaikban sosem kerülne CPU-magokra CUDA-kód.[ Szerkesztve ]
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
-
arty
veterán
szerintem az intelt ismerve nem kell találgatni: az lesz amire ők pénzt adnak ha esetleg sikerülne a következő konzolokba is betolni a saját cuccukat, akkor pláne mehet mindenki amerre lát...
sötét jövő
"ugyanitt hazájából elüldözött nigériai herceg aranybányájának tulajdonjogát megtestesítő NFT jegyezhető."
-
ddekany
veterán
Ezt a Game-On dolog elég furcsa számomra... Az Intelnek nincs modern játékra való GPU-ja, és most sem lesz. Persze lehet, hogy emberek 95%-ának simán elmegy az a grafika ami ezzel megoldható, de nehogy már akkor ugyan az a játék ne nézzen ki jelentősen jobban egy akár csak középkategóriás AMD vagy nVidia cuccon, az meg kicsit furcsán veszi ki magát, ha egyszer az Intel nyomta a pénzt a fejlesztőknek.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A Cedar Trail kb. oda való. Az hivatalosan már megjelent, de a forgalmazás csak akkor kezdődik meg, ha végre kap a grafikus driver egy WHQL aláírást. Szeptember óta próbálkoznak, egyszer össze fog jönni.
Jön még a Medfield, ami egy komplett SoC megoldás. Úgy 2 watt lehet a TDP-je. Inkább mobil telóba szánják, mint tabletbe. Azután lesz Clover Trail, ami olyan, mint a Medfield, csak két maggal, és telepíthető rá Windows. Ez úgy 3 watt körül fogyaszthat, és tabletbe megy.
Persze teljesítményben a közelében nem lesz senki az AMD Z-02-nek. Arra szerintem 2012-ben nincs esély. Két darab 1 GHz-es Bobcat meg egy ~270 MHz-es 80 SP-s Radeon elég kemény falat ezeknek a mobil lapkáknak. Viszont egyik sem fogyaszt 4,5 wattot.
A teljesítményben az AMD nagyon elől át a tabletpiacon, de ez nem sokat ér, ha a fogyasztást nem tolják 3 watt alá. Aki a brutális teljesítményt keresi ezekben a gépekben annak biztos kedvező lesz a Z-02, de másnak nem igazán. 2013-ban lehet ezen javítani. Állítólag 2012 végén bemutatják a Samara lapkát, ami a pletykák szerint teljes SoC 28 nm-en, 3-4 wattban, két Jaguar procimaggal (Bobcat v2), és két GCN CU-val. Persze a Win 8-hoz időben jön még.Nyilván az NV is helyezkedik, de a CUDA a GPU miatt érdekes. A Google-nek ez mostoha lesz, mert nem gyártófüggetlen. Ezért fog szerintem az NV idővel saját Androidot csinálni. Ki kell szakadniuk a főverziótól, mert túl keveset kínál, miközben a hardver sokkal többet tud.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
P.H.
senior tag
"Állítólag 2012 végén bemutatják a Samara lapkát, ami a pletykák szerint teljes SoC 28 nm-en, 3-4 wattban, két Jaguar procimaggal (Bobcat v2), és két GCN CU-val."
Ez azért igen nagyot szólna, de ha megengeded, ennek a 2/3-át hiszem el így elsőre. Konkrétan a 2 GCN CU-t nem
Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Ozeki Kft.
Város: Debrecen