Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Hellwhatever #4 üzenetére

    Játékfüggő. Vannak tipikus motordizájnok, amelyek az NV-nek fekszenek, DX11 alap, régimódi CPU-s kivágás, sok trükközési lehetőség. Az AMD-nek sokkal jobban fekszenek az új dizájnok, DX12-es alap, GPU-driven pipeline, compute. Ezért van az, hogy például a mi tesztünkben a DX11 főleg az NV, míg a DX12 főleg az AMD terepe. Persze nem az API miatt, de a modernebb API-val modernebbek a motordizájnok is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz apatyas #6 üzenetére

    Azoknak igazából hosszabb távon van jelentőségük. Például olyan formában, hogy a GeForce GTX 680 és a Radeon HD 7970 egyszerre jelent meg, és azóta a GTX 680 teljesítménye már sehol sincs. A HD 7870 is lazán elveri. Vagy például a GTX 780 Ti és az R9 290X viszonya, ahol a 780 Ti már lemaradt, de a 290X még tartja a lépest a GTX 970-nel, illetve az újabb játékokban a 980-nal is. A Deus Ex: Mankind Divided alatt a 980 Ti-vel versenyzik. Ezek a finomságok a megjelenés után egy évvel jelentkeznek, de ebben benne van az is, hogy az NVIDIA oldalán rendkívül gyors az architektúrák elavultatása, mert a fejlesztő dokumentáció nélkül nem tud önállóan dönteni. Érdemes lesz megnézni, hogy mire lesz képes például a Kepler a Battlefield 1 alatt, mivel a DICE korábban visszafejtette, így önálló döntéseket is tudnak hozni az optimalizálásnál. Ezekre minden játék alatt képes lenne az architektúra, ha engednék.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MiklosSaS #9 üzenetére

    Csak a felsorolt játékok leképezője sehol nem modern. A BF4 alkalmazza a legfrissebb technikákat ezek közül a maga tiled deferred rendszerével, és ez konkrétan három éves. A többi játék hiába újabb vagy sem, ha az alapot szolgáltató technika az előző évtizedből maradt meg.
    Ami ma, tehát 2016-ban modernek számít az a GPU-driven pipeline, texel shading, stb. A legfontosabb jelenleg zajló váltás a GPU-driven pipeline bevetése, és ezzel a kivágási munka átemelése a CPU-ból a GPU-ba. Ilyet alkalmaz az új Glacier, a Dawn és a legújabb Frostbite motor. Hasonló koncepció van az ID tech 6 és az ebből származtatott Void Engine alatt is, csak ezek alapja nem a GeometryFX middleware. Egy friss tesztben meg is lehet nézni, hogy egy GPU-driven pipeline motornak mi a hatása az erősorrendre: [link] - most még ebben a verzióban az AGS 4 teljesítménye nem torzítja el a Radeonok eredményét.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #13 üzenetére

    Éppenséggel de, mert például sokat volt emlegetve, hogy a mi tesztünkben az RX 460 összesítésben a GTX 960 nyakán van. Na most amit az RX 460 a DX11-ben elvesztett, azt a DX12-ben hozta vissza. Azért tudott a nyakára kerülni az összesítőgrafikonon. Máshol azért nem került oda, mert nem volt annyi DX12 játék a tesztben, mint nálunk.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz darkhorse #15 üzenetére

    A PresentMon miatt ilyen. Erre a programra valamiért nagyon haknis az új Deus Ex kódja. Ugye ez a program eleve nem a GPU fps-t méri, ami igazából a lényeg, hanem a CPU fps-t vagyis a presentek között eltelt időt. Na most a Dawn motor a temporális technikák miatt rendszertelenül hívja meg a presenteket, így a CPU fps nem egyezik majd meg a GPU fps-sel, illetve azokon a hardvereken amelyek aszinkron compute-ot is használnak a present meghívása származhat compute parancslistából is, amit például a PresentMon már nem lát, tehát ott a következő grafikai presentet fogja nézni, ami lehet akár 50-70 ms múlva is. Nem fogja a program érzékelni, hogy közben a játék kiszámolt 4-5 frame-et is.
    Erre utólag felhívták a figyelmet, hogy minden olyan mérés, ami a PresentMonból született fals mérés. Ezt a programot tovább kell fejleszteni, hogy kezelje azokat a szituációkat is, amiket az új Deus Ex is tartalmaz. Addig csak a beépített benchmark ad valós eredményt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #16 üzenetére

    Majd összemérjük a GTX 1050 2 GB-tal az RX 460 4 GB-ot. Ez van ugyanis előírva 140 dollárra, vagyis a legközelebb áll az RX 460-hoz. De erre valamikor novemberben kerülhet sor, mert előbb a 170 dodós 4 GB-os modellek jönnek az RX 470 4/8 GB ellen.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Hellwhatever #19 üzenetére

    A DX12 mód egyelőre preview, és csak a Radeonon gyorsít igazán. GeForce-on más kódutat használ, ami nem úgy skálázódik, mint a szabványos kódút, ezért a gyorsabb GeForce VGA-kon ez negatívba viszi a teljesítményt. Ezen lehet javítani, de Radeonhoz hasonló skálázódás már a kódút jellege miatt nem lehet, mert a GeForce-okon alkalmazott optimalizálás jóval nagyobb processzorterhelést jelent.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #25 üzenetére

    Nem a hírről beszéltünk. Arról nincs mit beszélni, mert le van írva, hogy miért nem lesznek ilyenek a Samsung lapkáiban. Marad az ARM, mert ők mindent tudnak, ami a Samsungnak kell, és mindent jó fogyasztás mellett. Az NV például már ott kiesett, hogy nem támogatják a HSA-t, míg az AMD igazából nem kell a HSA-hoz. Az ARM azért is jó megoldás, mert ők építik be a HSA stacket az Androidba.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #27 üzenetére

    A programozóknak ezzel még nem kell törődniük, mert most a beépítés történik. Nyilván ebben részt vesz a Samsung, a Qualcomm, az ARM, és még pár cég. A programozók ráérnek ezzel foglalkozni, ha megkapják az első bétát. De a gyártóknak muszáj dolgozniuk ilyenkor is, mert a béta ennek a munkának a gyümölcse lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DonLaca@ #31 üzenetére

    A processzorterhelés önmagában nem mond el semmit. Ami elmondana az a munkára lebontott terhelés. De az igaz, hogy az AMD DX12-es meghajtója másképp működik, főleg amiatt, hogy használhatja az API pure bindless bekötési szintjét. Ennek nyilván kihatása van az alkalmazásra, hiszen a driver így nem fogja elvenni a programtól az erőforrást, ami nem csökkenti a program futtatásának hatásfokát.

    (#32) Jack@l: A Google nem akar OpenCL-t. A Google a RenderScriptet akarja. A gyártók pedig ezt futtatni tudnák a HSA-n. Ennyire egyszerű. Az OpenCL is jó lenne, de ha nem akarja a platform szállítója, akkor hiába...

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #37 üzenetére

    Persze mert a gyártók akarják, és évek óta győzködik a Google-t, hogy az OpenCL jobb, mint a RenderScript. Csak az a baj, hogy a RenderScript a Google saját gyermeke, míg az OpenCL nem. Szóval győzködhetik még tíz évig a váltásról a céget, akkor is a saját érdekét tartja szem előtt, ami a RenderScript támogatása. Bármennyivel is jobb az OpenCL sajnos évek óta nincs előrelépés a Google álláspontját tekintve. Csőlátásban csak a RenderScriptet akarják.

    (#40) Jack@l: Szuper. De nem érted meg, hogy a Google nem akar OpenCL-t. Nem tudom, hogy miért, nem értem én sem őket, de nem akarják. Akadákoskodhatsz, kiverheted a balhét, véresre verheted a fejed a falban, akkor sem akarják...

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #43 üzenetére

    Mert egyetlen életképes indokot nem lehet felhozni mellette.
    A Parkert felesleges megemlíteni, mert 25 watt limitje. Még maga az NV sem beszélt az ultramobilról semmit, mert tudják, hogy nem skálázható le odáig. AMD GCN dettó.

    A cikkben leírt indokokon túl az is gond a Samsungnak, hogy ezek a cégek nem licencelésre szakosodtak. Az NV például csak úgy licencel, ha mindent zárva tarthatnak a licencelő előtt, ami a Samsungnak a háta közepére kell. Az AMD klasszikus formában nem licencel, mert 100 millió dollár/év alatt nem érdekli egyetlen üzlet sem, márpedig egy ilyen klasszikus GPU-licenc bevétele összesen 5 millió dollár/dizájn körüli, és itt már pezsgőbontás van!

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Abu85 #49 üzenetére

    Ehhez még annyit hozzáfűznék, hogy technikai problémák is lesznek. A mobilon a top motorok, mint az UE4 és a Unity5 Mali, Adreno és PowerVR optimalizálást kapnak. Az NVIDIA még a Tegra miatt sem kap optimalizálást, mert nem sok felhasználó használja a nagy egészhez képest. Szeretik ők a Tegrát, csak nem tudnak azzal mit tenni, hogy csak akkor látszanak a statisztikákban, ha legalább négy-öt tizedesjegyig vizsgálják a hardverek eloszlását.
    A Samsungnak ezt figyelembe kell vennie, és alapvetően az a GPU kapja a legtöbb figyelmet, ami az adott program célpiacán a legelterjedtebb. Ultramobil játék? Akkor Mali. Csak PC-s játék? Akkor GeForce. Multiplatform játék? Akkor a GCN(konzol)/Radeon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #51 üzenetére

    Nem értem honnan a sokkal elavultabb IGP? A Samsungnak ott az ARM BiFrost, mint lehetőség. Az az architektúra kb. az eddigi legjobb opció az ultramobil IGP-k között. Semmivel nem tud többet azon a fogyasztásszinten a GCN vagy a Pascal. Sőt... [link]
    Találgattunk mi már mindent az elmúlt években. Saját Samsung IGP, saját Apple IGP. NVIDIA az Apple SoC-ben, AMD az Apple SoC-ben. Ez nem a találgatásról szól, hanem arról, hogy az AMD és az NV nem tud olyan jó ajánlatot biztosítani, mint amilyen az ARM BiForst.

    Megmondom mi a baj a videóiddal. A kutya nem használja az ultramobil piacon az UE4 normál leképezőjét. A mobil leképző pedig gyorsabb Malin és PowerVR-en. Ezzel a két demóval kitörölheti a seggét az NV.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #54 üzenetére

    A Nintendo NX teljesen más kategória. Egyrészt abból eladnak a vállalat reményei szerint az első évben minimum 2 milliót, és majd a továbbiakban annyit amennyit. Másrészt maguk a játékárak is elmehetnek 60 dollárig, vagyis megvan az az alap, ami visszahozhatja egy olyan befektetésnek az árát, amiből tényleg jó minőségű PBR-t lehet felhúzni mobil szinten. Mert a kódját annak egyszerű megírni, a nehézséget a tartalomkészítés megugró költsége adja. Ha mondjuk Google Playben is elfogadott lenne a 60 dolláros játékár, akkor bármelyik mobil játék nézhetne úgy ki, ahogy az a két demó, és akármelyik top SoC futtatni tudná. A probléma a befektetés szintjén keletkezik, túl költséges a tartalom elkészítése ehhez a grafikai szinthez, és ~10-15 dolláros árral sose jön vissza a befektetés.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #61 üzenetére

    Ha a leggyorsabb érdekli a gyártót, akkor Mali-G71 MP32. Ez 850 MHz-es órajelen 652,8 GFLOPS 3 wattos fogyasztással. A Parker SoC IGP-je 1 GHZ-en 512 GFLOPS-ot tud 8 watton. Ég és föld a kettő. Esetleg megvárják a Series8XT-t, amire az Imagination 1,5 TFLOPS-ot ígér FP16-ra 2 watton belül, ami ugye FP32-vel 750 GFLOPS.
    Legalább háromszoros az energiahatékonyságbeli lemaradás függetlenül attól, hogy itt mindenki marha hatékonynak hiszi ezeket asztali GPU dizájnokat. Csak éppen nem veszi senki a fáradtságot, hogy regisztráljon a gyártókhoz, és kikérje a doksikat, amiből lehet számolgatni. Egyszerűen megnézitek az asztali teszteket, és "úh ez biztos jó mobilba is, hiszen mi lehetne ennél jobb". Hát kb. mindegyik friss ARM és Imagination fejlesztés.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #73 üzenetére

    Ha a gyakorlati rész érdekel, akkor a Mali még gyorsabb lesz, mert van egy rakás olyan specifikus trükkje, amit az UE4 vagy a Unity 5 ki is használ a kiterjesztéseken keresztül. Tile Local Storage ugye, amit az ARM tulajdonában álló Geomerics szállít az említett két motorba. Remélem nem kell mondanom, hogy az Enlighten mindkét motornál a main branch része. Egyébként a Tile Local Storage-et támogatja még az Imagination is. Mivel ilyen formában az ARM szállítja az elterjedt motorokba a forráskódot is, így eléggé nehezen verhetők.

    Nem tudom, hogy mi az a Pascal-alapú X2. Annyit tudni, hogy az NV törölte az idei ultramobil fejlesztését. [link]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák