Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #38169 üzenetére

    Nem a DLSS-től nő a sebesség, hanem a felbontás leskálázásától. Valójában maga a DLSS, legalábbis a dedukció része is idő, vagyis ront a sebességen, viszont ugye a DLSS úgy van kalibrálva, hogy ha be van kapcsolva, akkor a hardver csak a natív felbontás 75%-át számolja. Emiatt szar helyenként a képminőség, ugyanis, ha nem ismeri fel az objektumot a neuronháló, akkor még rosszabb felbontásban kapod meg, mintha natív részletességet számolnál.

    Ha a felbontás nem csökkenne, akkor a DLSS is teljesítményvesztést okozna, hiszen extra számítás. A Microsoft megoldásával, ami majd tavasszal jön, a felbontás és maga az élsimítás független, vagyis a felhasználó bekapcsolhatja csupán az NNAA-t, miközben a felbontás maradhat natív. Itt már nyilván nem kell képminőségromlással számolni, mert még ha nem is ismeri fel a neuronháló az objektumot, akkor is minimum natív leképezést kapsz. Persze az igazi előny az Azure lesz, amin ingyen lehet majd tréningelni, ha a fejlesztő a neuronhálót csak DirectML-re használja. Ez tök egyértelműen arra megy ki, hogy az eljárást csak a Microsoft platformjai használhassák.

    (#38166) Simid: Na most az a dedikált egység igazából nem sokkal több egy cache-nél. Szóval azért ennek a hardveres megvalósítása nem nagy kunszt. Mindenki épített már hasonlót magának házon belül, hiszen tényleg nem nagy meló. Csak ugye az Imagination volt olyan bátor a Wizard architektúrával, hogy kiadja, de ugye nem mentek vele semmire. A legnagyobb ellenérv, hogy hiába van dedikált egységed, ha azt nem lehet elég gyorsan etetni. Ez szimpla matematika... 7 szint mély BVH ~80 bájtos adatmennyiség blokkonként. Ha az egységed képes teszem azt 5 gigarays/sec-re, akkor annak az etetésére 2,8 TB/s kell. Emiatt nem nagyon erőltette ezt senki, mert még nem vagyunk ezen a szinten. Hiába rakják bele a hardvert a GPU-ba, amíg nem raknak alá legalább 1, de inkább 2 TB/s-ot. Ettől persze évek óta fejlesztik ezt a háttérben, csak hiába a hardver logikai szinten való egyszerűsége, a tranzisztorigénye azért nem kevés, és általában a mérnök azt a kérdést teszi fel, hogy belerakja-e a lapkába a hardvert, vagy a tranyókat költse valós ALU-ra.

  • Yutani

    nagyúr

    válasz Petykemano #38169 üzenetére

    Csak akkor számít a képminőség romlás, ha azt az AMD eljárása okozza.

  • HSM

    félisten

    válasz Petykemano #38169 üzenetére

    Elég szomorú, hogy ez a trend... Kíváncsi leszek, mikor lesz alapértelmezett a 0,5X-ös resolution scale blur filterrel, utólag agyon élesítve. A DLSS is ha jól emlékszem, 0,75X-ös felbontáson számol natív helyett, így könnyű gyorsnak lenni, és persze magyarázza a gyengébb képminőséget is.
    Számomra elkeserítő, hogy ennyire csak az FPS a téma. Bár reménykedem, hogy újra a figyelem tárgya lesz a képminőség, ha sok annak rovására működő technika jelenik meg.

Új hozzászólás Aktív témák