Keresés

Új hozzászólás Aktív témák

  • con_di_B

    tag

    válasz b. #340 üzenetére

    De az nem olyasmi, mint a chipletek, hogy egy pontig külön vannak gyártva, és később vannak összegyógyítva, a GPU az interposer meg maga a HBM modulok? Szóval nem feltétlen húzza le mondjuk a GPU rész a kihozatalát, h HBM fronton meg mi van. Egyébként HBM-et úgy egyébként használnak, Amazon EC2-n a legnagyobb GPU instance-ek gépi tanulásra már az előző generációban is HBM-esek voltak, pedig az NVIDIA, szóval valaki csak kitalálta már, hogyan kell gazdaságosan gyártani. (V100, kolléga meg most linkelt A100-asokat is.)

    Meg mondom, én ilyen Titan árazású hülyeségre gondolok, az, hogy a "mainstreambe" miért nem ezt csinálták, az nyilvánvaló, az infinity cache-nél náluk marad a több zseton, HBM-nél meg mondjuk a Hynix-nél köt ki egy része.

    Nem mellesleg lenne még fogyasztási előny is, szóval be lehet dobni még egy pár végrehajtót. Órajelet nyilván nem kéne húzni, 6800XT az már így ránézésre is ilyen szokásos AMD féle "gyárilag szénné hajtott" chipnek néz ki.

    És akkor azt még mindig nem látom, h 6800-tól lefelé mi lesz, sokkal kisebb cache-t nem biztos h egyáltalán értelme van betenni. Lehet, hogy ott meg az lesz a poén, hogy nagyon olcsóak lesznek, és hagynak egy nagy lyukat a 6800 alatt?

    [ Szerkesztve ]

  • Kansas

    addikt

    válasz b. #444 üzenetére

    Nézőpont kérdése... mindkét esetben túlnyomó részt abból származik a teljesítmény-növekmény, hogy a natívnál alacsonyabb felbontáson renderel, az összes többi hókuszpókusz csak arra van, hogy ezt a tényt minél inkább elfedje a játékos elől.
    Extrém esetben, ha a monitorba/TV-be beépített felskálázó algoritmus kellően jó eredményt ad, semmi szükség bármi szoftveres/driveres trükközésre a PC oldalán a felbontás visszavételén kívül.

    Milyen Metro teszt? Ki hozta szóba? :F Control-ról volt szó leginkább, nem kis részben azért, mert a többi játékban nem igazán paraméterezhező a DLSS.

    Abban egyetértünk ezek szerint, hogy nem különösebben vagyunk oda ezekért a megoldásokért. :)

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #446 üzenetére

    Azért arra remélem figyeltél, hogy a DLSS-t csak élesítéssel nem lehet kiváltani elméletben sem, kell mellé egy kis terhelésű, tipikusan post-process AA is, sőt, az élesítés igazából csak azért kell, hogy korrigálja az AA által okozott elmosódást...

    "Én a natívban hiszek továbbra is az biztos, maximum a raytracing miatt áldozom fel magam a DLSS / Direct ML oltárán mert a 2070 már - remélem- kevés lesz." - pontosan. Annyi különbséggel, hogy én a RT miatt sem(bár az RX5700XT-n azért ez nem valós probléma ;) ), igaz, nekem nem fontos hogy az fps 60-70 fölött legyen... sőt, mivel a monitor 40-60Hz FreeSync kélpességgel bír, igazából már 45-50 is elég.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Új hozzászólás Aktív témák