Új hozzászólás Aktív témák

  • Petykemano

    veterán

    (Abu!)

    Három kérdés.
    Láttuk az nvidia által megosztott saját mérésen, hogy az új gen 50%-ot tesz rá az előzőre. Ezt részben azzal magyarázzák, hogy a korábban csak fp32-t számoló magok már párhuzamosan int-t (int32?) is tudnak számolni. Nem vagy-vagy, hanem és. Vagyis ha egy workload tartalmaz ilyen és olyan számítást is, azt ügyes ütemezéssel párhuzamosan lehet futtatni.
    Ez már eléggé CPU téma, ott szokott ilyesmi ILP előjönni.
    Kérnék szépen tőled egy elemzést erről és egy összehasonlítást az async compute megközelítéssel.

    A másik dolog ez a dlss, ami még 50%-ot ígér. Ez nvidia-only fícsör? Vagy speciális számítási egységeket/módokat igényel? Erről is dobhatnál egy elemzést. Ha jól értem, az nvidia kigyúrta magát ML-ből és egyre inkább nem számolja a grafikát, hanem "kitalálja", "kiegészíti" ML alapon.

    Az nvidia számára eddig se volt elsődleges a képminőség, nem véletlen, hogy ma már ritka a képminőség-összehasonlítás a tesztekben. A különbség persze alig észrevehető, laikus szemek számára láthatatlan, vagyis tulajdonképpen elfogadható. Nyilván ez a dlss, vagy más Ml technikákkal kiegészített képrészlet esetén se lesz másképp, de ha jól értem tovább romlik a képminőség nő(het) a távolság az nvidia és az AMD gpu által adott kép "helyessége" között.

Új hozzászólás Aktív témák