Új hozzászólás Aktív témák

  • Petykemano

    veterán

    válasz Abu85 #527 üzenetére

    Egyébként, Abu, miért most találták ki vagy jutottak el az infinity cache gondolatához?
    Elég régóta ismert tény ,hogy a memória sebességének fejlődése nem tart lépést a feldolgozási sebesség fejlődésével, az összes cache layert ennek a problémának a kezelésére találták ki.
    A GCN kezdetektől fogva igényli a nagy sávszélességet, kezdetben 384 vagy 512 bit széles memóriaveszérlőkkel jöttek, aztán meg a HBM.

    Miért csak most jutottak fel oda, hogy cache méret növelésével csökkenteni lehet a sávszélesség-limitációt, ami egyrészt javíta a teljesítményen az alacsonyabb késleltetések révén, másrészt feltételezem, hogy az sem egy új felismerés, hogy a legenergiaigényesebb folyamat az adatmozgatás, tehát még energiát is lehet spórolni.

    Persze nyilván nem hülyék ülnek ott. (Bár nem kizárt az se, hogy nem volt meg a megfelelő szaktudás, hiszen ezek a dolgok a Zen-team-től szivárogtak át) Meg biztosan "így volt optimális" akkor és ott.
    De mik a konkrétumok? Miben lett volna rosszabb egy polaris vagy egy vega 10, ha nagyobb az L2$ vagy esetleg megpróbálnak valamekkora L3$-t hozzáadni?

    Találgatunk, aztán majd úgyis kiderül..

Új hozzászólás Aktív témák