Keresés

Új hozzászólás Aktív témák

  • b.

    félisten

    válasz huskydog17 #66846 üzenetére

    Igen sajnos ez így van de itt nem csak szottveres gondok vannak. Ez amit pl az xGMI nyújt egy hatalmas hiba amit nem fognak tudni orvolsoni. ez azért kiüti szerintem a bizosítékot sok cégnél. papíron 0.5% ból!!! 2-4 szeres lemaradás.
    EZt lehetne marketing hibának hívni de gyakorlatilag félrevezetés, nem csodálnám ha AMD belefutna valami kártérítésbe.

    " H100-on és H200-on a méretezhető szövet neve NVLink, és GPU-nként 450 GByte/s sávszélességet biztosít, és 8 GPU-t köt össze. Az MI300X-en a méretnövelő szövetet xGMI-nek hívják, és papíron 8 GPU-t köt össze, így GPU-nként 448 GByte/s sávszélességet biztosít. A felszínen az MI300X méretezhető hálózata rendkívül hasonló és teljesítményében közel áll a H100/H200 hálózatához, mindössze 0,5%-kal kevesebb papír sávszélességet biztosít. Sajnos a helyzet valósága élesen eltér.
    Először is, az MI300X xGMI-je pont-pont szövet, ami azt jelenti, hogy valójában nem biztosít 448 GByte/s sávszélességet a GPU-párok között. Ehelyett az egyes GPU-k csak 64 GByte/s sebességgel tudnak egymással beszélni. Egy GPU csak akkor érheti el a megadott 448 GByte/s sebességet, ha egy GPU egyszerre szólítja meg mind a 7 másik GPU-t. Ez azt jelenti, hogy a Tensor Parallelism TP=2 esetén a maximális sávszélesség 64 GByte/s, a TP=4 esetén pedig 189 GByte/s.
    Ezzel szemben, mivel az Nvidia NVLink kapcsolt topográfiát használ, az egyik GPU a teljes 450 GByte/s sebességgel tud beszélni egy másik GPU-val. Ezenkívül a H100/H200 négy NVSwitche támogatja a hálózaton belüli csökkentést (a továbbiakban: NVLink SHARP (NVLS).

Új hozzászólás Aktív témák