Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz lenox #1 üzenetére

    Annyira nem fura. A játék azért eltérő megterhelés, mint mondjuk a szimulációs feladatok. Számít, hogy milyen OS-t használnak, ahhoz van-e nyílt forráskódú driver, milyen jellegű a GPU virtualizációja. Egy rakás kérdésben teljesen mások az igények. Plusz bejönnek a képbe az olyan egyedi problémák is, mint az MS-nél a konzolra írt játékok, amelyek alá egyszerűbb direkten rakni egy hardvert, mint portolni. Bár valószínű, hogy az xCloud kiteljesedésénél már olyasmi, hardveresen virtualizált alapot képzelnek el, amit a Google tervezett. Egyszerűen a kihasználáshoz ez az ideális, mert nem túl kedvező, ha a pite játékok egy teljes 10 TFLOPS-os GPU-t kapnak, amikor bőven elég lenne ezek 16-od része is. És nem mindegy, hogy egy node fenntartási költségeit csak annyi felhasználó fizeti, amennyi GPU van benne, vagy legjobb esetben akár 16-szor annyi.

    Nyilván ez a telekommunikációs cégeknek sem mindegy, de azért ők nagyon messze vannak a Google anyagi lehetőségeitől. Kevésbé kockázatos megvenni a GeForce Now kész csomagját, még akkor is, ha nem ideális a virtualizáció szempontjából. A többletköltséget egyszerűen beledobják az árba és kész.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • [CsuCsu]

    őstag

    válasz lenox #1 üzenetére

    A Google eppenseggel AMD-t fog hasznalni a hardveres virtualizacio miatt. Tesla-kat kar jatekra fecserelni, tul draga es nem hoz sokkal tobbet.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz lenox #4 üzenetére

    Szerintem tudnák használni, csak kiszámolhatták, hogy játékra gazdaságtalan. A Google annyira ezzel nem lő mellé. Ha be is döglik a Stadia, akkor is lesz egy csomó számítási kapacitásuk máshova. Nagy kockázat tehát nincs benne, így pedig megéri minden területre a csúcstechnikát választani.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #6 üzenetére

    Munkafolyamattól függően tud csak. De játékokra például nem tudod így leosztani. A hozzá kínált szoftveres háttér ezt nem teszi lehetővé, módosítani pedig nem lehet, mert zárt. Az NVIDIA egy másik módszert használ a probléma kezelésére. Többféle teljesítményű GPU-kat raknak a rendszerbe, így a kevésbé megterhelő játékok a kicsi, míg a megterhelőbbek a nagyobb GPU-kra kerülnek kiosztásra. Csak nagyon nehéz belőni, hogy egy rendszeren belül mi lesz az általános felhasználói igény. Ha mondjuk egy központba kevés combos GPU-t raksz, és mindig ezekre van igény, akkor egy rakás kisebb GPU csak áll majd benne, de nem csinál semmit, miközben a fenntartási költség ettől még nem lesz lényegesen kisebb. Ezen a ponton nem sokra mész a perf/wattal.

    Az AMD és az Intel azért nyeri a nagyhalakat, mert máshogy működik a rendszerük. Az Intelé még nem, de ők már utalgattak rá decemberben is, hogy az Xe sorozat fizikai felosztású lesz, mint az AMD-é, ráadásul SR-IOV támogatással, ami nagyon sokaknak kiemelt fontosságú. Valószínűleg itt nyerték meg a Tencentet. A Microsoftért nem valószínű, hogy valaha is volt verseny, mert a konzol miatt nagyon az AMD-re vannak utalva, míg a Google 2019-ben akarta indítani, az egyetlen életképes megoldás pedig jelenleg az AMD MxGPU. Ha mondjuk 2021-ig vártak volna az indulással, akkor talán az Intel is opció lett volna. Az Amazont nem tudni. Tényleg sok függ attól, hogy mikor jön a szolgáltatás. Ha 2021 előtt, akkor az AMD-nek nagy sansza van. Ha 2021 után, akkor azért az NV és az Intel is lassan felzárkózik virtualizációban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #8 üzenetére

    Nem tudod fizikailag úgy felszeletelni, hogy x mennyiségű, adott API-kat használó alkalmazás biztonságosan fusson ezeken a szeleteken, egymástól teljesen elszigetelve. Nem engedi meg a rendszer technológiai fejlettsége.

    Az efféle megoldásokkal szemben három követelmény szokott lenni: a Hypervisor menedzsment legyen SR-IOV alapú, minden működjön a limitált pass-through mód nélkül, és az egymás mellett futó virtuális feladatok egymástól legyenek védve az adatbiztonság érdekében. Jelenleg az MxGPU felel meg mindnek, de tényleg az Intel már többször utalt rá, hogy ők is be fogják vezetni ezeket. Az NV még nem mondta, de nyilván ők is tudják, hogy hol vannak limitek a hardvereikben, tehát ahogy lesz megfelelő GPU hozzá, jönnek a fejlesztések is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Cathulhu

    addikt

    válasz lenox #1 üzenetére

    Googlenel az opensource volt valoszinuleg a donto. Az egyik fo RADV kontributor pl a googlenel dolgozik.

    Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell

Új hozzászólás Aktív témák