Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz tlac #9 üzenetére

    Mert ugyanazt a GPU-t kapják. Aztán rakhatják 10 GB-osra, vagy 12 GB-osra. Mindkettőre jó. Ennyi. Attól függhet majd ez, hogy mennyi memóriát tud szerezni a gyártó. Nyilván, ha eleget, akkor mindegyik GPU-t rárakják 12 GB-osra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Иван #28 üzenetére

    Nem. A lapka ugyanaz. A gyártóknak van 10 és 12 GB-os NYÁK-uk. Aztán a memóra rendelkezésre állása függvényében döntenek arról, hogy melyikre használják a vásárolt GPU-kat. A 10 GB-os verzión nyilván 64 bitnyi busz nincs kivezetve a NYÁK-ra, de ettől még a lapka kompatibilis. A BIOS majd mondja neki, hogy melyik buszok vannak kivezetve.

    Ez igazából egyszerűsítés az NVIDIA számára, mert már így is kezelhetetlenül sokféle modellt hitelesítenek. Nem hiányzik nekik egy x+1-edik. Majd a gyártók megoldják, vannak annyira felnőttek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tlac #30 üzenetére

    Igen. De a driver is eldöntheti, csak az könnyebben feltörhető. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz regener #35 üzenetére

    Nem, mert nincs rajta a +2 GB-nyi RAM, és a BIOS keresni fogja.

    #37 tlac : Ez manapság általános, még ennél is több mag van benne. A gond az, hogy ez le van védve egy kulccsal, szóval az ilyen módosítások manapság már nem működnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tlac #40 üzenetére

    Növelni nem nehéz, mert a csatornák ott vannak. Csak kicseréled a lapkákat nagyobbra.

    #41 b. : Az már itt nem számít. Ahhoz túlságosan kiforrott a Samsung 8 nm-es node-ja. Nincs is már per modell szintű válogatás. Egyszerűen többe kerülne, mint egy adott modellverziót leválogatni, és azt többféle VGA-ra felhasználni. Ilyenkor a letiltás-feloldás plusz órajeljáték már csak a fogyasztásnak szól.

    #42 --Disztroj-- : Technikailag megoldható lenne a 20-24 GB, de az a gond, hogy a Micron a 2 GB-os GDDR6X-et az 1 GB-os árának ötszörösében méri, holott ennek a kapacitása csak a duplája, az előállítási költsége pedig nem is magasabb sokkal az 1 GB-os modellnél. Szóval a Micron ugyan teljesítette a 2 GB-os ígéretét, de adtak a szarnak egy pofont, mert jóval olcsóbb kétszer annyi 1 GB-os GDDR6X-et venni a VGA-kra, amit viszont már eleve nagyon drágának tartottak a gyártók.

    Mobilban azért vannak 16 GB-os modellek, mert ott sima GDDR6-ot használnak, ami több nagyságrenddel olcsóbb memória. Köszönhetően annak, hogy ha esetleg a Samsung ára nem tetszik, akkor kéred olcsóbban mondjuk a Hynixtől. A GDDR6X esetében ezt nem lehet eljátszani. Vagy kifizeted, amit a Micron kér, vagy elküldenek a fenébe.

    #45 hokuszpk : Azt nem lehet megcsinálni. A mai rendszerek már nem olyanok, mint régen. Elég komoly le vannak védve ahhoz, hogy ne tudj mikrokód szintjén módosított BIOS-t belerakni.

    #49 NandoXXL : A csúcskategória és a belépőszint nem ugyanaz. Belépőszinten elég a 4 GB is, mert a GPU ereje nem akkora, mint egy csúcshardveré. Manapság a legnagyobb memóriazabáló a ray tracing, és azt aligha fogod bekapcsolni egy "olcsó" GPU-n.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Иван #52 üzenetére

    Ilyen van a sorozat elején, de a 8 nm-es Samsung node elég öreg. Az NV binneli a GPU-kat, de ma már nem per VGA szintjén. Van pár GA102-akármi verzió. A 10 és 12 GB-os 3080-ra gyakorlatilag mindegyik GA102 verzió jó. A gyártó szabadon eldöntheti, hogy 10 vagy 12 GB-osra rak ezekből, attól függően, hogy van-e elég memóriája az utóbbihoz.

    Eleinte azért van sok verzió, mert jó a binnelés, új a hardver, új a node, de másfél év alatt csináltak legalább egy új steppinget, így ma már nincs akkora értelme annyira binnelni, mert az több pénzbe kerül, mint nagyobb kategóriára hitelesíteni egy GPU-kat. Ezért van az, hogy a manapság gyártott 3080-ak kapnak GA102-250-et is. Így olcsóbb, fejlődött annyit a gyártás másfél év alatt, hogy nem kell már kismillió eltérő verziót válogatni, ami igazából az elején hasznos, de idővel csak pénzkidobás.

    Ebből a szempontból az NV nem hazudik. Szállítanak olyan GA102-ket, amik jók a 10 GB-os 3080-hoz. Aztán a gyártók majd eldöntik, hogy mennyi ilyet gyártanak még. Valószínűleg annyit, hogy a még meglévő NYÁK-okat és komponenseket kiszórják, aztán csak 12 GB-osra állnak át, mert GDDR6X memóriából nincs hiányuk.

    Ezt egyébként kb. mindenki így csinálja. Az AMD-nek is volt elég sok GPU-verziója az elején, aztán manapság már csak egy verziót szállítanak mindegyik Navi lapkából. Volt pár új stepping és fejlődött annyit a gyártástechnológia, hogy a kihozatal gyakorlatilag nem gond. Eleinte például válogattak Navi 21-et a Radeon RX 6800-ra. Az új steppinggel ez felesleges, mert gyakorlatilag mindegyik lapka felhasználható a 6900 XT-re is. Némi túlzással szökőévente van egy olyan, ami nem jó rá, azt meg kidobják, mert olcsóbb így dolgozni, mint három eltérő rendszerre válogatni.

    Ez a jövőben is így lesz. Eleinte megy majd a binnelés, aztán egy-másfél évre rá javul annyit a kihozatal, hogy hasztalan erre sok pénzt fordítani.

    #53 goodboy007 : 14 dollár környékén megy az 1 GB-os GDDR6X lapka, és kb. 70 dollár a 2 GB-os verzió. Utóbbi simán mehet lejjebb, ha többet gyártanak belőle, de egyelőre pont azért irtóznak tőle a gyártók, mert két 14 dolláros 1 GB-ossal is ugyanott vannak, és spóroltak rajta csatornánként ~40-50 dollárt, vagyis a leadott rendelés se igazán nő.

    #54 Chaser : GDDR6X-et csak a Micron gyárt. Ezt a memóriát a JEDEC nem szabványosította, így meg kellene egyezni a gyártóknak a Micronnal a licenceléséről. Azt meg kb. senki sem akarja. A Samsung főleg nem, mivel már elérték a GDDR6 szabványon is a GDDR6X sebességét, így pedig minek.

    #55 b. : De ez nagyon az elején volt. Ha nem tudja egy bérgyártó másfél év alatt megoldani ezeket a problémákat, akkor be kell zárnia a boltot és el kell menni zöldségesnek. Ez színtiszta fizika. Gyártod, tapasztalatot szerzel, és megoldod a problémát. Ma már a kezdeti gondok nem léteznek. Majd 4-5-6 nm-en lesznek újak, amiket megint egy év lesz megoldani, de az más kérdés. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Komplikato #75 üzenetére

    Ha nem JEDEC szabványt használsz memóriaként, akkor benne van a pakliban, hogy a versenyhelyzetre nem kényszerített memóriagyártó annyit kér az új lapkákért, amennyit akar. Ha nem tetszik az ár, akkor sem tudod mástól megvenni, mert nem szabványos a memória.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Chaser #79 üzenetére

    Kereslet kínálat alapon működik ez. Ha a gyártók sokat rendelnek, akkor többet gyárt majd a Micron és olcsóbb lesz. De ha alig rendelnek, akkor úgy van vele a Micron, hogy nem kell, így a gyártást is az 1 GB-os chipre koncentrálják.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Chaser #87 üzenetére

    Állítólag a 3090 Ti-n ez lesz, de a fene se tudja biztosra.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dragon3000 #142 üzenetére

    Ez azért van, mert a COD motorja az elmúlt egy-két részben dinamikus grafikai beállításokat használ a textúrákra. Úgy működik, ahogy a Capcom motorja a Resident Evilben. Mindegy, hogy mit állítasz be a textúrákra, az csak egy lehetséges maximumot jelent, ha nem fér bele a VRAM-ba, akkor elkezdi az egyes textúrákat alacsonyabb részletességűre cserélni. Ha pedig van elég sok VRAM-od, mondjuk 16 GB-od (az már bőven elég), akkor befér mindenből a max részletesség. Szóval nem szemetet tárol ott, hanem felismeri, hogy a kért részletességhez nincs elég VRAM-od, és automatikusan korrigálja a részletességet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #144 üzenetére

    Láttam. Csak nem ettől függ a dolog, hanem a megírt kódtól.

    #145 Dragon3000 : Arany életünk lenne a tesztelésnél, ha bejönnének a játékoknak ezek az adatai. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #147 üzenetére

    És fut is, hiszen úgy írták meg a motort, hogyha elfogy a VRAM, akkor ne dögöljön meg, hanem cserélgesse kisebb részletességűre a betöltött tartalmakat. Nem teljesen értem, hogy ezzel a megoldással mi a baj. Nem ez az első játék, ami ezt csinálja.

    Össze tennék sokan a kezüket, ha például a Far Cry 6 ezt csinálná, mert akkor nem kellene egy csomó tereptárgyra low minőségű textúrákat használni, mert a motor nincs felkészülve arra, hogy dinamikusan döntsön erről, tehát vagy mindent megkapsz, vagy semmit, ami hülyeség, ennél sokkal elegánsabb az a megoldás, amit a COD használ. [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #149 üzenetére

    Ezt nem lehet kimérni. Az a lényege az ilyen rendszernek, hogy transzparensen működik. Hogy ne vedd észre. Egész korrekt textúrákat használ a motor, csak ha nincs elég VRAM-od, akkor nem biztos, hogy egy adott területre betölti a max részletességet. Lehet, hogy pont egy low részletességgel találkozol az adott jelenetben, ami megmagyarázza, hogy miért tűnhet egyeseknek 2010-es szintűnek. És innen az is bekövetkezhet, hogy pár perc múlva visszatérsz az adott jelenetbe, majd jobb minőségűnek látod a textúrát. Folyamatosan változik.

    Ez régen azért nem működött, mert DX11-ben marha drága volt törölni. DX12-ben és Vulkan API-ban viszont olcsó. Ez teszi lehetővé ezeket az újításokat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #151 üzenetére

    Az leginkább egy tipp, még az AMD oldaláról is. A probléma az újabb API-kkal, hogy magának a drivernek sincs halvány lila dunsztja sem arról, hogy mi hol van a VRAM-ban, és mi mennyi helyet foglal. Ezt az alkalmazás tudja, de erről sincs teljes kép, viszont legalább az erőforrásokat nyomon lehet követni. Ezzel lehet megtudni, hogy egy adott felvett frame mennyi VRAM-ot használt: [link] - Az AMD driveres megoldása tippel a terhelés alapján, de a pontossága +/-40%. Ez azért nem okoz különösebb felháborodást, mert senki sem hasonlítja össze a driveres tippet a RMV-vel, mindenki bekajálja, amit a driver mond. De ha az pontos lenne, akkor nem kellene a fejlesztőknek egy RMV. :)

    Nincs baj a 10 GB-os 3080-nal sem. A lényege ennek a megoldásnak a transzparens működés, hogy ne küldje padlóra a VGA-d. Sokkal inkább az olyan megvalósításokkal van gond, mint amilyen a Far Cry 6-é. Ott be is szarik a 10 GB. Ha a Far Cry 6 ugyanolyan megoldást használna, mint a COD, akkor 10 GB-os 3080-on is simán hozható lenne a high részletesség. Jó néha töltene pár objektumra low részletességet, de kb. észrevehetetlen. Egy játékmenet az nem pixel peeping.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Soulles #154 üzenetére

    Nyilván azért cserélte le az NV csendben egy 12 GB-os modellre, mert a 10 GB nem elég. Tehát a 12 GB hosszú távra sokkal jobb vételnek számít. Az a kérdés, hogy mekkora az árkülönbözet, mert most elég nagy lehet, és beleszámolva azt, hogy a next-gen kártyák közül a legkisebb Navi 33-on már futnak a programok, és vonalzóval csapkodja a Radeon RX 6900 XT hátát, miközben kiépítésben sokkal inkább hasonlít egy 6600-ra a 128 bites buszával.

    A next-gen nem sok jót jelent majd a most sok százezerért megvett VGA-k kapcsán. Innen nagyon sokat számít, hogy az ember kétszáz vagy háromszázezret akar bukni fél év alatt, és általában egy százas különbség lesz a 10 és 12 GB-os modell között.

    Úgy reálisan nézve drága, százezer forint fölötti VGA-t most semmi értelme venni. Az egy nagy pénzégetés, mert az év végi next-gen bohócot csinál belőlük, miközben az értékük heti szinten fog ötven rongyot esni.

    Az NV is tudja amúgy, hogy a memóriakapacitásban problémás választás volt a GDDR6X, de nincs nagy gyorsítótáruk, mint az AMD-nek, hogy bevállalják a GDDR6-ot, tehát persze sokkal több értelme lett volna a 16 GB-nak, csak nem volt megvalósítható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák