-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz
Alogonomus
#57299
üzenetére
Minden skalazo eljarast igy kell beepiteni minden cegnek....fejlesztoeszkozok nelkul nem tudnak beepiteni se a DLSS se FSR-t.Nincs oyan hogy jatek magatol kinal skalazashoz temporalis es mozgasvektor adatokat a tamogatott felbontashoz .
ezt implementalni kell kiveve ha beepulo,mint az Unrealnal,de az van DLSS nel is.A DLSS tamogatottnal azert 3 nap az FSR 2.0 ,mert azt nvidia megtette mar, a jatek rendelkezik megfelelo elokeszitessel,optimalizalni kell ezeket es forditva is.
Tehat a grafikon azt jelenti hogy a temporalis eljarasi adatokkat nem rendelkező jatekot el kell latni ezekkel es ez 1 honapot is igenybevehet.Ezt mindegyik gyartonal es eljarasnal igy van ,DLSS nel is 1 honap. -
Alogonomus
őstag
Pont úgy értelmezem, ahogy írtam is fentebb.
A temporális adatokat magától nem biztosító játékmotorok esetén az FSR 2.0 rendelkezhet eszközökkel a temporális adatokat saját maga számára előállítani. Ez persze jelentősen megbonyolítja az FSR 2.0 implementálását, ezért nem a 3 napos véglethez lesz közel az időszükséglet, hanem heteket, vagy esetleg hónapokat is igényel majd. -
válasz
Alogonomus
#57297
üzenetére
Szerinted mit jelent a jobb széle a grafikonnak illetve hogy ertelmezed ezt?
Tenyleg erdekel ,nem kotekedes. -
válasz
Alogonomus
#57295
üzenetére
Ez 1.0 nem hasznal temporalis adatokat az eljaras.
A 2.0 temporalis adatokkal dolgozik,fel kell kesziteni ra a motort/jatekot mint a DLSS es XeSS eseteben ugyan úgy.
Az FSR 1.0 szerintem ennyi volt jon helyette az RSR (nvidia NIS) ami minden jatekban aktivalhato.Ha kap elokeszitest a HUD ot nem skalazza a jatek.tehat lesz RSR es NIS nativ es elokeszitett es FSR 2.0 DLSS 2.3-3.0 temporalis.
mindharom ceg egyseges utat kovet es Nvidia NIS es a DLSS utan mennek mert ez járható minőség terén. -
Alogonomus
őstag
válasz
Raggie
#57292
üzenetére
Az FSR 2.0 látszólagos nagy előnye, hogy az AMD állítása szerint olyan játékokhoz is alkalmazható, amiknek a grafikus motorja nem támogatja/biztosítja a temporális adatokat. Sőt akár magát a mozgásvektorokat sem támogató/biztosító rendszeren is működik. Valószínűleg maga az FSR keretrendszer képes a szükséges adatokat magának előállítani, ha a játék motorjától azt nem kapja meg. Ezért is készülhetnek az ilyen rajongói kiadások, ami a DLSS esetén nem lehetséges.
-
válasz
Alogonomus
#57289
üzenetére
[link]
reméljük hamarosan általános lesz a pár napos implementáció a gyártók eljárásai között. -
válasz
Alogonomus
#57289
üzenetére
Erről beszélek.A 3 nap azokban a jatekokban ahol van DLSS 2.0 tamogatas.
Ahol nincs az ugyan úgy több hetes /havi meló amit a kutya nem fog belefektetni regi jatekokba.osregi grafikus motorokban meg nincs szukseg felskalazasra.
Nem tudsz teszteredmenyeket hogy kijelento modban beszelhessunk.A megjelent promó képeken a DLSS meg mindig jobb eredmenyt ad.mivel egy atlagos neuralis halot hasznal mar a tobb hetes meló itt is adott.innentől megint az van ki melyik jatekot promóciózza,támogatja.Befektetett munkat igényel minegyik megoldas,ami penz.Ettol fuggetlenűl en orulok a fejlodesnek.Nezz utana dolgoknak mielott szamokat irsz le.
-
Alogonomus
őstag
Speciel te nem értetted meg a cikk több megállapítását.
A DLSS 2.3 szintjét biztosítja egy 3 nap és egy hónap közötti szoftveres munka eredményeként. Ráadásul még ősrégi grafikus motort használó játékokhoz is igazodik. A DLSS ezzel szemben egy hosszú/drága és Nvidia szerverfarmokat igénylő feltanítási fázis után áll rendelkezésre.
A másik figyelmetlenséged pedig, hogy az FSR 1.0-val szemben az FSR 2.0 azért komolyabb kártyát igényel, így a GTX 1060-on már 1080p esetén sem ígérnek optimális működést.
Persze a 720p még ott lehet majd a GTX 1060 kártyákhoz.
A DLSS 2018-as kezdeti szárnypróbálgatásai csak kényszer szülte opciók voltak, hogy legalább valamire használhassák a Turing kártyák RT magjait. Nem is készült belőle a 2 játékcímnél többhöz megvalósítás. Az FSR 1.0 a DLSS 2.0 ellenfele volt, és a könnyű integrálhatósága mellett is minimális mértékben volt csak gyengébb az Nvidia technológiájánál. Az FSR 2.0 pedig továbbra is könnyen integrálható technológiaként már valószínűleg minimum felért a DLSS 2.3 szintjére.
-
gejala
őstag
Itt az elterjedés lesz a kérdés. Még mindig nincs túl sok játékban FSR, ha meg kivesszük azokat, amiben nincs DLSS, csak FSR, akkor pláne kevés.
Merthogy előbb-utóbb mindenki lecseréli a kártyáját, ha PC-n akar játszani és a statisztika szerint 80% GeForce-t vesz. Tehát a nagy többségnél menni fog a DLSS, csak azok a játékok érdekesek, amiben nem lesz. -
válasz
Alogonomus
#57286
üzenetére
Megint nem értetted meg a cikk tobb elemét.
Csak kitetelkent a gsync parhuzamhoz DLSS 2018 ota van,2.0 2 eve. az FSR2.0 pedig 2022.4 és 2 év valamint a hardveres Gsyncet is minosegben jo sok idobe telt utolerni.
Minosegben meg mindig nem DLSS 2.3 a tesztek szerint,de kozel van hozza ami nagyon jó dolog ,arról nem is beszélve,hogy megy egy GTX 1060 karin is.kivancsi leszek Intelre mit produkál.l -
Alogonomus
őstag
Ez túl szépen hangzik, hogy igaz legyen.
FSR 1.0 kapcsán is elhangzott több helyről, hogy nagyon egyszerűen és gyorsan implementálható, de az FSR 2.0 kapcsán állítólag már az AMD is megerősíti ezt.
A másik erős állítás pedig, hogy már nem csak TAA nem kell az FSR 2.0 használatához, hanem már a mozgásvektorok támogatása sem szükséges az FSR 2.0 alkalmazásához.Ma kiderül, de amennyiben ez igaz, akkor valóban egy újabb G-Sync <---> FreeSync helyzet lett a vége.
-
Petykemano
veterán
navi3x bringup (március 4-én történt, ma derült ki, hogy navi3x-re vonatkozik)
[Greymon]tape out→wafer out→bringup
A tape out általában ~12 hónapot szokott jelenteni.
Tehát valószínűleg olyan 6 (5-8) hónap távolságra lehetünk a Navi3x kiadásától.Bátorkodnék inkább a korábbi időpontra saccolni (5-6 hónap) a következők miatt:
- állítólag az N5 lead time sokkal rövidebb. (Már az N6 lead time is) Ez azt jelenti, hogy az EUV kiterjedt használata miatt gyorsabb a megmunkálás, egy beküldött rendelésből hamarabb érkezik vissza eladható termék.
- ha minden jól megy, akkor júniusban megtörténik a merge, ami ha nem is 100%-ban, de a korábbiaknál nagyobb mértékben hordozza magában azt, hogy a kriptobányászat (tehát nem a kriptopiac, csak a bányászat) megrogyjon (tehát nem beomoljon, csak megrogyjon) és nagyobb mennyiségben kerüljenek a használt piacra korábban bányászatra használt kártyák.
Az AMD-nek és az Nvidiának legkésőbb ekkor át kell állítania az eladásait az új kártyákra, mert ha a bányarogyás megtörténik, akkor a most értékesített kártyáikat már csak bagóért tudnák eladni. -
Abu85
HÁZIGAZDA
válasz
Alogonomus
#57275
üzenetére
A driver méretét nem ezek a kódok növelik jelentősen, hanem a vezérlőpult, vagy jobban mondva vezérlőpultok, mert az NV-nél ugye erre kettő is van.
#57273 Komplikato : A jelenlegi DirectStorage verzió azért van, hogy most már azért élesben is lehessen tesztelni a rendszer működését. Nyilván ez még nem a felhasználóknak szól, de abból a szempontból fontos, hogy jöjjenek majd a tényleges alkalmazások.
-
gejala
őstag
válasz
Alogonomus
#57281
üzenetére
Nem kell új driver a DLSS bekapcsolásához. Én már több játéknál is használtam úgy RT/DLSS-t, hogy hónapokkal régebbi driveren voltam a játék megjelenéséhez képest és semmi gond nem volt.
Ezek a Game Ready profilok 10-ből 9 játéknál semmit nem számítanak (a maradék egynél grafikai hiba/crashelés miatt kell feltenni). Sőt, olyan is volt már nem egyszer, hogy a GR driverrel rosszabbul működött a játék, mint egy korábbival. -
Alogonomus
őstag
Ahogy fentebb paprobert kolléga is említette az örök igazságot: Ha csak a reklámszövegből ki lehetne indulni...
A DLSS 2.x uniformizált, de továbbra is valószínűleg össze kell hangolni a játékot a DLSS funkciókkal, hiszen különben ugyanolyan egyszerűen (állítólag pár hetes fejlesztői munkával) fel lehetne ruházni minden játékot a DLSS képességével, ahogy az FSR képességével.
A DLSS 1.x esetén valószínűleg az adott játékhoz kellett igazítani a neuronhálót elkészítő algoritmust, míg a DLSS 2.x már egy univerzális algoritmust használ, amit csak "rá kell ereszteni" az adott játékra, és elkészíti az adott játékhoz passzoló DLSS profilt. Aztán ez elkészült neuronhálót már tudja használni minden DLSS 2.x verziójú megoldás. Ezért lehetett nem hivatalosan működésre bírni a 2.2 és később a 2.3 változatot is file átmásolással.
Teljesen univerzális DLSS neuronháló esetén nem kellene felsorolni a driver kiadásakor, hogy melyik játékhoz érkezik meg a driver által a DLSS lehetősége, hiszen általánosan elérhető lenne a DLSS állományok bemásolásával.
A teljesen univerzális megoldást a NIS jelenti, amit ugyanúgy be lehet kapcsolni, mint az érkező RSR-t. -
Cifu
félisten
válasz
Alogonomus
#57275
üzenetére
Azért számít, mert a DLSS elterjedését leginkább az akadályozta, hogy az adott játék teljes játékteréről és az opcionális felszerelésekről is el kell készíteni a neuronhálót, ami:
Ez a DLSS 1.0 esetén volt így. A DLSS 2.* óta egy uniformizált rendszert használnak, ezért lehetett nem hivatalosan aktiválni a 2.2 majd 2.3 verziót például a Cyberpunk 2077 alatt.
-
Televan74
nagyúr
Ott van a linkelt cikk végén!
AMD Radeon Super Resolution on March 17th
Furthermore, AMD confirms it will finally launch RSR on March 17th, this is the official date for the new driver to launch. The RSR is basically FSR but working on a driver-level for all games. There are two things to consider though, it only works on Radeon RX 5000+ GPUs, and it will offer lower quality than FSR because the algorithm upscales the whole frame (including user interface and menus). -
válasz
Alogonomus
#57275
üzenetére
Még egyszer megkérdezem miért számít ez egy AMD felhasználónak az FSR szempontjából egy kizárólag Nvidia kártyán működő felskálázó eljárásban bármit is a Driver mérete , az Nvidia felhasznált erőforrása, és hogy melyik címekben van bent?
Plusz ott a NIS ami ha nem optimalizált akkor is működik elég jó eredménnyel.sima on/ off és egy csúszka hozzá. Nem kell semmiféle AI és háló hozzá, működésben közelebb áll az FSR hez mint az FSR a DLSS-hez.
Ha jól számolom egy Nvidiásnak minimum 2 maximum 3 választása van van felskálázásra, egy DLSS, egy NIS és az FSR.
A NIS re jön egy AMD féle válasz mostanában, nem jutb eszembe a rövidítése,de amúgy a NIS is működik minden újabb AMD GPU-n is. [link]
Konkrétan nem látom mit veszít bárki is a DLSS 2.3. jelenlétével az AMD felhasználótáborban. Nekünk ez egy plusz szolgáltatás, jelenleg a legjobban működik és ez nem 2022 ben jön hanem kint van pár éve, már mint maga a DLSS.Ha már felesleges lesz kiiktatják addig meg elég sok jó címben segítséget nyújtott.
Tehát felesleges lenne a VS megint tőled, elfér egymás mellet szépen az FSR a DLSS és a NIS meg ami jön .
Amúgy nyugtával dicsérd a napot, melyik kártyákra lesz elérhető az új FSR. Minőségre biztos, hogy jó lesz ,ezt nem vonom kétségbe, de azt már igen hogy minden GPU támogatott lesz e akár AMD oldalon is. -
Alogonomus
őstag
Azért számít, mert a DLSS elterjedését leginkább az akadályozta, hogy az adott játék teljes játékteréről és az opcionális felszerelésekről is el kell készíteni a neuronhálót, ami:
- egyik oldalról a driver méretét is nagyon megemeli (Adrenalin 22.2.3 466 MB, míg Game Ready 511.79 786 MB), pedig csak a játékok töredékére készült el a neuronháló,
- másik oldalról eleve csak a megjelenő játékok kis hányadára lehet elkészíteni a neuronhálót, mert egy játék hosszú időre lefoglalja az Nvidia egyik céleszközét,
- harmadrészt pedig az Nvidia a jelentős számítási igény miatt állítólag szép összeget is kér a neuronháló elkészítéséért, vagyis a nagy kiadók csúcscímein kívül nem sok játék költségvetésébe fér bele a neuronháló legeneráltatásának a költsége.Az FSR ezzel szemben simán a kiadó programozói által beemelhető akármelyik játékba, mert nem igényel sem speciális hardverelemet a kártyában, sem külön driver-oldali támogatást a kártyagyártó részéről.
-
beef
őstag
válasz
Komplikato
#57273
üzenetére
Az teljesen mindegy, hogy DLSS-ből mennyi verzió jön ki addig, mert eddig sem, és jó eséllyel ezután sem fog futni AMD kártyákon.
-
Komplikato
veterán
válasz
Yutani
#57268
üzenetére
De csak március 30-án lezsz bemutatva, elérhető meg hónapokkal később. Simán lesz addigra DLSS 3.x is.
Más.
Mai naptól van DirectStorage a W10/W11 alatt. Sokra nem megy vele a mezei user, az első hivatalosan támogató játék (Forspoken) októberben jön csak. Viszont a jelenlegi verzió NEM támogatja, hogy a GPU csomagolja ki az adatokat a VRAM-ba. Az majd később jön. Lehet ezért halasztották a fenti játékot is? -
Yutani
nagyúr
válasz
Alogonomus
#57269
üzenetére
Azért ne éld bele magad annyira.
-
paprobert
őstag
válasz
Alogonomus
#57269
üzenetére
Ha csak a reklámszövegből ki lehetne indulni... Az alapján már az FSR1.0 is verte a DLSS-t...
Látni kell előbb, hogy mit tud.
-
válasz
Alogonomus
#57269
üzenetére
Miért számít az egy AMD felhasználónak amúgy hogy a kizárólag Nvidia kártyain működő skálázó megoldás Tensor magon vagy bármin is fut vagy bármit is igényel egy Nvidia kártyán?
Amúgy a Spatial Rescaling nem igényel tensor magot. tavaly november óta elérhető.[link]
és sokszor jobb eredményt hoz :
[link] -
Alogonomus
őstag
A sok reklámszövegből annyi a lényeg, hogy a képminőség jobb lesz, vagyis már valóban felér legalább DLSS 2.x szintjéig, miközben továbbra sem kell hozzá "machine learning hardware", vagyis se a kártyában Tensor Core, se speciális trenírozó szerverek által előzetesen legenerált neuronháló nem kell a használatához.
-
Yutani
nagyúr
-
Sz_Imre
senior tag
Kíváncsi leszek hogy a 2-5% teljesítmény növekedés az mennyi fps-t hozna átlagba.
Már csak azért is mert, akkor 6700 XT helyett 6750 XT venném... persze ha megéri
-
Yutani
nagyúr
válasz
huskydog17
#57265
üzenetére
Csúnya Biostar.
-
huskydog17
addikt
Most már világos hogy hol kötnek ki az új RX580-as kártyák.
"Biostar's press release boasts, concerning iMiner A588x8D2 systems, that it "guarantees availability in large quantities for any interested party.""
Tehát csak a Biostar birtokában annyi RX580 van, mint a sz*r és mind bányába megy, de legalább most már nyíltan és őszintén felvállalják.
-
Yutani
nagyúr
válasz
Petykemano
#57262
üzenetére
Nézzük csak. $149 az mostanában 60k lenne itthon (310-es árfolyammal számolva, kerekítve). Annyiért már jónak tűnik.
Aztán belegondoltam, hogy a még mindig PCIE 2.0-án lévő játékosoknak mennyire lenne jó választás és azt gondoltam, hogy inkább vennék egy RX 570-et régi gépbe (AM3+ és régebbi AMD konfigok, LGA1156 és régebbi Intel konfigok), majd megnéztem a TPU scaling tesztet, és rájöttem, hogy annyira nem egyértelmű a dolog. A 10+ tesztelt játékban kettőt találtam, ahol egy RX 570-en még játszható a játék, de a PCIe 2.0-án tesztelt 6500 XT már elvérzik. Meglepően jól tartja magát az alacsony sávszélesség ellenére is.
Természetesen mindez a tesztelt beállításokra vonatkozik, engedve a minőségből megváltozhat az eredmény és következtetés.Az RX 6400 $99-ért (~40k) is jó lehetne, de látnunk kellene a teljesítményét, mennyire herélték ki. De amíg OEM-only, addig mindegy is kb.
-
Alogonomus
őstag
válasz
Chiller
#57260
üzenetére
Azért azt a "jó 20%" dolgot számold újra, mert a táblázatban az a 33% és 31% nagyon nem 20% különbséget jelöl. 3DMark esetén valóban 30% különbség is jelentkezik, ahogy abban a tesztben a 3090 is csak 1%-kal marad le a 6900 XT mögött, míg valós használatkor a tényleges lemaradása ennek sokszorosa.
-
Petykemano
veterán
válasz
Yutani
#57259
üzenetére
Ha és amennyiben a folyamatok a jelenlegi irányban haladnak tovább, akkor nemsoká megérkeznek az árak az msrp-hez. A 6500XT esetén már arról megy a vita, hogy ez megtörtént -e a 199 eurós ár esetén. (Dollár/euró vs adó)
De vajon megáll-e ott? Vagy megy lejjebb mert
- nem viszik annyira
- és persze mert az öldöklő verseny, ami az alapanyagok és szállítás árát is (az átlagos infláció felett sokszoros mértékben) felhajtotta, az is enyhül.Szóval oda akarok kilyukadni, hogy lehet, hogy pár hónap múlva megérkezik a 6500XT is a $149-ra, és akkor a 6400 mondjuk $99-ért már lehet, hogy egész elfogadható, ha valaki csak lecserélni akarná korosodó 4GB-os Polarisát.
Persze hangsúlyozom, hogy ez több hónapos egyértelmű stabilizáció eredménye lehetne csak.Egyébként nem úgy volt, hogy a 6400 OEM only?
-
regener
veterán
válasz
Chiller
#57260
üzenetére
Szerintem a sima 980-ra gondolt a szerző, az pont ott van.
24%-al lassabb pedig pont az RX 570 ami szinte megegyező pontot kap ugyanabban a benchben, ugyanazzal a procival (5600X, hasonló órajelen) és hasonló lappal (X570) mint az alanyunk.
-
Yutani
nagyúr
válasz
Petykemano
#57258
üzenetére
Sok.
-
Petykemano
veterán
(Csak a log kedvéért)
D41241
rra.go.kr
[link] -
Petykemano
veterán
Igen, a Samsung gyártástechnológiára általánosságban jellemző ez a viselkedés.
Szerintem a Samsung gyártástechnológia hátrányban van a TSMC-hez képest és hogy ezt kompenzálja az ideálisnál sűrűbben szedi a tranzisztorokat. Ennek előnye az, hogy rányomhatja az nanométer besorolás plecsnit, mert sűrűség tekintetében hozza a specifikációnak megfelelő értékeket. Hátránya viszont az, hogy a magasabb frekvencia esetén lényegesen magasabb a hőkoncentráció (kevesebb a hőelvezésre alkalmas hely) és Amíg a tranzisztorok nem melegednek túl, addig minden olyan, mint a TSMC-nél, de magasabb frekvenciák esetén a hőelvezetés rosszabb, túlmelegszik, ami kezelhető szinten csak magasabb fogyasztással jár, de a skálázódás egy bizonyos pontnál megáll.Persze jó lenne, ha "csak" a kihozatalhoz hasonlóan ez a probléma is visszavezethető lenne a Samsungnál még nem alkalmazott pelillulák hiányára és annak használata ezt is megoldaná - majd 2023-tól. [link]
Azért bátorkodtam ezt jelenséget kihegyezni az AMD IP-re. Merthogy tudtommal a Snapdragon 8 Gen 1 is 4LPE-n készülhet (De legalábbis Samsungnál) [link]
Én úgy értelmeztem, hogy a hírben szereplő három másik készülék SD8G1-gyel szerelt Samsung Galaxy S22.
Tehát vagy az van, hogy a Qualcomm második generációs Samsung-on készülő lapkájánál már valahogy alkalmazkodtak.
Vagy esetleg az lehet még, hogy a szóbanforgó SD81G valójábana TSMC 4nm-en készül, mivel a hírek szerint a Qualcomm ott is gyártat [link] -
HSM
félisten
válasz
Petykemano
#57252
üzenetére
"Valószínűleg még dolgozni kell a Samsung gyártástechnológára való adaptáción."
Vagy magán a gyártástechnológián...
"Samsung’s 5LPE process appears to be lacking .... At lower performance levels, we noted that the 5LPE node doesn’t look to be any different than TSMC’s N7P node, as the A55 cores in the Snapdragon 888 performed and used up exactly the same amount of power as in the Snapdragon 865. At higher performance levels however, we’re seeing regressions – the middle Cortex-A78 cores of the S888 should have been equal power, or at least similar, to the identically clocked A77 cores of the S865, however we’re seeing a 25% power increase this generation." [link] -
Petykemano
veterán
válasz
Alogonomus
#57251
üzenetére
Ez szerintem nem működik így.
Néhány vájtfülű emberen kívül a többség elsiklana afelett, hogy az alacsonyabb pontszámot produkáló termék kíméletesebb a hőtermeléssel és a fogyasztással és ezért hosszútávon használhatóbb. A "jó termék" gyakran csak szerényen pislog és eltapossák a "jobbnak látszó" termékek.
Ahhoz, hogy ez működjön, marketing kampányt kellene indítani, kifejezetten erre kéne felhívni az emberek figyelmét. Viszont a Samsung esetén nem egy ilyen tudatos tervezést látunk, hanem inkább kínos hallgatást.Szerintem valószínűbb, hogy igazak voltak a pletykák és az RDNA2 tényleg nem tud olyan magas frekvenciára turbózni, mint szerették volna. Azt is mondhatnám: a szokásos történet, ami lenni szokott, ha az AMD IP Samsung gyártástechnológán készül. Alacsony frekvencián hatékony, de egy bizonyos frekvencia fölött exponenciálisan kezd emelkedni a fogyasztás, a hősűrűség és összeomlik. Ez volt a polarissal, a vegával és a Zen-nel is, de szerintem hasonlóval szembesült az NVidia is.
Valószínűleg még dolgozni kell a Samsung gyártástechnológára való adaptáción.
-
Alogonomus
őstag
válasz
Petykemano
#57250
üzenetére
Abu is valami ilyesmire utalhatott a múlt heti videóban. Előkészíti a népet egy 40+ fokos Snapdragon és 30+ fokos Exynos variánsra, aztán mindenki eldöntheti, hogy a sebesség érdekében kellemetlenül meleg, gyorsabban merülő és stabil teljesítményhez aktív hűtést igénylő Snapdragon, vagy a takarékosan is elég gyors Exynos modellre nevezne be.
-
Petykemano
veterán
RDNA2 @ Samsung (Eclipse)
Az első eredmények: [link]
Vegyesek.
A szintetikus tesztekben az eredmény alacsonyabb a reméltnél.
Viszont a tartós (stressz) tesztek esetén nem esik annyira vissza a teljesítmény. -
CRTs
aktív tag
Eszembe jutott az is hogy nvidias RT knowhow könyvecske kimondottan tiltja is hogy vegetációnak növényzetnek realtime RT vetett árnyéka legyen. Akkor hogy lesz így dimenzió váltás?... Itt jóesetben aszinkron növényzet lesz, mobil jövőben meg stream és vagy prerender (mint a book of the dead)
.. -
-
Petykemano
veterán
válasz
Yutani
#57241
üzenetére
Már csak az a kérdés, hogy vajon melyik fog hamarabb / olcsóbban megvalósulni?
a) fotorealisztikus képgenerálás, amit az ember saját szemével annyira részletesnek és valóságosnak lát, mint a valóságot
b) fotorealisztikus minőségű képi információ idegi impulzusként eljutatva az agy látóközpontjába, amit az agy annyira részletesnek és valóságosnak fog föl, mint saját szemmel a valóságot.Vannak emberek, akik szerint a civilizáció fejlődését a kommunikáció gyorsasága határozza meg és ebben a következő lépcsőfok a képernyő nézése és perfirériális inputok után a közvetlen agyi kapcsolat.
-
Yutani
nagyúr
válasz
KillerKollar
#57240
üzenetére
Minél közelebb vagyunk a fotorealisztikus megjelenítéshez, annál kevésbé látványos a fejlődés, mivel kisebbek már a lépcsőfokok is. Emiatt érzed azt, hogy mintha nem lenne előrelépés. A full RT még odébb van, addig okosan kell használni a technológiát részfeladatok megoldására.
-
KillerKollar
őstag
válasz
Komplikato
#57239
üzenetére
Igen 2004 (Half-Life 2, Doom 3, Far Cry, Xbox 360 megjelenése) jó kis év volt gaming szempontból, akkor a 2004-2007 körüli időszakban volt utoljára, hogy tényleg hatalmasat ugrottak látványvilágban a játékok, azóta csak csoszogunk előre, persze, sokkal szebb egy mai játék mint egy akkori, de ahhoz hosszú éveknek kell eltelnie, hogy tényleg érezhető minőségbeli különbség legyen mostanság.
-
Komplikato
veterán
válasz
KillerKollar
#57237
üzenetére
Fiam most játszotta végig a Half Life 2 részeket. Én meg csak bámultam, mit ki nem hozták az akkori proocikból, 1GB ram és kemény 256MB Vram felállásból. Pálya design, textúra, arc és karakteranimáció, fizika alapú puzle terén.
Na ILYEN nem akar jönni a mai vasakra.
-
HSM
félisten
válasz
KillerKollar
#57237
üzenetére
Sajnos nem nagyon volt időm az utóbbi 5-6 évben játszani, így nem tudok érdemben nyilatkozni a felhozatalról.
Ami nekem ennek ellenére nagyon felkeltette az érdeklődésem, az a Metro Exodus Enhanced Edition, bár az tudtommal teljesen jól fut egy 3090-en, akár kimaxolva is, és talán a konkurens 6900XT is megüt egy elfogadható szintet, és elég komoly lett az RT-s kivitelezés [link]. Én egyébként azt gondolom, az RT az az effekt, amivel rengeteget lehet most nyerni képminőségben megfelelően implementálva (főleg a GI/megvilágítás effektekre gondolok), de ennek komoly ára lehet teljesítményigényben. Kíváncsi leszek, hova fog fejlődni a technika, és milyenek lesznek a kifejezetten erre optimalizált játékok, motorok. Illetve az UE5 Nanite rendszerére is kíváncsi leszek majd pár év múlva a gyakorlatban, miket lehet majd kihozni belőle.
-
KillerKollar
őstag
Ha valóban évekkel a kora előtt jár egy játék technikailag akkor el tudom fogadni, hogy gépigény szempontjából is ez a helyzet, abban az esetben, ha valóban olyan grafikai beállítások mellett is kiemelkedően tud kinézni, amelyeket a jelen kor hardvere elbír. Ha egy 3090-en is csak medium grafikán fut, de úgy is szebb mint kb minden más akkor érthető (mondjuk ha a 3090-en csak mediumon fut akkor valószínűleg lowon se sok embernél fog elfutni).
Csak az a baj, hogy ilyen játékokkal mostanság nem nagyon találkoztam, csak olyannal, ami szarul fut csúcshardveren is, a grafika viszont ezt nem indokolná, vagy legalábbis nem ilyen szinten. Te is majdnem 15 éves játékokat hoztál fel példaként. -
HSM
félisten
válasz
KillerKollar
#57235
üzenetére
"de akkor se mentegessük már a fejlesztőket"
Félreértés ne legyen, még véletlenül sem a rossz kivitelezés miatt gyengén futó alkotásokat próbálom védeni.
Persze, pl. egy rossz porttal könnyen lehet gyártani erőforrás zabáló, de cserébe rosszul futó címet, ez nyilván nem az, amire az előbbi hsz-emben gondoltam. 
Mind az általam felsorolt Crysis, mind a GTA4 esetén jó oka volt az erőforrások használatának felhúzott grafikán. -
KillerKollar
őstag
Még ha indokolt lenne a látvány tekintetében a brutális gépigény, akkor elfogadnám ezt az érvelést, de sajnos nem ezt mutatja a tapasztalat. A Crysis valóban nem csak gépigényben de grafikában is évekkel a kora előtt járt, a mai optimalizálatlan játékokról ezt nem tudom elmondani... Ha kijön egy játék ami mondjuk csak high-on fut normálisan egy 3090-en de van benne még ultra is, viszont high-on is olyan jól néz ki, hogy kb minden mást odaver és besza-behu akkor azt mondom, hogy oké legyen. De se a Cyberpunk, se a Battlefield 2044, se a Dying Light 2 nem ilyen... nem azt mondom, hogy csúnyák, de nem érzem azt a hatalmas generációs ugrást, hogy oké, ez annyira ott van, hogy ezt már nem a mai hardverre tervezték... Én ugyan azon a 4K-s monitoron toltam végig a God of Wart meg a Last of Us 2-őt PS4 Pro-n anno amit a PC-mhez is használok amiben akkor egy 2080 Ti most egy 3080 Ti van és mégis leesett az állam azoktól a játékoktól, pedig a PS4 Pro hardverét akkor már bőven keresztbe fosta egy középkategóriás PC is nyers erő tekintetékben... Persze könnyebb egy fix hardverre optimalizálni és abból kihozni mindent, de akkor se mentegessük már a fejlesztőket, ha kiadnak egy félkész játékot ami bugos, szarul fut csúcshardveren is és még nem is néz ki olyan jól, hogy ez indokolt legyen.
-
HSM
félisten
Halkan teszem hozzá, én abba a kis számú csoportba tartozom, aki kifejezetten értékeli, ha az "ultra" grafikai beállítás nem a "ma hardverének" szól.
Ha már egyszer megvettem a játékot, akkor nálam az egy óriási plusz, ha hagynak benne "tartalékot", hogy esetleg 4-5 év múlva újra elővéve egy friss vason is lehessen még rá képminőséget pakolni, és ne az legyen az ember benyomása, hogy ez bizony már szörnyen néz ki.
Ilyen volt annak idején a Crysis is, és a GTA4 is, mindkettőt szidták megjelenéskor, mint a bokrot a max gépigény miatt, mégis mindkettőt tudtam játszani egy akkori erős középkategóriás vason kicsit visszavéve, de pár év múlva komolyabb gépen elővéve is még bőven tudtak újat mutatni, mivel a grafikai beállításoknak szerencsére nem a megjelenéskori hardverek képességeinél volt a vége.
-
KillerKollar
őstag
4K 120 fps-el talán nem, de szerintem a 4K 60 illetve az 1440p 144 egy kellően erős proci mellett egy 1 milliós kártyánál már elvárható. Még a Crysis idejében sem voltak ilyen drágák a videókártyák mint most, még inflációval arányosítva sem. Szerintem amúgy ez mindenhol így van, ha valaki megvesz 50 millióért egy full extrás S mercit, akkor joggal lehetnek komolyabb elvárásai az autó felé mint ha valaki 5 millióért megvesz egy Suzukit. De mondom, itt nem csak a felső kategóriáról van szó, ha a felső kategória nem képes max grafika mellett normális framerate-et produkálni akkor a közép/alsó kategória sem képes butítottam grafika mellett. A 6500XT 125-130ezer forintba kerül, az RX 480 2016-ban ennél olcsóbb volt és az a kártya hasonlóan erős, PCI 3.0-ás gépben pedig el is veri az 6500XT-t. Értem én, hogy infláció, de aki 2016-ban 100-150ezer között vett egy RX 480-at, az szerintem jogosan várhatja el, hogy 2022-ben ugyanennyi pénzért vagy hasonló összegért jóval erősebb kártyát tudjon venni tekintettel arra, hogy a játékok jóval gépigényesebbek lettek. Arról nem is beszélve, hogy az RX 480-ból de még az 5500XT-ből is volt 8GB-os változat.
Cyberpunk 2077-ben 1080p LOW-on nincs meg a 30 fps sem, nem hogy a 60.
-
Cifu
félisten
válasz
KillerKollar
#57220
üzenetére
Ez esetben a Crysis-effekt áldozata vagy, azt gondolod, hogy azért, mert csúcs kártyáról beszélünk, automatikusan max. felbontáson is max. képfrissítési frekvenciával kell futnia minden játéknak maximális beállítás mellett. Ha pedig nem fut, akkor a fejlesztő meg a gyártó a hülye, nem a felhasználó...
De még csak a Crysis-ig se kell előre menni, a 3Dfx Voodoo is úgy volt anno a Guru-ban ajnározva, hogy na, mostantól minden 30fps-el fog futni. Igaz valójában egy játék sem futott stabil 30 fps-el (a Tomb Raider is anno beszakadt 10 fps alá 3Dfx patch-al), de nach so...
Nem, egyáltalán nem elvárható, hogy egy CP2077 szintű játék 4K-ban 120 Fps-el fusson natívban akár egy RTX 3090 vagy RX6900 XT kártyán. Fut 4K Ultraban RT nélkül 60-80 FPS-el vagy 4K High-ban 120 FPS-el, vagy 4K /w Quality DLSS-en RT ultrában 60-70 FPS-el RTX 3090-en. Rád van bízva melyik választod.
Ha meg nincs 3090-re vagy 6900 XT-re pénzed, akkor még mindig lehet játszani a beállításokkal, hogy élhető kompromisszumot válassz.Ettől lesz jó egy játék.
Valójában a CP2077 egy GTX 960 kártyán is teljesen játszható 50-60 FPS-el medium körüli beállításokkal 1080p-ben egy i7-4770 szintű procival.
A kártya gyártója pedig nem ígérte, hogy minden játék max. beállítással fog 4K-ban 120 FPS-el futni a méregdrága csúcskártyán...
-
Yutani
nagyúr
válasz
Petykemano
#57218
üzenetére
Nem lehet megmondani, hogy ezek a kártyák gamerekhez vagy minerekhez kerülnek.
Gyorsan csekkoltam a HA árakat és a Nicehash hozamot (kocabányász), az alapján mindkettő típus ROI-ja 19-20 hónap jelenleg (6600XT 235k, 3070Ti 380k). Most igen messze van a 10-12 havi megtérülés, amiről még tavaly novemberben beszélhettünk.
-
Alogonomus
őstag
válasz
MZsoltee
#57225
üzenetére
Valóban valami ilyesmi a probléma. Ezért is mondják sokan, hogy fölösleges az elérhető maximális grafikai beállításokkal játszani, mert a látvány terén csak kimondottan keresve észrevehető minőségi különbségekért nagyon sok számítási kapacitást kell áldozni. Pont a nemrég felhozott Dying Light 2 kapcsán készült egy jó összehasonlítás, hogy melyik beállítási opció mikortól válik lényegében csak erőforrás égetéssé a játékban.
-
MZsoltee
veterán
Bejött az utóbbi években a 4K és a 144hz, egyrészről gond másrészről öröm. Azt hiszik az emberek, hogy a 144hz-től lesznek gamerek, vagyhogy teljesen más valami 4K-n, mint 1440p-n.
Előtte a 1080p 60hz volt a középkategória, a budget meg a 720p.
Mára a 1080p 144hz/1440p 100hz/4k60hz-et akarunk középkategóriában.
Ezt kb ma egy 3080-as vagy 6800(XT) tudja hozni, különösebben nagy fejlődést nem látni sajnos így technológiai oldalról, így csak nagyobb méretú, ezáltal komplexebb és drágább chippekkel lehet ezt kielégíteni. Természetesen ezek többet is esznek.
Szóval lesz csúcskártya 1440p 165hz-re/ 4k 144hz-re 8K/30hz-re tuti, csak 600W-ért és 4000-5000 USD/EUR-ért. Ha valakinek kell fizesse meg.
Valamivel jobb fogyasztással hasonló áron lesz majd a 3080/6800-nak utódja 4070ként és 7700ként talán. De árban nem lesz nagyon esés. Marad a hiány és a relatíve drága technológia.
Kicsit provokatív lesz a következő mondatom.
Igazából szerinetm nem is kell már nagyobb teljesítmény. A gamingnek a válsága abból adódik, hogy már egyre nehezebb újdonságokat kitalálni és ezt a grafikával akarják elfedni.
Komoly géppel mostanság olyan játékokat játszom, amire egy 1660Super, elég lenne 1440p 60hen.
Oxygen, Workers, Diablo 2 res, AC BlackFlag, WOT. De egy Dyinglight 2 re is elég lenne 1440p mediumon egy 1660 Super.
Szóval lehet megöregedtem, de azt érzem, hogy a gamingnek nem a hardverek most a fő problémái, hanem az, hogy nem tud megújulni. Nincs mire használni egy 3090-et, ha csak nem 4K tv akarunk játszani. De azt gondolom hogy nincs, ami attól lesz élvezetes, hogy nem 1440p-n hanem 4K-n játszunk vele. -
Abu85
HÁZIGAZDA
Szerintem elég sok top VGA el sem jut a boltokig. Szóval itt a bánya a probléma. Hogy fogalmazzak finoman... amíg szar van, lesz légy is.

-
válasz
Alogonomus
#57222
üzenetére
ezek mult heti ugye megvan hogy amit most latsz a boltban az a jelen? ,ma sincs EVGA es Asus,de mar jo ideje, ,gigabol 1 fele es jobbra elhuzva a tweetet lathatod melyik tipusokat adtak el.szinte csak MSI..Itt jobban lekovetheto mibol mi,az erkezo tipusokat is szoktak posztolni...[link] Az MSI jó,de Nvidianal a csucson megkerulhetetlen az EVGA es Asus,sokan ha nincs nem azt vagy nem onnan veszik,főleg ennyiért.
Szerk:
Jaj tenyleg.most jut eszembe az Nvidiara nincs kereslet a felsökategóriába ez jobb magyarázat.
Azert a reddites linken mar lathatod hogy a 6.heten 130 db ment el 3080Ti bol..Sajnos mindent elvisznek.ha nem gamerek akkor a banyaszok.. -
Alogonomus
őstag
Hol is olvastad, hogy egyedül az MSI "tudott" szállítani nekik 3090 és 3080 Ti kártyákat?
Egyébként elég lenne csak felmenned a webshopba, és látnád, hogy nem csak MSI kártyákat árulnak 3090 és 3080 Ti verziókból.
Szerk: Látom a válaszom hatására legalább kiegészítetted a hozzászólásodat a többi gyártó megemlítésével és a "múlt héten" magyarázkodással.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
válasz
Alogonomus
#57215
üzenetére
Ez nem azt mutatja mennyire van ra erdeklodes ember,hanem azt hogy ennyit kaptak es tudnak eladni olvasd mar el a hozzaszolasokat.Te mindent ilyen szűrőn át tudsz csak ertelmezni?
Egyedul az MSI tudott szallitani nekik mult heten 3090 es 3080 Ti kartyakat,a heten kaptak meg par gyartotól,KFa +Palit kartyakat...Asus/EVGA hetek ota semmi,gigatol egy egy fajta beesik.
Ezek meg a banyaba mennek,nincs itt sok latnivalo.fele ekkora arfolyamon is oda mentek. -
KillerKollar
őstag
válasz
Alogonomus
#57219
üzenetére
Majd meglátjuk, hogy a fejlesztők is így látják-e. Vagy azt mondják, hogy ja, hogy a 7600-7700 hozza a 6900 szintjét? Akkor ez az új középkategóira, 1440p 60 fps legyen meg, ha 4K@60-at vagy 1440p@144-et szeretnél akkor vedd meg 2000-3000$-ért az 500-600 wattos kártyát, ha meg megsüti a teljes gépedet akkor az már a te bajod. Fentebb felhoztam pár példát (Dying Light 2, Cyberpunk 2077, Battlefield 2042) amiből látszik, hogy már most vannak játékok amik nem képesek kompromisszum mentesen futni a jelenlegi csúcskártyákon, márpedig szerintem egy 3090 kategória a kompromisszum mentességről van szó. Nem arról van szó, hogy ezek a játékok játszhatatlanok lennének egy 3090-en, vagy hogy az 1-2 év múlva megjelenő játékok azok lesznek, arról van szó, hogy aki ennyit kiadott egy videókártyáért az szerintem jogosan várja el, hogy pár évig ne nagyon kelljen lejjebb adni a minőségből a legújabb címek esetén sem.
-
Alogonomus
őstag
válasz
KillerKollar
#57216
üzenetére
Az új generációs csúcskártyák azért sokaknak valószínűleg nem lesznek alternatívák. Például a jelenlegi időnként 500 watt közelébe kerülő kártyákkal szemben az új kártyák már stabilan 500-600 wattos kártyák lesznek, amik valószínűleg néha még feljebb tévednek a számításigényesebb szituációkban, így valószínűleg riser kell majd hozzájuk, hogy ne az alaplapot fújják a 80+ fokkal teljes erőből. A csúcskártyák így valóban csak extrém gépekbe kerülhetnek, de el is hozzák a 100-120% gyorsulást.
A mostani generáció csúcskártyáinak a fogyasztási szintjére érkező új kártyák viszont szerintem csak jövő év második felében érkeznek. Egy 6900 XT vagy 3090 szerintem még messze van a nyugdíjazástól, még elég sokáig képviselhetik ezek a kártyák az "értelmes" csúcskategóriát. Persze jön a 6950 XT meg a 3090 Ti, de csak a listákon való versenyzéshez lesznek jók. Nagyjából 10% extra teljesítménytől nem tudsz majd eggyel magasabb grafikai minőséget választani.
Szélesebb körben majd akkor érkezik el a generációváltás, amikor a Navi 32 megjelenik. A Navi 31 kártyákból (RX 7900/7800?) még a gyengébbik is valószínűleg túl drága és "meleg" lesz a tömegeknek. A Navi 32-es (RX 7700?) lehet majd az első valós opció, mint volt az 5700 XT/2070 Super a 1080 Ti helyett, vagy a 6700 XT/3070 a 2080 Ti helyett. Az RX 7700 XT/RTX 4070 érkezéséig viszont a jelenlegi csúcskártyák szerintem bőven jók lesznek.
A megfizethető GTX 1060/1050 Ti és RX 570/580 kártyák ideje valóban lejárt, de még a 150 ezer forintos felsőközép-kategóriás 5700 XT sem jön vissza. Talán az Intel hoz valami jó ár/érték arányú kártyát piaci részesedésének a növeléséhez. -
Yutani
nagyúr
válasz
Alogonomus
#57215
üzenetére
Érdekes, hogy amíg az Radeonból a középkategóriát viszik inkább (6600/XT), addig a GeForce-ból inkább a felső kategória alját (3070 Ti). Az meg magáért beszél, hogy ez utóbbiból majdnem annyit adtak el, mint az AMD legjobban fogyó két kártyájából.
-
KillerKollar
őstag
Kérdés, hogy azért fogynak el, mert olyan kevés a készlet, hogy ilyen keveset el tudnak adni, vagy azért fogynak el, mert a bányászoknak így is megéri, vagy azért, mert a gamerek ennyiért is megveszik. Ez majd akkor fog kiderül ha egyszer végre véget ér a chiphiány és a bányászat sem fogja már megérni. Amúgy annyira már nem igaz, hogy elfogynak, most már nem az a helyzet, hogy hozzá se tudsz jutni egyik kártyához se, beírod az árukeresőbe és kb az összeset azonnal készletről rendelheted 6 különböző helyről. Most már az a probléma, hogy az ára továbbra is sok helyen kétszerese annak, amennyinek lennie kellene. Tehát nem fogynak el, de még mindig drágább, mert gondolom a boltok berendelték jó drágán és nem akarják buktával továbbadni.
#57215 Alogonomus
Így kb a generáció vége fele, amikor amúgy is esni szokott az érdeklődés és jönnek a pletykák arról, hogy a next-gen mennyire felmossa majd a padlót a jelenlegi kártyákkal kezd majd normalizálódni a helyzet, kérdés, hogy a következő kártyákat hogyan árazzák majd be, mert attól tartok, hogy arra hivatkozva, hogy több mint 1 évig az MSRP többszöröséért mentek a kártyák, plusz infláció plusz most valóban nagy teljesítményugrás lesz fel fogják tolni az MSRP-t is az egekbe és ezáltal végleg bebetonozzák ezeket az árakat és ez lesz az új normál. Ami szerintem hosszú távon a PC gaming kivéreztetését jelenti majd, jelenleg még sokan vannak akik még normális áron tudtak venni olyan VGA-t ami még pár évig elég lesz nekik, de amikor eljön az ideje a fejlesztésnek, akkor lehet, hogy azt fogják mondani, hogy oké ennyiért nem fogok venni kártyát, inkább leszek konzolos. Azért az, hogy ha te mondjuk 100.000 forint környékén vettél kártyát 3-4 évente, akkor arra számítottál, hogy 3-4 évvel később infláció ide vagy oda hasonló összegért jelentősen gyorsabb kártyát kaptál szerintem egy reális elvárás/állapot volt. Nézd meg mi van most a 6500XT-vel, az RTX 480 2017-ből kb ez a szint és abból volt 8 gigás változat, plusz PCIe 3.0-ás gépben még el is veri szerintem. Értem én, hogy nem minden videókártya 1 millió és a legtöbbeket amúgy sem az a kategória érdeklni, de a megfizethető kategória se annyira megfizethető már, ráadásul amit kapsz az sz*r is ami nem mindig volt igaz, lásd GTX 1060/1050 Ti ami 1080p-re a mai napig elfogadható kompromisszumok mellett. -
Alogonomus
őstag
Azért mostanra már egyedül a 3090 maradt az 1 mFt-os árszint közelében, bár azok is inkább csak beragadt készletek lehetnek. A minimálisan gyengébb 3080 Ti bő 600 eFt, míg a 6900 XT szűk 600 eFt. A bányászláz lecsengésével az árak is normalizálódni kezdtek, pedig 2021 elejéhez képest még a jelentős infláció is megtolta az árakat.
Mindfactory alapján a csúcs dVGA kártyák területén nincs is nagy érdeklődés az Nvidia iránt. -
Cifu
félisten
válasz
KillerKollar
#57205
üzenetére
Amíg az 1-2 mFT áron is elfogynak a csúcs dVGA kártyák, addig nem hiszem, hogy a gyártók problémázni fognak ezen...
Márpedig elfogynak... -
Abu85
HÁZIGAZDA
Elég, ha a Microsoftot kérdezik. Ők már régóta mondják, hogy a root signature nem arra való, hogy erőforráspuffert rakjanak bele. Erre a leíróhalmazok vannak a DirectX 12-ben. Eleinte oké, hogy ebbe belefutnak, de lassan minden évben többször elmondja ezt a Microsoft, így 2022-ben már kínos.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar
#57210
üzenetére
A felbontásnál szerintem sokkal nagyobb baj, hogy a zseblámpára nem generál a játék árnyékot. Hello 2022...

-
KillerKollar
őstag
Néztem a Digital Foundry elemzős videóit a játékról, konzolon se sokkal fényesebb a helyzet az a baj. Mint feljebb írtam a legerősebb konzolokon (PS5 - Series X), van 1080p@60 ray-tracing nélkül, 1080p@30 ray-tracinggel, vagy 1800p/1944p@30 ray-tracing nélkül. Semmi uspcaling tech, checkerboard rendering, a felbontás fix. Ez azért nem túl acélos. Az előző generációs konzolokon pedig 864p-ben fut a játék 30 fps-el, szóval ha eredetileg azokra lett tervezve a játék akkor az elég
"Én egy alapvetően elbaszott játékokból nem indulnák ki" Az a baj, hogy egyre gyakoribb az ilyen, gyakorlatilag a nagyobb címek jelentős százalékánál előfordul, rádadásul ezek nagy költségvetésű projektek amin rengetegen dolgoznak és mégis... az átlag felhasználót meg nem érdekik a technikai részletek és, hogy miért fut szarul a játék, Ő csak azt látja, hogy megvette a kis videókártyáját 2-3szor annyiért amennyibe a gyártó szerint eredetileg kerülnie kellene és szarul fut.
#57209 Busterftw:
Feltételezem, hogy panaszkodnak, de legalábbis panaszkodni fognak, ha majd év végén az új kártyák szarrá verik azokat amiket túlárazottan megvettek és rá 1 évre meg szarul fog futni minden a kártyájukon. Max azok nem panaszkodnak akiknek tényleg nem számít a pénz, azok meg úgyis megveszik mindig a legújabbat, kerüljön bármennyibe. A kommentek addig fognak ismétlődni, amíg meg nem szűnik a helyzet, másfél év nem elég ahhoz, hogy kihaljon a PC piac, hiszen bár már most is vannak sokan, akik ennyi pénzért nem tudnak/nem hajlandóak fejleszteni, de lehet, hogy nekik még van egy használható 2-3-4 éves videókártyájuk és úgy vannak vele, hogy ez most még elég, kivárok. De ha várnak még 2-3 évet és addigra is ilyenek lesznek az árak, függetlenül attól, hogy van-e bányászat, chiphiány,covid vagy nincs, akkor Ők le fognak lépni és vesznek egy konzolt vagy előfizetnek valami cloud gaming szolgáltatásra. Az valóban esélytelen, hogy senki ne vegyen GPU-t, de arra kéne bíztatni mindenkit, hogy túlárazottan ne vegyen ha nem muszáj, különben az lesz az üzenet a gyártók felé, hogy ezek az árak így rendben vannak. -
Busterftw
nagyúr
válasz
KillerKollar
#57207
üzenetére
Jo de akik annyit fizettek szerinted panaszkodnak? Mar kb masfel ev ota ez a GPU helyzet es nem ez az elso jatek ami igy fut.
Ertem az elegedetlenseget, de engem meg ezek az ismetlodo kommentek zavarnak, amikor mar 2 eve ez a helyzet.Ezen ugy lehetne valtoztatni, hogy senki nem vesz GPU-t, de az meg eselytelen.
Talan akkor, ha annyira beesik a crypto vagy mar POS miatt nem eri meg. -
Abu85
HÁZIGAZDA
válasz
KillerKollar
#57203
üzenetére
A Dying Light 2-nek nagyon el lett baszva a motorja. Eleve ez egy nagyon sokat csúsztatott játék volt, amit igencsak konzolra optimalizáltak, de itt gond, hogy a PC-s shaderek nagyon különböznek. Egy rakás kód meg van írva konzolra SM6.x-be, és PC-ben mégis SM 5.x-ben van futtatva egy jóval butább és jóval lassabb verziója ugyanannak a kódnak.
Nagyon szembetűnő, hogy maga a DX12-es kód alapvetően el van baszva. Ez ott látszik, hogy egy RX 6900 XT a DX11 driveréből ~170 fps-re képes Full HD-ben, míg DX12-ben ugyanez az adat, ugyanazzal a grafikával ~160 fps. És ugye az AMD-nél megszoktuk, hogy gyorsulni szokott a DX12-től. Az NV-nél a driverek stagnálnak, mind a DX12 mind a DX11 kód ~150 fps tud ugyanitt RTX 3090-nel, ez valami CPU-limit lehet, amin az NV hardvere/drivere nem tud túljutni. De a CPU egy 12900K, tehát kezdeni se lehet vele semmit hardveresen. Talán az 5800X3D segíthet picit, de nem fogja megváltani a világot.
Na most az eddigi adatok alapján azért nem gyorsul a DX11-ről DX12-re váltásnál, mert a fejlesztők mindent amit lehet direkten a root signature-be mentenek. Ez azért nem ajánlott, mert maga a root signature nem támogat minden formátumot. Ahhoz, hogy ez működjön a Dying Light 2 veszi a konzolos formátumokat, beleírja a memóriába egy leíróhalmazba, majd ott átkonvertálja őket egy olyan formátummá, amit a root signature direkten kezel, és ekkor átmásolják oda a puffert, amivel dolgozik a játék. Majd minden frissítéskor visszamásolják a leíróhalmazba, ahol visszakonvertálják az eredeti formátumba. Ez olyan bődületesen nagy marhaság, hogy elmondani nem lehet, és csak ezen a konverzió-másolós hülyeségen minimum 30%-os teljesítményt veszít a játék DirectX 12 alatt. Valószínűleg ebből jön a DX11-hez viszonyítva a lassulás, mert ott nem kell ez a konverzió.
Röviden akkora marhaságot csinálnak a Dying Light 2-ben, hogy azt a Microsoftnak oktani kellene egy "mit ne csinálj" előadáson. Sokkal gyorsabb lenne, ha direkten dolgoznának a leíróhalmazokba konverzió és másolás nélkül, és még lehetne minimum +20%-ot nyerni ha wave intrinsics függvényeket használnának DirectX 12 alatt SM 6.x-ből.
Ami látszik, hogy ez a játék alapvetően DX11-re készült, és az RT effektek miatt valahogy belehánytak egy alapszintű DX12 támogatást, ami úgy szó szerint kerülőutakkal belehegesztettek "éppenhogycsakműködőre". A sebesség itt nem számított, mert arra nem volt idejük. És itt igazából egy gyártó is tehetetlen. Ha rosszak az alapok, akkor az NVIDIA sem tud mit kezdeni vele, hiába támogatják pénzzel a fejlesztést. Az alapok annyira mélyek, hogy azoknak az átírása hónapokat venne igénybe, amit lehet, hogy beterjesztettek a kiadónak, aztán miután kiszámolták, hogy mennyi pénzbe kerülne, még a másik épületben is lehetett hallani, hogy: nein-nein-nein...
Én egy alapvetően elbaszott játékokból nem indulnák ki, de igen, szar dolog, hogy ez PC-n még megtörténik. Nyilván szar dolog, hogy megtörtént hasonló a BF2042-vel és a CP2077-tel is.
-
KillerKollar
őstag
válasz
Busterftw
#57206
üzenetére
Akkor te szerencsés vagy, de ha megnézed, a legtöbben nem ennyit fizettek, nem mintha az kevés lenne.
Nem a dev stúdiókra haragszok (bár rájuk is, mert az utóbbi időben szokás lett félkész játékokat kiadni, Cyberpunk 2077, Battlefield 2042, Dying Light 2), hanem a hardver gyártókra. Kinyírják a PC gaming piacot mert rövid távon kaszálni szeretnének. Én értem, hogy a 4K 300 fps RT-vel irreális elvárás a hardverrel szemben, de az 1 milliós vételár kifizetése meg irreális elvárás a vásárlóval szemben. Értem én, hogy bányászat, hogy Covid, hogy chiphiány, hogy supply-chain, csak az a baj, hogy mire megoldódnak ezek a problémák addigra normalizálva lesznek ezek az árak. Most kiadnak egy impresszív generációt, és mindenki ledobja az állát, hogy úristen mekkora teljesítmény ugrás, érthető, hogy feltolták az árakat az egekbe. De az azutáni generációnál megint megkapjuk a szokásos 30-40% extra teljesítményt, igen, nem lesz valószínűleg még egyszer akkora ugrás árban sem, de mindegy, akkor már a középkategória is 600$, mert már az azelőtti generációban is az volt. Ez az új normál. A PC gaming pedig a gazdagok kiváltsága lesz majd szép lassan.
-
Busterftw
nagyúr
válasz
KillerKollar
#57205
üzenetére
1199 euroert vettem.
4K@60 RT mellett? Mert anelkul meg van az, Youtube videok alapjan.
A varosban 1440p High-on kb 120FPS az atlag es ez launchkor.
Persze orulnek en is, ha 4K@300 fps lenne RT-vel, de nem tudom hol voltal az elmult 5+ evben amikor minden AAA/AA jatek igy jon ki launchkor es ez meg a jobbik eset.Miert csinalunk ugy, mintha a jatekok nem valtoztak volna az evek soran?
Ezt mar irtam mashol is, egy 1080p jatek 8 eve nem olyan technikailag es kinezetre mint a mai 1080p.Az arak meg elszalltak, aligha a dev studiok tehetnek rola.
-
KillerKollar
őstag
válasz
Busterftw
#57204
üzenetére
1 milliós videókártyával elfut 1440p-ben a játék? Ennek örülni kellene?
3080 Ti-nél szerintem 4K@60 vagy 1440p@144 a minimum, de biztos én vagyok túl igényes. Én amúgy ha hardver review-er lennék és mondjuk 1-10ig pontoznám a hardvereket akkor ha a 7900XT/4090 valóban ilyen 2000-3000$ MSRP lenne, akkor azt csinálnám, hogy belőnék egy targetet, legyen 4K@60, tesztelném a legigényesebb játékokat, minden ultra, RTX max, semmi DLSS meg upscaling, ha találok 1 játékot, ahol nem tudja megütni repül a 0 pont. Irreálisan magas ár mellé szerintem jogos az irreálisan magas elvárás. Ja, hogy az nem úgy megy, minden játéknál lehetetlen, hogy meglegyen, szarul van optimalizálva, bla-bla... Hát akkor meg nem úgy megy, hogy 1-2 milliót fizetek egy szaros videókártyáért
-
Busterftw
nagyúr
válasz
KillerKollar
#57203
üzenetére
Szerintem nem annyira veszes a dolog, epp most keszul RT/DLSS patch fix is.
1440p High-on nalam RT nelkul siman van 100+ FPS a varosban, RT DLSS Quality meg 70+.Es ez csak javulni fog.
-
KillerKollar
őstag
Ezzel az a bajom, hogy még olyanoktól is hallottam, akik jellemzően kritizálni szokták a túlárazott hardvereket, hogy nem baj az, ha a következő generációba feljebb mennek az árak, mert akkora lesz az ugrás, hogy a Navi 33 így is olcsóbb lesz mint a 6900XT és hasonlóan gyors, úgyhogy húde jól fogunk járni. Igen ám, de a játékfejlesztők azt fogják látni, hogy akkor ez az új középkategória és aszerint (nem) fogják optimalizálni a játékokat. Ez már most látszik, elég megnézni a Dying Light 2-őt, ray-tracing mellett még az Nvidia csúcskártyáin is játszhatatlan pedig arra lett optimalizálva mert NV partner játék, a legerősebb, alig több mint 1 éves konzolokon is (PS5, Series X) választhatsz 1080p 60 fps ray-tracing nélkül, 1080p 30 fps ray-tracinggel vagy 1800-1944p 30 fps ray tracing nélküli opciók közül. Örülök, hogy vannak opciók de azért ez így elég gyenge 2022-ben. Szóval szerintem az lesz, hogy aki megvette az 2-3x MSRP áron a 3080-3090-6800XT-6900XT-ket az 1-2 év múlva azzal fog szembesülni, hogy a kártyája már is egy 1080p 60 fps kártyává degradálódott a friss megjelenések esetén, márpedig kétlem, hogy ennyi pénzért az lett volna a target. De nem baj a Navi 33 meg a 4090 azoknál is tudja majd a 4K@60-at meg az 1440p@144-et. Ja, hogy ezeknek már a "normál" (MSRP) ára is 2000-3000$? Bocsi ez az új normál. Ha a konzoloknál lesz végre rendes készlet és valóban 500$ lesz a PS5/Series X akkor RIP PC gaming
. Tudom, ezt is sokszor hallottuk már, eddig én is mindig megmosolyogtam, de olyan szerintem még soha nem volt, de a közelmúltban biztos nem, hogy egy középkategóriás videókártya 2-3szor annyiba kerül mint egy konzol. -
sakal83
addikt
válasz
Alogonomus
#57200
üzenetére
Azert 10% nem rossz foleg 4kn
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Kormányok / autós szimulátorok topikja
- Óra topik
- Sweet.tv - internetes TV
- Autós topik
- Intel Core Ultra 3, Core Ultra 5, Ultra 7, Ultra 9 "Arrow Lake" LGA 1851
- Apple MacBook
- Hővezető paszták
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Nokia E51 - kecs és fém
- Pécs és környéke adok-veszek-beszélgetek
- További aktív témák...
- HP Z8 G4 Workstation (gamer célra is) dupla CPU Xeon Gold 6134
- REFURBISHED - DELL Thunderbolt Dock WD19TBS (210-AZBV)
- Dell Precision 3571 4G LTE i7-12700H 32GB 1000GB FHD RTX A1000 4GB 1 év teljeskörű garancia
- BESZÁMÍTÁS! ASUS PRIME H510M i5 10400F 16GB DDR4 512GB SSD RX 6600 XT OC 8GB CHIEFTEC Libra 600W
- Bomba ár! Lenovo ThinkPad T460s - i5-6GEN I 8GB I 128GB SSD I 14" FHD I Cam I W10 I Garancia!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő

..
, hogy Unity Book of the dead demóból megismert fával benőtt részeken tanyázó global ambient occlusion nincs az új játékokban. És lehetne-e abból valami "irányzékos" amit napszakfüggően állítanak át.
![;]](http://cdn.rios.hu/dl/s/v1.gif)

