-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
HSM
félisten
Azt nem mondtam, hogy a minimális potenciális VRAM igény csökkentésnek nem lesz borzalmas ára más tekintetben.
![;]](//cdn.rios.hu/dl/s/v1.gif)
Ezért nem vennék ilyen kártyát ennyi pénzért. Összehasonlíthatatlanul jobb ajánlat a 7900XT 20GB-al. De minimum 16GB-ot elvárnék 2023-ban, 1000$/€ magasságában.
A több, mint két éve megjelent 6800XT-re is tudtak már 16GB-ot rakni, 650$ MSRP-vel.#60884 b.: "Az RT részegységek részben tehermentesítik a shader hardverelemeket, nem helyettesítik azokat, innen ered a sebesség előny."
Captain Obvious...
És innen ered a nagy hátrányuk is, hogy rugalmatlanok, nem tudsz hatékonyabb működést elérni okos szoftveres megoldásokkal, mert kötött a hardver. Ha pedig mégis, akkor elveszik a kötött célhardver előnye, mert általános algoritmusokban nem tudod kihasználni.#60885 Abu85 : Láttam, elég durva.

#60889 paprobert : Tudsz ilyenre példát? Engem a lassú játékmenetekben nem nagyon zavar a 30 FPS, de a megnőtt input lag ilyenekben is szörnyű. Ráadásul az esetleges képi hibák is sokkal látványosabbak, ha kevés az FPS. Szvsz sokkal jobb megoldás erre egy LFC vagy újabban FreeSync Premium címkéjű monitor, ami szépen, képhibák nélkül simítja le a megjelenítést. Én ilyenen játszom pl. Witcher 3-at, nagyjából 25-40 FPS kimaxolva RT-vel a 6800XT-men valós 1188P-n, és 30 felett már teljesen jó a képi élmény, 25-30 között elmegy, egyedül Radeon anti-lag kellett rá a körülményekhez képest jó input laghoz. De eszembe nem jutna DLSS2-3-al játszani, a DLSS2 minősége nem tetszett (és az FSR2-é sem), a DLSS3 növelt input lagja pedig elrontaná az egészet, pedig nem egy gyors játék egy pörgős FPS-hez képest.
#60896 Abu85: "egy már kész képkockát csak azért nem kiküldeni a kijelzőre, hogy előbb generálj elé egy kevésbé friss, ráadásul potenciális képi hibákkal tarkított képkockát, a mélypont a rossz ötletek tárházában"
Óriási +1.
"Nem az a durva, hogy van ilyen, hanem az, hogy ezt el is lehet adni..."
+1 erre is.
Én egyébként a hagyományos DLSS/FSR-el is így vagyok PC-n, beállítok magas felbontást, hogy aztán alacsonyabb felbontásból összetákolt képet nézzem? 
Amíg nem volt ez marketingelve érdekes módon (és helyesen
) senkinek eszébe nem jutott volna használni, pedig volt pár játék resolution scale-el, és driverből is lehetett eddig is GPU-s méretezést kérni alacsonyabb felbontáshoz.#60898 DudeHUN : Ez itt baj, 60FPS felett már folyamatos a kép enélkül is, akkor meg minek kapcsolnád be? Hogy generáljon be pár tökéletlen képkockát is a valódiak közé?

-
HSM
félisten
"mert a GPU-s dekódolás miatt nem csak a dekódolt textúrákat kell tárolni, hanem a kódoltakat is"
Minek tárolnák azt is? A kódolt csak addig kell, míg ki nem kódolják... Okosan használva ez a technológia szvsz segíthet gyorsabban cserélgetni a VRAM tartalmát, kevésbé okosan használva meg jobban zabálhatja is azt.#60879 b.: Nekik a sok dedikált HW egységgel nem az az érdekük, hogy gyors shader alapú alternatíva legyen.

#60881 bitblueduck : Én is így látom, azért írtam, hogy talán és kicsit segíthet.
-
HSM
félisten
"Ott azért GDDR6X van benne ... plusz van valami emlegetett memória dekompressziós technika állítólag ... nagyobb L2 az Amperehez nézve. ezek mind valamelyes ellensúlyozzak a dolgokat, főleg az L2 mérete"
A memóriából hiányzó dolgokat semmi nem fogja pótolni. Szépen meg kell várnia a GPU-nak, mire átcsorog a PCIe-en, vagy használni a rosszabb minőségű alternatívákat, amik rendelkezésre állnak. Esetleg a DirectStorage tud ezen talán kicsit segíteni, hogy hamarabb megérkezzen, de a méretet ez sem fogja helyettesíteni, ez borítékolható.
Egyébként a 12GB-ot tartom a kisebb gondnak, a nagy, hogy mennyi pénzt kérnek érte...
Annak idején pl. az RTX3060-on teljesen rendben volt a 192 bites busz + pici GPU + 12GB ram, 330$-ért. Legyen infláció és 500$. De 8-900$?!
-
HSM
félisten
válasz
Alogonomus
#60860
üzenetére
"az lesz a megoldás a túl kevés memória esetén, amit az UE4-es Hogwarts Legacy alkalmaz már"
LOL, ezt a megoldást már közel 15 évvel ezelőtt tudta pl. a GTA4. Remek élmény volt, amikor apránként eléd épült a város...
[link]
Normális mennyiségű VRAM-al szerelt kártyát kell venni, ilyen egyszerű... Nem belemenni az előrelátható avulásba... -
HSM
félisten
Én ha MOST vennék, a 12GB-on elesne. Plusz egy ilyen pici, olcsón gxártható GPU-ért nem vagyok hajlandó majd 1000€-t a boltban hagyni. Ahogy annak idején ugyanezért fel sem merült, hogy 5700XT-t vegyek, RT nélkül árazták a picit gyengébb RTX-ek fölé, feleakkora GPU-val...
Főleg, amikor van erős alternatíva, a 7900XT, 20GB rammal. -
HSM
félisten
válasz
Alogonomus
#60821
üzenetére
"Igazából ezért is kételkedem abban, hogy csak ennyi az ok"
Ez azért komolyabb dolog is lehet, pl. valamiféle logikai bug a cache-rendszerben. Ha jobban hozzá kell emiatt nyúlni az sok-sok hónapos csúszás is lehet, emiatt könnyen lehet, hogy azt mondták, inkább menjen a start ahogy van a szoftveres javítással, főleg, ha már mondjuk legyártottak belőle pár raklapnyit a partnerek...Az 5800X3D dominanciája durva.
-
HSM
félisten
válasz
Petykemano
#60808
üzenetére
"a legdrágább művelet (energiában) az adatmozgatás és a legpazarlóbb az adatra várás"
Azért azt se felejtsük el, hogy csipen belül is van ám energiaigénye az adatmozgatásnak. Nyilván kevesebb, mint külső interfészeken, de van úgy is. Egy ilyen ram még így is nagyságrendileg gyorsabb és takarékosabb, mint a GDDR interfészre bízni a dolgokat. Látszik itt is: [link] . Egyedül a latency romlott némileg az RDNA2-höz képest, de még mindig sokkal jobb, mint a memóriából.A javított kiadás szerintem erősen függhet attól, hogy áll a munka az RDNA4-el, és mekkora is valójában az ára teljesítményben a szoftveres javításnak (feltéve, hogy a pletyka igaz).
#60806 Alogonomus : "...és akkor a tesztelők bemutathatták volna..."
Szerintem annak nagyon rossz üzenete lett volna, hogy bemutatják, hogy mennyire bénáznak: jó lenne a cucc, csak nem tudják kiadni működőképesen.
Eladhatóan ezt csak úgy lehetne, hogyha jönne egy ráncfelvvart 50-es verzió belőle, szépen csendben a finomhangolásra hivatkozva a gyorsulással, mint az eddigi 50-es verzióknál...
A legjobb persze az lett volna, ha nem a rajt előtt derül ki az egész... -
-
HSM
félisten
válasz
Busterftw
#60772
üzenetére
"De a DXVK 2018-2019 release" "...hanem arrol hogy a DXVK-hoz az AMD-nek semmi koze"
Ami a Mantle nélkül ma is kb csak egy dia lenne, hogy majd egyszer lesz valami OpenGlNext... Nem lett volna mire megírni a DXVK-t, vagy hasonló rendszert.A BOE példád annyiból nem jó, hogy a BOE egy sima beszállító, ha nem ők, akkor szállítana más kijelzőt. Grafikus API-t viszont nem sokan fejlesztenek...
-
HSM
félisten
válasz
Petykemano
#60757
üzenetére
"Érdekes, milyen felkapott lett a kézi konzol AMD alapon."
Elég jó lett hozzá az alap.
Jó a perf/watt, stabil a driveres alap. Minden adott, hogy sikeres legyen a kategóriában. Én egy hatmagos Renoir APU-t használok, az is meggyőző, amit 15W-ból produkál, pedig az még csak VEGA IGP-s. -
HSM
félisten
válasz
Raymond
#60698
üzenetére
"megtalaltad vegre az irast amit linkeltel akkor es el is olvastad, azzal kellett volna az elejen kezdened"
Kiderült belőle néhány friss újdonság (nem követem napi szinten a VR-világot, így pl. a mélységinfóval feljavított 2.0 verziók újak voltak), de semmi olyan, ami lényegesen módosított volna az álláspontomon."Amit en kifogasoltam az a "VR-nal nem fontos a minoseg" kijelentesed"
Határozottan nem volt ilyen kijelentésem, akkor itt értettük félre egymást. Azt írtam, másodlagos, hiszen a rosszullét elkerülése az elsődleges (amihez az kell, hogy időben megérkezzen a kép, amit te is leírtál)."egy edge case-eket is bemutato videobol itelsz meg valamit"
Nem ebből ítélem meg. A videó csak azt szemléltette, hogy bizony előfordulnak hibák, amik nem egyformán zavarnak mindenkit. Engem nagyon, másokat kevésbé.
"amikor a HUB videoban 10% sebessegel (es egyszer raadasul 3%) kell valamit lejatszani hogy megmutassa a "problemat" akkor az a kakan a csomo kereses kategoria szerintem"
Bizonyos szempontból igen, más szempontból nem. Ahogy írtam, nem egyformán zavar ez mindenkit. Folyamatában a monitorodon sokkal feltűnőbb lehet a különbség 120Hz-en is, ha valami rossz helyen/rossz minőségben/helytelenül villan be (ugye a temporális stabilitás vagy annak hiánya), mint egy tömörített videó-streamen, 60Hz-re korlátozva. Szerintem jó az analízisük, aztán mindenki eldöntheti, zavarja-e, kell-e ez neki.
Én személy szerint maradok a natívnál. -
HSM
félisten
válasz
Raymond
#60692
üzenetére
"A DLSS3-nal hasznaljak es gondolom az FSR3-nal is fogjak hasznalni mert tobb adat = jobb minoseg. A VR-ban sokkal fontosabb a kesleltetes mint a 2D jatekoknal."
Zseniális, hogy miután több hsz-en keresztül próbáltál teljesen inkompetensnek beállítani, végül ugyanazt írtad le, amit én is mondtam és belekötöttél... [link] Oh well...
-
HSM
félisten
válasz
Raymond
#60689
üzenetére
Jó volt a minősége bizonyos kontenteknél, van róla videójuk is... [link] Én erről beszéltem.
Nem kell hozzá VR-tapasztalat, hogy lásd, hogy nem szép.Egyébként ahogy írod, én is úgy tudom, hogy csak a ATW aktív állandóan, az ASW csak akkor, amikor kimarad képkocka vagy a fejlesztő aktiválja. Én egyébként nem mosnám össze a kettőt véletlenül sem, az ATW csak kicsit igazít a kép nézetén, hogy jobban passzoljon az aktuális fejpozícióhoz (ami a renderelt képhez képest nem nagyon térhet el jelentősen, fizikai korlátok okán), ez azért kicsit kevésbé komplex, és hibázásra hajlamos, mint az el nem készült képkocka helyett megpróbálni kitalálni, mi lehet a képen, amit az ASW próbál kényszerűen.
Technológiailag nyilván az ASW, ami hasonló kihívásokkal küzd, mint pl. a DLSS3 vagy a megjelenés előtt álló FSR3. Az állandóan aktív ATW/PTW-nek nem sok értelme lenne szvsz PC-n. -
HSM
félisten
válasz
Raymond
#60685
üzenetére
"VR-ban az IMU adatok feldolgozasa, prediction, stb. egy teljesen mas dimenzio mint az hogy a PC-n meghuzod az egeret. De mondom, ha nem ertesz hozza..."
Mert az egérmozgást nem lehet előre jósolni? Pont annyira lehet, mint az IMU-val. PC-n is a mai motorokban ugyanúgy megvannak a mozgásvektorok, minden adott...
Persze, értem én, hogy érvelés helyett könnyebb olyasmikkel dobálózni, hogy "nem értesz hozzá".
-
HSM
félisten
válasz
Raymond
#60682
üzenetére
"VR-nal ott az IMU-bol az adatok a jovo joslasara, ez a 2D PC-s jatekoknal nincs igy"
Ugyan miért ne lenne? Ugyanúgy megvannak PC-n is az input adatok, csak nem az IMU-ból, hanem az egérből jönnek... Ne állítsuk már be varázslatnak, ami nem az..."Tehat fogalmad sincs milyen a minoseg..."
Épp elég panaszt olvastam a VR generált képeire, hogy legyen róla elképzelésem.
"csak "nem tudod elkepzelni""
Maradjunk annyiban, hogy ez amolyan "educated guess". Informatikai végzettségűként van némi fogalmam ezen technológiák korlátairól anélkül is, hogy részletes analízist kellene készítenem róla... -
HSM
félisten
válasz
Raymond
#60678
üzenetére
Onnan, hogy a rosszullét elkerülése, mint elsődleges cél, érdekében bármilyen minőségű képkocka jobb a semmilyennél. Nyilván törekednek a lehetőségekhez képest a legjobb minőségre is, de ez másodlagos.
Abban van ennek jelentősége, hogy önmagában vektorokból nekem nem tűnik reálisnak pl. DLSS3 szintű új képkockák generálása a jövőbe. Nyilván ezért vezették be itt a késleltetett megjelenítést, hiszen itt alapvetően a jó minőségű interpolált kép elérése az elsődleges cél.Szerk.: #60679 bitblueduck : Megelőztél.
-
HSM
félisten
-
HSM
félisten
Tehát a lényeg, hogy nem "előre" találja ki a generált képkokckát az előzményekből, hanem visszatartja, és amikor a következő is elkészült, akkor generál közéjük egy újat, és kezdi őket megjeleníteni szépen sorban, miközben számolódnak az újak, ebből jön az extra késleltetés. Itt elmagyarázza, ha az általam leírtakból nem állt össze: [link] , van teszt is [link] .
-
HSM
félisten
válasz
Petykemano
#60663
üzenetére
"hanem hogy megelőző x képkockából próbálják "kitalálni", hogy mi lesz a következőn"
Még a két meglévő között interpolálva is óriási a hibázás lehetősége (mint láthatjuk is a látványos képhibákat, lásd pl. F1 22 [link] ), mi lenne, ha ki kéne találni a következőt a semmiből?
#60665 b.: A DLSS3 sem talál ki előre képkocakát, ezeket az adatokat a két meglévő közötti interpoláció minőségének javításához használja fel. [link]
-
HSM
félisten
Nem mondanám félkésznek, nekem többféle konfigon, rengetegféle ezt használó VGA-val ment hibátlanul, kikapcsolt monitorral prímán spórolva a fogyasztással. De látom, hogy bizonyos konfigokban egyeseknél instabil, ezért lenne jó kikapcsolhatóvá tenni, pl. driverből, máris nem lenne ezzel gond annál sem, akinél amúgy bármiért bajt okoz.
-
HSM
félisten
válasz
#32839680
#60624
üzenetére
Bizonyos esetekben, igen.
De vannak ezekre megoldások, kis odafigyeléssel többnyire el lehet kerülni a többlet fogyasztást...
Amit ezer éve nem szeretnek, az a nem szabványos időzítések, amit viszont a monitorgyártók nagyon szerettek egy időben, főleg az "OC" monitoraiknál, pl. FHD 144Hz. Én 1440P 144Hz monitort használok, ezen nincs ezzel sem gond, vidáman pihen miközben hajtja. A másik dolog, amit nem szeret takarékosan, ha ütközik a többmonitoros frissítési frekvencia. Pl. ha a 144Hz monitorom mellett bekapcsolom a 60Hz második monitorom nem tud pihenni. De ha leveszem 120Hz-re a fő monitort, már passzol a 60Hz-es másodikhoz, és máris takarékos a 6800XT.
-
HSM
félisten
-
HSM
félisten
válasz
S_x96x_S
#60608
üzenetére
"1.) de amúgy akinek megvan nyitva a Chrome böngésző + 20 tab,
annak ritkán megy idle-be a gépe"
Egyébként kinyitott 10+ Firefox lappal ugyanúgy 50-60W nálam, ha nincsen valami ugráló CPU-zabáló pl. reklám a lapon.... Ha meg nem idle, akkor máris a single terhelésen vagyunk.
"Egy jelenseget par ellenpeldaval probaltad cafolni amire pont ugyanannyi ha nem tobb bizonyitas is van."
Minden évben van két nap, amikor ugyanolyan hosszú az éjszaka, mint a nappal. Ebből akkor szerinted levonható a következtetés, hogy az éjszakák és nappalok hossza egyenlő?
Ha már "5 evesnek elmagyarazom megerti" és"WTF logika".
"kisujjbol ramondtad hogy nem jelent semmit"
Súlyosan logikai hibás érvelésre elég könnyű kisujjból megmondani, hogy nem lesz jó...#60611 Ribi : Nem kivagyiság.
De mindig felveti a gyanút, ha valaki 10 hsz és 40 nap után úgy viselkedik, mintha legalább 10 éves törzstag lenne, hogy hátha egy régi törzstag... Ilyenkor meg szoktam kérdezni, kihez van szerencsém.
Mondjuk ezek a fiókok nem szoktak hosszú életűek lenni valamiért.... ![;]](//cdn.rios.hu/dl/s/v1.gif)
-
HSM
félisten
válasz
#90868690
#60606
üzenetére
"egy nagyon szép bizonyítvány ez rólad, mivel bizonyítékok nélkül vádaskodsz"
Vádaskodás? Ugyan, csak megkérdeztem, kihez van szerencsém...
"Nem tudtad megcáfolni, hiszen abból a néhány ellenpéldából amit hoztál, nem lehet általános következtetést levonni."
Én nem vontam le belőle általános következtetést, már sokadjára írom le...
"szépen alakítod a véleményed"
Semmit az ég világon alakítottam véleményemen az eredetihez [link] képest.
-
HSM
félisten
válasz
#90868690
#60604
üzenetére
"az irreleváns személyeskedésed visszautasítom, jó?"
Csak szerettem volna tudni, mégis kihez van szerencsém. Én mint láthatod elég régóta ugyanazon a néven vagyok jelen itt, mifelénk ez így szokás."a néhány ellenpéldádból nem lehet általános következtetést levonni"
Én nem vontam le általános következtetést néhány ellenpéldából, hanem EGY HIBÁS ÁLTALÁNOS KÖVETKEZTETÉST CÁFOLTAM velük. Tényleg nem érted a különbséget?
-
HSM
félisten
válasz
#90868690
#60602
üzenetére
"egyébként ha te hozol példát, akkor az ellenpélda, amit komolyan kell venni, ha a másik akkor pár esetből ne vonjunk le következtetést"
Az irreleváns személyeskedésed visszautasítom, nem erről van szó.
Néhány esetből nem lehet általános következtetést levonni (pl. magas idle fogyasztás), míg néhány ellenpélda elég ezeket megcáfolni.
Alapvető logika....
"ennyivel összefoglalható a fórumtevékenységed, és nem csak az itt olvasottak alapján"
Egyébként kinek van szerencsém az újraregjéhez?
-
HSM
félisten
válasz
Busterftw
#60600
üzenetére
"ne menjunk mar le dedoba"
De, menjünk csak le szépen, úgy tűnik, szükséges.
Az eredeti állítás, amit cáfoltam ez volt: "a 30-60 Wattos idle fogyasztás hátránya az AM5-nek".
Ezt cáfolni bőven elég, ha találunk néhány ellenpéldát, hiszen az bizonyítja, hogy a többletfogyasztást nem az AM5 természetéből fakad, hiszen ha így lenne, nem létezhetne olyan AM5 rendszer, ami nem így viselkedik. Ebből az is következik, hogy akik magas AM5 fogyasztást mértek, ott valami egyedi tényező játszott szerepet. Ugyanúgy, ahogy a konkurencia rendszereinél is rendszeresen voltak, akik pl. bizonyos alaplapokkal akár 20-30W-al magasabb üresjárati fogyasztásokat mértek. Érdekes módon, ott helyesen lett levonva a következtetés, hogy akkor az adott, pl. alaplap fogyaszt sokat....
Remélem így már világos számodra is, miért nincs szó részemről "double standard" és "valóság tagadás"-ról. -
HSM
félisten
válasz
Busterftw
#60586
üzenetére
"Na akkor most mi legyen, visszatero butasag vagy van alapja?"
Mint írtam, egyértelműen visszatérő butaság, ahogy több publikált mérés is alátámasztja. Természetesen sok múlik az alaplapon, az egyedi konfigon. Pontosan ugyanúgy, ahogy a konkurencia esetén is."AMD GPU magas idle fogyasztas is butasag"
Ebben a formában igen, ugyanúgy butaság.
Mint írtam, a városi legenda szerint idle sokat fogyasztó 5600-as Ryzenem mellett az idle sokat fogyasztó 6800XT-vel szoktam mérni ezt az 50-60W közötti üresjárati fogyasztást.
Persze, sajnos az AMD GPU-k bizonyos körülmények között tudnak ennél torkosabbak lenni, pl. bizonyos multimonitor konfigurációkban [link] . Nálam egyébként csak akkor jelentkezik ez, ha a 60Hz-es másod monitorom is aktív, amit nyilván nem a legszerencsésebb egy 144Hz-essel párosítani. De ebből a helyes következtetés az, hogy érdemes ésszel beállítani a multimonitort, nem pedig az, hogy "idle sokat fogyaszt". -
HSM
félisten
válasz
Busterftw
#60582
üzenetére
Ott van belinkelve két AM5 teszt (amit én linkeltem Guru3D, és az általad hivatkozott TrustedReviews-es), ha ez neked nem elég releváns, nem tudom mi az.
Utánanéztem egyébként a Ryzen 7000-es fogyasztásoknak, mivel tervben az upgrade... Nem a levegőbe beszélek. Az AM4 azért releváns, mert annál is éppen ugyanez volt a szóbeszéd.
#60583 morgyi: Ez a dolga... Minél hamarabb a elvégezni a feladatot, majd menni pihenni. A kékeknél ez külön diát érdemlő feature volt a SkyLake/KabyLake érában... [link]
-
HSM
félisten
válasz
Busterftw
#60580
üzenetére
Ha nem haragszol, a saját műszeres eredményeimnek jobban hiszek, mint véletlen reddites posztoknak...
A TrustedReviews-en kemény 5W-os plusszt mértek...
[link]
"With no software running other than Windows 11, I recorded a system power consumption of 78W. For comparison, the Intel Core i9-12900K consumed 5W less. "
Több időt nem pazarlok erre... Több mérés is engem igazol, köztük egy általad hivatkozott is....
-
HSM
félisten
válasz
paprobert
#60575
üzenetére
"...de a 30-60 Wattos idle fogyasztás hátránya az AM5-nek"
Nem tudom, honnan ered ez a visszatérő butaság a Ryzenek üresjárati fogyasztásával kapcsolatban, de meglehetősen távol áll a valóságtól... [link]
De saját méréseim is vannak AM4-el, a komplett gép (monitor nélkül) 50-60W között fogyaszt konnektorból idle, amiben benne van 16GB ram, egy Ryzen 5600, egy RX 6800XT, egy NVMe és egy SATA SSD is, ami egyfelől teljesen jó, másfelől a konkurencia sem tud ennél lényegesen jobbat.
Ami tény, egyszálas, kis terhelésen, főleg a dupla CCD-s példányok esetén az aktivizálódó két IF link tud generálni egy nagyjából 20-30W-os többletet (látszik a guru 3d linkelt mérésein is, pl. 7700X vs 7950X single fogyasztás), de ez már egyfelől nem idle, másfelől a 60W-tól még mindig nagyon messze van, harmadrészt nem minden chipletes Ryzen-t érint, hanem csak a több chipleteseket. -
HSM
félisten
-
HSM
félisten
válasz
Petykemano
#60451
üzenetére
"Mihez képest olcsóbb?"
Jogos kérdés, saját magának a monolitikus megvalósításához képest értettem.
"Ha az N5 ára mérsékeltebb, akkor az azon nyert árelőny is mérsékeltebb, hogy a lapka egy része nem N5-ön készülni."
Ez vélhetően a mai helyzet. Én azt gyanítom, lényegesen gyorsabban csökkent le a waferek ára, mint előre várható volt.A kapacitás-korlát megszűnése is persze csökkenti a csipletezés "hasznosságát", egészen máshogy nézne ki a mostani elemzésünk, ha dugig lenne az 5nm megrendelésekkel, és marhára nem lenne mindegy, hogy 3 vagy 4db GPU készül el egy waferről, míg a 7nm vélhetőleg bőven lett volna szabad kapacitás az MCD-nek.
Számolgattam amúgy picit... Mivel az MCD jelentős része memória, ami nem skálázódik jól 5nm-el, így az én elméleti monolitikus lapkám is 420mm²-es lett, bár ez egy nagyon konzervatív becslés, úgy mondanám inkább, hogy legalább ekkora. Sajnos pontos csip méreteket nem találtam, így próbáltam az elérhető méretek/arányok alapján közelíteni.
Monolitikus: 15*28mm, 0.1 defect density, 300mm wafer = 420mm², 66.68% yield, 87 good dies
Navi31 GCD: 11*28mm, 0.1 defect density, 300mm wafer, 308mm², 74.07% yield, 128 good dies
Navi31 MCD: 9*4.1mm, 0.1 defect density, 300mm wafer, 36.9mm², 96.39% yield, 1521 good diesÍgy a #60453 b. által linkelt wafer árakkal (7nm 10235$, 5nm 13400$) számolva a csipletes Navi31 költsége 145$, a monolitikusé 154$. Ezekkel a számokkal valóban vélhetőleg még rá is fizetnek picit a csipletre, ha szigorúan a gyártási költséget nézzük. Ugyanakkor, ha abból indulunk ki, hogy a hírek szerint a 7nm kihasználtsága elég alacsony [link] , énszerintem jóval olcsóbb lehet most azon gyártatni, és ha mondjuk korrigáljuk 7000$-ra a 7nm wafer-árat, akkor máris 4.6$-ra csökken egy MCD ára, úgy már csak 132.29$-ra jön ki egy teljes Navi31, 127.69-re a 7900XT. Illetve akkor is nyílik az árelőny, ha drágább a node, pl. a 3nm árával már ismét lényegessé válik a csiplet árelőnye.
Nagy jelentősége lenne amúgy tudni, pontosan mekkora lett volna monolitikusan. Ha kicsit kevésbé konzervatívan becslem, és mondjuk 448mm²-el számolok, akkor ez adódik:
Monolitikus2: 16*28mm, 0.1 defect density, 300mm wafer = 448mm², 64.97% yield, 79 good dies.
Ez a szvsz konzervatívnak tűnő 13400$-os 5nm wafer árazással is jelentős felár, hiszen így már közel 170$ egy csip, pedig nem lett lényegesen nagyobb. Ehhez képest már azért jól látható megtakarítás az olcsóbb 7nm-el számolt csiplet megvalósítás, ~130$-on, a vélhető 'összeszerelési' pluszköltségekkel együtt.#60454 Petykemano: "nem jelent nagy felskálázódást a Navi21-hez képest"
RT-ben azért szépet lépett előre: [link] . RT nélkül pedig a Navi21 is vaddisznó volt. Szerintem nagy jelentősége van, hogy RT-ben jelentősen tudtak javulni, hiszen az RDNA2-nek ez volt úgymond a gyenge pontja. Nem használhatatlan RT-vel, sőt, de nem is feltétlen hozza mindig az elvárható tempót, főleg WQHD-n vagy felette."mi a fenéért tervezték volna rá a v-cache ráilleszthetőséget teljesen feleslegesen"
Egyfelől, rátervezni pár csatlakozót kb. nem kerül semmibe. Másfelől miért ne tartanák meg maguknak a lehetőséget... Egy lényegesen magasabb órajelű GCD mellé pl. már lehet lenne jelentősége."Szerintem a chiplet interconnect sávszélessége limitál."
Limitál vagy sem, a késleltetést lényegesen javíthatná, ha magasabb a hit rate. Tehát vélhetően gyorsulna. Vagy úgy is írhatnám, javulna a sávszélesség kihasználtsága.
#60458 Petykemano : Tény, hogy némileg alulmúlta a várakozásokat, és a félkész driverrel való kiadás sem tett neki jót. Eléggé az a benyomásom, hogy valamit villantani kellett a lefoglalt 5nm kapacitások miatt, de még kellett volna némi idő a driveres csapatnak, vagy akár egy respin fizikailag, ami úgy tűnik, elmaradt. Ettől függetlenül nem tartom rossz terméknek, sőt. Előbb vennék egy jobb 7900XT-t, mint 4070Ti-t.
-
HSM
félisten
válasz
Alogonomus
#60449
üzenetére
Ez annyiból irreleváns a mostani kérdés tekintetében, hogy a PCB drágaságát elsősorban a memória sebessége és busz-szélessége határozza meg. Az pedig éppen ugyanolyan drága lenne egy monolitikus bő 500mm²-es csip esetén, csak akkor még a csip is sokkal drágább lenne...

Költség szempontból valami hasonlót lenne optimális lépniük, mint az RDNA2-vel, hogy 256biten kiadni valami ahhoz képest igen harapós GPU-t. Tulajdonképpen kiadhatnának ilyen Navi31-et is, négy GCD-vel és 256 biten, de úgy lehet kicsit túl kevés lenne az L3, viszont V-cache-el a gyártási bonyolódás. Viszont úsznak a lehetséges opciókban, épp a csiplet-dizájn miatt...
Személy szerint nekem igen kedvemre való lenne egyébként egy ilyen, energia és költséghatékony dizájn, egy kevéssé megvágott, de konzervatív órajeleken hajtott Navi31-el, 256bites körítéssel és nagy IC/L3-al.
A jelenlegi OC RX 6800XT-s tapasztalataim alapján pl. RT-re bőven elbírna erősebb GPU-t a 256bites busz 128MB IC-el. 
-
HSM
félisten
válasz
Petykemano
#60447
üzenetére
Azért a chiplet nem hasznosulásra nem vennék mérget.
Borítékolhatóan lényegesen olcsóbb lehet így egy Navi31, hiszen jelentős része olcsóbb node-on készül, és mivel 7db pici/átlagos méretű lapka, így a kihozatal is az egekben lehet. -
HSM
félisten
válasz
Petykemano
#60420
üzenetére
Így van. Teljes mértékben egyetértek, jó gondolatokat írtál.
Ezért írtam csak némi kiegészítésnek a tudatos kockázat-minimalizálást. Bár most már látom, hogy a működési biztonságba ezt is értetted, én eredetileg az árrugalmasságra gondoltam, mikor írtad.
-
HSM
félisten
válasz
Petykemano
#60413
üzenetére
"Az AMD-t szokás manapság meglehetősen kockázatkerülő magatartással jellemezni."
Meg tudom érteni őket, azok után, milyen merészet húztak a Bulldozer architektúrával és a gyártástechnoplógiájával, és az már csak történelem, hogy mennyire megégették vele magukat. Illetve arról is voltak pletykák, hogy valamelyik bányász-hullámban jó nagy adag , ha jól emlékszem Hawaii csipet gyártottak, amit utána a bánya beomlása után alig tudtak eladni...De lehetne említeni a zöld gyártót is, ahol jelenleg is messziről is jól látható kupac Ampere kártyán ülhetnek, hogy már lassan végtelenbe nyújtóan vezetik be az Ada termékcsaládot...
-
HSM
félisten
válasz
Petykemano
#60408
üzenetére
Szerintem egy változó még ide kívánkozik. Mégpedig a kockázat. Ha olyan mennyiséget gyártanak, ami előbb veszíti el az értékét, mint ahogy eladták volna, akkor csak a veszteségeket növelték a gyártással. Még mindig szállingóznak pl. Navi21 kártyák újak extra akciósan kiskerben, ami pont jó időzítésre/legyártott mennyiségekre utal a 7900XT árcsökkentésével és az elvileg hamarosan a helyére érkező Navi32-vel.
-
-
HSM
félisten
válasz
bjasq99
#60343
üzenetére
GPU cache-ről beszél a dia, nem IC-ről, vagy legalábbis nem egyértelmű.
Egyébként tisztában vagyok a cache rendszerek működésével, de szerintem az is nyilvánvaló, hogy ha ennyire jól cache-elhő lenne egy GPU, akkor nem kellene alá TB/s nagyságrendű memória sávszélesség... Sajnos nem vagyok kellően naprakész GPU-architektúrákból, pontosan milyen adatokért nyúlkál a különböző cache-ekbe, melyik részegység mekkora méretű adatokon dolgozik, azok mennyire cache-elhetőek, de biztos vagyok benne, hogy ez egy komplex és messzire vezető témakör.
Azért mindenesetre felraktam ezt a profilert, ha lesz kis időm belekukkantok majd mivel szorgoskodik a 6800XT-m.
Szerintem van még itten felfedezni-való.
-
HSM
félisten
válasz
bjasq99
#60317
üzenetére
Érdekes cikk volt, köszi a hivatkozást.
#60322 Raymond : Pedig az AMD által közzétett adatok is őt támasztják alá: 10MB nagyságrendű cache-nél alig van hit-rate [link] . Persze, jó lenne látni, pontosan milyen helyzetekről is van szó, de a footnote kb. csak annyit mond, hogy a modelljeik alapján.
#60332 Petykemano : Alakul, ahogy várható volt. Kezdenek szimpatikus ársávba kerülni az AIB kártyák.
-
HSM
félisten
Nem nagyon tudok az utóbbi évekből perf/watt optimalizált felsőkategóriás kártyát.
Talán csak a sima 6800, ami az utóbbi évekből eszembe jut. Manapság akár CPU, akár GPU, sajnos az a divat, hogy a lehető legkisebb csipből próbálják kisajtolni a csodát, ez pedig fizikailag rossz perf/watt-ot fog okozni. Manapság nem az a tuning, hogy kihozol 30%-al nagyobb tempót a kütyüdből, éppen fordítva, gyárilag kihozzák többnyire a benne lévő potenciál ~90%-át, és az "OC" inkább a finomhangolás, hogy ne csak perf legyen, de perf/watt is.
#60308 Pakmara : Megnéztem egyébként, a 6900XT hivatalos TBP-je 300W [link] , míg a 7900XTX-é 355W [link] , így a teljesen igazságos összehasonlítás nem nagyon lett volna kivitelezhető.
-
HSM
félisten
Az asztali verziók úgy tapasztaltam nem mennek olyan mélyre, mint a mobilok, ha már az 5600G-t említed. A 4650U-n pl. 10W PPT-ből ha elindítok egy Cinebench-et, lemegy 0.72V-ra 2Ghz-hez, így magonként mindössze 1W-ra saccolja a fogyasztást.

Az asztali 5600-asom a gyári "base" órajele alatt már nem is csökkenti a feszültségét valamiért tovább, szenved inkább 500Mhz-en, 0.92V-on, ha pl. adok neki egy 15W PPT limitet... Nem ugyanaz, pedig nyilván az is skálázódhatna tovább lefelé.... -
HSM
félisten
Hatékonyságra a mostani holmik is nagyon jók ám... Ezt pl. épp egy Renoir APU-ról írom, egy 4650U, a 15W-os fogyasztásához képest brutálisan erős.... Ezt még le lehet csökkenteni ~10W-ra, de akkor már érezhetően az "infrastruktúra" kezdi elenni a keretet a CPU-magok elől...
-
HSM
félisten
válasz
Chiller
#60272
üzenetére
Nem tudom, mi a bajod az APU-k fejlesztésével, de szerintem brutáljó lett a Renoir (4000), a Cezanne (5000) és a Rembrand (6000) is. Minden lépcső hozta az elvárható előrelépést, a Cezanne elhozta az egyesített, 16MB-ra növelt memóriát és javított az energiatakarékossági megoldásokon, a Rembrand pedig az energiatakarékosság további javítása mellett ráduplázott az IGP-re is.
-
HSM
félisten
válasz
Callisto
#60252
üzenetére
Jó tudni... Én kétszer is telepítettem tesztből azóta, még megy a szekér.
Mondjuk BIOS-ból kikapacsoltam, hogy az OS alól engedje magát piszkálni. Nekem különösen nem tetszik amúgy, hogy a WattMan-ba az új driverekben behozták a CPU tuningját is. Nyomnék egy reset-et a GPU-ra, és akkora figyelmeztetést kapok az arcomba, hogy reseteli a CPU-m is, hogy csak nézek.
-
HSM
félisten
válasz
Petykemano
#60250
üzenetére
Előbb próbáltam ki, minthogy eljutott volna hozzám a híre, hogy rossz, így elkerült a rontás.

De amúgy azt olvastam, win11-en volt gond, azt is kerülöm, ameddig csak tudom, így duplán be voltam biztosítva.
Lehet, hogy az RT is ezért nem gyorsult, mert előbb kellett volna olvasnom róla?
-
HSM
félisten
Érdekes meglátás. Számomra épp fordítva van, egy jó (!!!) RT implementáció valóban durván next-gen élmény és képi világ, míg a felskálázások, a maguk homályosságával és a valódi részletek hiányával nagyon nem.

Példák jó RT-re: Witcher 3, saját kép [link] , DF bemutató [link] , de a BFV-ben is tetszett [link]. Én inkább tolom a Witcher 3-at natív FHD-n de max RT-vel 30FPS-el a 144Hz WQHD monitoron, mint felskálázva vagy RT nélkül, annyival jobb a képi világ. Számomra pl. óriási előrelépés megszabadulni az ambiens megvilágítástól, illetve végre látni a hatását a különböző színű visszaverődéseknek (indirekt megvilágítás), lásd a DF bemutatót, remek példákat hoz. Pedig én is szeretem ám, ha 100 körül tanyázik az FPS-mérő.
-
HSM
félisten
Nem tudom, miért gondolod, hogy butaságokat is írok, de hogy nem írod le, nem fogok tudni ezzel mit kezdeni.
"mit is jelent valójában"
Pontosan tudom, programoztam/tanítottam is neuronhálót. De nem hiszem, hogy ez a fórum lenne az alkalmas terep mélyebben belemenni, így szándékosan egyszerűsítettem így le."ez az egész iparág miért is nő mostanában irgalmatlanul nagyra."
Nagyon érdekesnek, egyben rendkívül veszélyes jelenségnek tartom. De nem csak én [link] .
Ahogy minden más "buzzword" esetén, természetesen az Ai-nál is remekül megfigyelhető, hogy hirtelen minden Ai lesz, és persze erősen megkérdőjelezhető létjogosultsággal. Pár éve a blokklánc volt a buzzword, akkor mindent a blokkláncba akartak tenni, mert abban látták a nagy pénzt. Azt is, aminek az égvilágon semmi értelme nem lett volna odatenni. Egyszerűen az emberek ugyanúgy nem értették, mint most az Ai-t.Hogy írtad ezt a beleásósdit, kicsit keresgéltem anyagokat a DLSS-ről, sajnos nem sokat találtam.
Persze, ugyanúgy, ahogy a GPUOpen FSR dokumentációban, persze itt is ellőtték a poént, amin mindig kellően felháborodok:
"... produces images comparable to or better than native resolution while rendering a fraction of the pixels, letting you maximize frame rate.", mindenzt a fejlesztőknek szánt oldalról [link] .
Persze tudom, hogy miért írhatták le, csaképpen a gyakorlatban senki nem használja úgy DLAA-ként, és a mondat másik fele is mást sugall....Szóval, a saját szememmel láttam, hogy mit tud ez a technológia, és nem győzött meg.
#60203 b.: A 3080 sosem került valójában 700$-ba, csak egy limitált mennyiség az FE verzióból. A partnerek panaszkodtak is rendesen emiatt. Aztán persze jött a hiány és piacborulás.
-
HSM
félisten
válasz
Raymond
#60174
üzenetére
Ennél már lényegesen kevesebb szokott lenni az ára. Megnézed TPU-n (ők mérik a lassulást is a raszterhez képest) találni -17%-tól -72%-ig mindenfélét [link] . De a -72% az a 3080-ason is -62%, tehát annak is bőven fáj...
#60175 b.: Az RDNA2-t tényleg meg lehet szivatni bizonyos RT megoldásokkal. Ugyanakkor a legtöbb címben nem élnek ezzel.
Metro amúgy simán jól megy, 6900XT WQHD-n 90FPS, 3080 104, ez nem olyan nagy különbség. -
HSM
félisten
válasz
Raymond
#60169
üzenetére
Amiben semmi meglepő nincs, mivel kevesebb mindent gyorsít benne hardver a RT-el kapcsolatban. Ennek a felépítésnek nyilván előnye, hogy RT nélkül nem csak üresen áll a fél GPU, valamint rugalmasabb is az RT implementáció, amit úgy néz ki, ki is fognak idővel használni (lásd [link] ). Ugyanakkor nyilván nagyobb mértékben fog veszíteni a tempóból a hagyományos DXR-el, mint az RTX-ek, ahol dedikált, fixfunkciós blokkok segítik a denoise és bejárási bizonyos lépéseit az API-hoz, amit a Radeon az általános feldolgozókkal old meg.
Kérdezem én, ez baj? Számomra nem okoz különösebb fejfájást, hogy a használható RT teljesítmény mellé brutálisan gyors RT nélkül, sőt, kifejezetten élvezem.

Illetve nagyon várom majd a DXR jelenlegi betegségeit orvosló megoldásokat, ott milyen lesz az erőviszony.
-
HSM
félisten
Kicsit mókásan hathat ez a poszt miután éppen panaszkodtam, hogy maxon a 4.0-s Witcher 3 Next-gen csak 20-25FPS-el futott WQHD-n, de ugye a játék nagyon durva terhelés így. Ugyanitt épphogy a 20-at megugrotta az RTX 3060, FHD-n...
Minőségi DLSS-el is épp csak meglett a 30. A 6800XT stabilan 30 felett van FHD-n, natívban. Kb. 3070 teljesítmény, ahogy RT-ben szokott, ami teljesen jól használható.
Mivel raszterben megveri a 3080-at, így ebből is az lett a konklúzió, hogy Rt-ben lassú, nem az, hogy raszterben veszett gyors.
#60162 bjasq99 : Dolgozzanak csak, ez a kutatók feladata. Én meg majd akkor fogok használni Ai felskálázót, ha elfogadható képminőséget fog tudni. Addig egy rossz vicc ez az egész.
-
HSM
félisten
válasz
Busterftw
#60158
üzenetére
"mert szabvány ide vagy oda, AMD-n ez jelenleg szarul fut, Nvidia-n meg nem"
Azért ez így elég nagy marhaság. Én 6800XT-n játszom, ugyan nem egy RT-ördög, de teljesen jól használható módon meghajtja. Pl. BF5-ben az FPS is teljesen jó RT-vel, maxon, WQHD-n... Egy RTX3070 szintjét azért általában hozza, ami az RT-s középkategória volt akkoriban. Az új 7900-asok is szépet léptek ebben előre. -
HSM
félisten
"Szerintem a DLSS az egyik legjobb dolog, ami a desktop grafikával az elmúlt időszakban történt. Iszonyat sok ember kiörgedő VGA-jának élettartamát nyújtja ki, vagy akár tesz játszhatóvá addig játszhatatlan játékokat szészőséges esetben"
Micsoda?
Ezt eddig is meg tudtad lépni, tetszőleges képfelbontást beállítottál, ráadtad a GPU-scalingot, és kész is volt a "kézivezérelt" felskálázás, ezer éve létező dolog.
Egyedül az az újdonság, hogy ezekkel kicsit elegánsabban, OSD-barát módon tudod megtenni, illetve rátol némi utóélesítést meg Ai-varázslatot, és ennyi."A DLSS-ről kialakult pozitív véleményem egyébként nem hit kérdése, játékfejlesztőként is értékelem, de felhasználóként is a tényekre hagyatkozva alakítottam ki a véleményem."
Ahogyan én is, bár játékfejlesztő nem vagyok. A DLSS1 már a tesztfotókon nevetséges volt, ki sem próbáltam, semmi értelme nem lett volna. Valamelyik friss DLSS2-t viszont saját kezűleg teszteltem nemrég egy Nv-szponzorált játékban (Witcher 3 next-gen, 4.0), összehasonlítva az FSR2-vel és natív rendereléssel egy RTX3060-ason.
A cél annyi lett volna, hogy a monitorom natív WQHD felbontásán legalább a fix 30 FPS meglegyen padló max grafikán, RT-vel, mert piszokul tetszik úgy a képi világa, de sajnos natívban sem az RX 6800XT-m (20-25FPS), sem az RTX3060-am (nagyon kevés FPS
) nem volt erre alkalmas, erősebb pedig nem akad itthon, a boltban pedig sajnos igen borsos az ára. Ilyenkor jut eszébe az embernek, próbáljuk ki a felskálázást, hát erre találták ki! Namost, felskálázás nélkül, TAUU-val, natív FHD-n néztem először (centered GPU-scaling), 30 FPS stabilan megvan a 6800-ason, kép gyönyörű és tűéles, de a 27"-os monitoron kicsit kicsi így a hasznos képi felület (értsd, picit túl pici minden ahhoz képest, amit megszoktam). Nyilván a részletesség kevesebb, mint WQHD-n. FSR2 Quality WQHD-n, hát első ránézésre mintha kinagyítottam volna a FHD-t (végülis tényleg kb. ez történik
), a WQHD részletessége sehol, emellé a kép kellemetlenül mosottas. 30 FPS megvan, de ennél kellemesebb a pici, de éles, natív FHD kép. Gondoltam, itt az idő a zöldek megmentőjének kikiáltott DLSS-t is kipróbálni, hátha az Ai csodát tesz. RTX3060 be, spoiler: nem tett csodát. Ugyanazt a WQHD részletességét nélkülöző mosottas, kellemetlen képi világot kaptam. Egy egészen minimálisan talán jobb, mint az FSR, de számomra egy kategória, nem véltem felfedezni meggyőző előnyt, viszont ugyanúgy tapasztaltam a meggyőző hátrányokat. Ennél is masszívan jobb a natív FHD. Ebből én arra jutottam, hogy ez a technológia nem sok mindenre jó, nem ad valódi új, a meglévőeknél jobb alternatívát.
Megnézheted saját szemeddel: [link] . Kinagyítva (maximize gomb), kellően magas felbontású monitoron (nálam 1440P) kristály tisztán látszik, hogy pl. a tesztképen a karakter előtt egy zöld homályos massza lesz a natívban tűéles fűből akár FSR, akár DLSS. A 4K-s képen is látszik, de a 1080P és 1440P-sen különösen. Itt is látszik a friss DLSS verzióval: [link] . Élőben egyébként még szignifikánsabbnak érződik az eltérés.
Persze, lehetséges, hogy én vagyok túlérzékeny a maszatos, részletszegény képre, de nekem ez így nem adott semmi hasznos előrelépést.
Érdekes módon számomra elég hasonló a végeredmény a GPU-scalinghoz, vagy egy jobb monitorba épített scalinghoz (mindkettőt kipróbáltam), amiket hagyományosan messze elkerül a gamer-társadalom, jó okkal. Számomra érthetetlen, ezek a technológiák mégis hogyan tudtak átmenni a minőség-szűrőjén ugyanezen felhasználói bázisnál.
#60143 Abu85: A probléma józanul belegondolva is látszik. Az Ai (vagy ha úgy tetszik, bármi más) nem fogja tudni kitalálni azt, ami nem lett lerenderelve. Ha ki tudná, akkor azon futna a játék, nem a GPU-n...
-
HSM
félisten
"Ezért pofázom egy ideje, hogy ezt a gondot programozhatóság nélkül nem oldjuk meg, mert minden generációban új hardvert kell venni az új kerülőkhöz, amivel az API-t "gyógyítjuk". "
És mindez ugye azért, mert így több minden lehet fixfunkciós, és ezáltal gyorsabb lesz a rendszer. Az emberek ezért megveszik, örülnek, a következő generációban pedig el van nekik adva a sebtapasz drámai innovációnak és szaladnak is az újért.
Közben pedig: profit $$$... -
HSM
félisten
A leginkább megdöbbentő számomra a sok pozitív vélemény a DLSS-ről. Ezt hogyan tudták megetetni az emberekkel, nem tudom.
Ilyen ezer éve van sok játékban, hogy resolution scale, akkor is levihetted már 1.0/100% alá, és éppen ugyanaz az eredménye, csapnivaló élettelen, részletszegény kép, számomra nézhetetlen. Nevezhetjük DLSS-nek, FSR-nek, 1.0/100% alatti resolution scale-nek, egyre megy.#60132 Abu85 : Ez a DLSS3 egészen kétségbeejtő, Április 1-i tréfának is jó lehetett volna egy alternatív univerzumban...
Az AMD egyébként már 7 évvel ezelőtt is tudott képkockákat duplikálni, a FreeSync LFC néven, de ők csak értelmes dologra használták, nem az FPS-mérő megviccelésére... [link]
-
HSM
félisten
"És beszéljük ki, hogy mi mire jó?"

Az ESRAM és az L2 működése amúgy nálam megvolt (de szuper, hogy így egy posztban ott van az is
), az IC egy érdekesebb darab. Köszönöm a részletes leírást, így már van egy elképzelésem, miért más/hatékonyabb az IC, mint a megnövelt L2. 
Azt amúgy hozzáfűzném, hogy egyszerű esetben az L2 növelése elég hasonló, mintha van mögötte egy victim cache, hiszen igazából nagyjából mindegy, hogy a nagyobb L2-ben van meg a cache-sor, vagy a kis L2-ből időközben átcsorgott a nagy victim L3-ba. A leírásod szerint a "secret sauce", hogy ez nem egy egyszerű victim cache jellegű L3, hanem csak az L2 túlcsordulások egy specifikus részét kapja el, így lényegesen hatékonyabb működést érve el. Ügyes.
Ez részben magyarázhatja azt is, miért olyan gyorsak raszter grafikával a Radeonok. -
-
HSM
félisten
válasz
Busterftw
#59968
üzenetére
"ugyanazt a narrativat hasznaljak egyesek, mikozben a valosagot teljesen mellozik.... Mert ugye lehet ugy talalgatni, hogy objektiven megvizsgaljuk mi zajlik a piacon"
Ha már a valóság megvizsgálásánál tartunk, szépen válasz nélkül hagytad, amit írtam a Forspoken-re. Egyébként Linux alól vidáman szalad a Polarisokon. Számomra nem tűnik indokoltnak, hogy megköveteljék a DX12_1-es szintet a 12_0-s helyett. [link]
Ellenpéldaként való felhozása helyett szerintem az objektivitás megőrzése érdekében érdemes lenne kivárni a hozzáértőbbek véleményét, mi áll a dolog hátterében, és hogy valóban indokolt-e a DX12_1 használata, avagy sem. Lehet, hogy ez is csak egy a bugok tömegéből...#59970 Hellwhatever : Kérdés, hogy van-e ennek bármi gyakorlati jelentősége? Én érintett vagyok a 6800XT-men, de különösebben nem izgat, működik. Sőt, igazából egy játékbug (BFV RT) miatt egy ősrégi 2021 áprilisi driverel használom most.
Majd jön hozzá frissebb... -
HSM
félisten
A konzolokban szépen használva is van az APU-koncepció.
Az új Ryzenek pedig kaptak IGP-t is, és elvileg készül fejlesztés, hogy pl. az FSR bizonyos számításait átvehetnék a GPU-tól.#59953 Busterftw : A Mantle, igen, amiből gyakorlatilag ma a Vulcan lett [link] ....
"A DX12 amivel a jovobiztos fine-wine GPU-kkal nem megy a jatek?"
Kérdés, miért követelik meg... Figyelmetlenség, vagy .... ? Lásd: [link] . Nem véletlen, hogy nem volt ilyen eddig... -
HSM
félisten
" sok dologból semmi nem lett, például ... IGP-s APU"
Már hogyne lett volna ebből semmi? Most is ilyenről írok, vézna 15-22W-os Ryzen 5 4650U, és nagyon jó benne az integrált RX Vega 6 [link] , pedig ez kb a legkisebb kiadása. Régi játékok is szépen elketyegnek rajta reális elvárások mellett, teljesen jó alternatívája a régi dedikált belépő GPU-knak, töredék fogyasztással. Erre még a friss Renoir APU-val rátettek egy nagy lapáttal az RDNA2 IGP-vel [link] , és idén is várható egy újabb komolyabb előrelépés a Phoenix APU személyében RDNA3-al, pl. 7940HS [link] ."odamegy a fejlesztőkhöz, hogy na tessék szépen használni ..."
...ezt a black-box DLL-t, ami 'véletlen' letérdelteti a konkurens és előző genes saját termékeket is. Ez ám a fejlődés...

"az AMD ne mondja, hogy "For the gamers", mikor semmit sem tesz a VGA piac jobbá tételéhez"
Mantle, DX12, konzolok, OpenGPU projektek... Van azért néhány igen erős pont, amit letettek az asztalra ezen a téren.
Igazából a kedvezőbb áron gyártható Navi31 is jobb lehet a piacnak, mint az óriási, és ezért szükségszerűen jóval drágábban előállítható monolitikus Nv szörnyek. Persze, jó dolog a chart tetején látni az RTX4090-et, de azért a legtöbb játékosnak szvsz nem realitás annyi pénzt VGA-ra költeni, amennyibe egy ilyen holmi kerül, 1600$ MSRP nem kevés pénz. Sokkal 'józanabb' csúcs-termék a Navi31, ami még mindig igen drága (899$ illetve 999$ MSRP), de az inkább fog tudni kicsit lefelé menni MSRP-ben, mint a 4090. Arról nem is beszélve, hogy a Navi32-ből is még remélhetőleg egy egész jó ár/érték arányú kártyát össze lehet majd legózni. 
-
HSM
félisten
válasz
Yutani
#59938
üzenetére
Nekem a kedvenc demóm tőlük se nem Ruby, se nem story nélküliek. A "The Leo" nevezetű, amit a HD7900-as sorozattal mutattak be: [link] .

#59939 PuMbA : Jelenleg ha benézek a kiskerekbe, Nv-től azt látom, hogy vehetek egekbe árazott 4080/4090-et, vagy az árához képest szvsz alulteljesítő 4070Ti-t. A piros oldalról ár/értékben számomra sokkal szimpatikusabb a 7900 XT. Bőven rendben van az építési minőség, bőven elég a memória mennyiség, raszterben ott van a 4070Ti/4080 között, és RT-ben is van kellő ereje, mindezt ~4070Ti áron. Hab a tortán, hogy CPU-ból is elég jópár címben gyengébb is alá. DLSS/FSR meg Ai buzzwordökre én már immunis vagyok, köszönöm, láttam eleget.
Működjön inkább normálisan natívban, annyi FPS-el, amire képes."RTX Overdrive mód DLSS 3-mal"
Na, ezek a pontok, amikor én már így vagyok marketing-szagtól: [link] (Star Trek-es double facepalm mém, ha esetleg nem élne a link
).De sajnos nekem is úgy fest, hogy a nagy pénzt a Ryzen vonal hozza, és inkább oda vannak csoportosítva a nagyobb erőforrások. Sajnos könnyen lehet, hogy nincs annyi gyártó/tervező kapacitás, hogy mindkét piacon kihozhassák magukból a maximumot.
#59940 Yany : A szomorú hírem, hogy a 3. versenyzőtől marad a piac ugyanúgy oligopólium, ahogy most is az.
-
HSM
félisten
"a te méréseid szerint betonstabil, vagy tényleg az?"
Őszintén szólva, totálisan hidegen hagy.
Nekem az a lényeg, hogy amit éppen játszom, amilyen beállításokon, az fagyástól és képhibáktól mentesen működjön, amíg játszom vele, és közben lehetőleg maradjon halk és hűvös a kártya. Ennyi. Jelenleg BFV-t és Witcher 3 "next gen" megy max grafikán, RT-vel, ezek üveghangra terhelik a VGA-t, és eddig a legkisebb gond nélkül ketyegtek 1.05V-on, 2400Mhz GPU órajelen. Magától ekkora feszen pl. a Witcher-ben ~2230Mhz-en járna, ehhez képest a ~2380 Mhz a +108% beállításban érezhető előrelépés, 220W GPU fogyasztás mellett és teljesen rendben működik. Míg ha hasonló órajelet a gyári feszen szeretnék elérni, annak jól hallható eredménye van (jól beindul a három légkavaró), és a fogyasztási limitet is fel kell tuningolni a gyári 255W limitről, mert bizony nem lesz elég neki, a 300-at fogja karistolni...
Egyébként mivel a Witcher motorja bugos, és csak fixált órajel limittel folyamatos RT-vel, és a 6800XT-t megeszi reggelire az RT, így leginkább 30FPS lockkal játszom, így a BF-el ellentétben, ahol folyamatos 2.4Ghz az órajel, itt van dögivel ugrándozás, ugyanis 1.8Ghz-től 2.4Ghz-ig van minden össze-vissza közben. Nekem ez elég jó teszt, bírja. Böngészős videókra nincs szükségem játék közben, nem vagyok stream sniper csaló...
A szoftveres mérés sem izgat különösebben, látom a konnektoros fogyasztásmérőn, hogy jelentősen kevesebb így a fogyasztás, látom az FPS-ekben, hogy gyorsult, hallom, hogy szépen csendben van így, és szintén látom, tapasztalom, hogy jól fut a játék.Egyedül az rondít bele a képbe, hogy miért nem lehet ezt kultúráltan beállítani driverből, vagy egy megfelelő gyári segédprogival?
-
HSM
félisten
Egyébként ha a WattMan értelmesebb módon biztosítana lehetőséget a tuningra/UV-ra, akkor ezzel is kevesebb baj lenne....
Jelenleg mit tud? Tudom limitálni a feszt, amit ő valójában úgy "értelmez", hogy az egész tartományon leveszi valahány %-al. Ebből kis terhelésen fagyás az eredmény. Vagy, tudom úgy is, hogy kívülről, pl. MPT-vel korlátozom a maximumot, és teszek rá mondjuk +8-10% órajelet (mert egyébként a kisebb feszhez nagy okosan az órajelet is ejti
), így is kis terhelésen fog először összeesni, de mérsékelt órajelemeléssel még stabil marad (így használom jelenleg a 6800XT-m).
Persze, MPT-vel ha lenne időm beleásni magam tudnék új AVFS görbét is paraméterezni (ez lenne igényes megoldásnak elfogadható), de azért ez nem valami felhasználóbarát semmilyen józan szempontból sem.Az Nv megoldása (bár nem tökéletes az sem!) mérföldekkel használhatóbb, amikor szépen kézzel lehet finomhangolni valós időben a V/F görbe pontjait, amiből a GPU kiválasztja a kedvére való pontot, ezzel stabil, és jól működő alulfeszelést létrehozva. [link]
Persze, az is megoldás lehetne, ha nem adna magának a GPU gyárilag 1.15V-ot 2400Mhz-hez, amikor a tesztjeim alapján betonstabil 1.05V-al is... Persze, nincsenek illúzióim, de legalább adnának lehetőséget utólag a usernek beállítani, finomhangolni, amit gyárilag kevéssé sikerült csak.
#59928 Abu85 : "ha valaki nagyon elborult, akkor előkaphatja a telefonját, és menet közben állíthatja az órajeleket a játékban a Linkkel"
Minek ezt így elbonyolítani?
Ugyanezt meg lehet csinálni, játék közben, ALT+R, bejön OSD-n a Radeon Software, és lehet is vele szórakozni.
Kár, hogy rendkívül kevés, amit tud finomhangolni a legfontosabb területen (V/F). Illetve nagy kár azért is, hogy az új verziókban összevonták a WattMan-t a CPU tuningjával, és pl. nem tudok már csak kellemesen reset-et nyomni, mert egyből elkezd fenyegetni, hogy a CPU-t is nullázni fogja, amit viszont nem szeretnék. Újabb öngól, hogy tőlük vettem a CPU-t is, és erre ezzel is szivatni kezd a VGA-szoftver...
Nem is értem, hogy ez hogy nem tűnt fel senkinek a QA-n.
-
HSM
félisten
válasz
Petykemano
#59923
üzenetére
"...hanem a notebookok esetén is"
Notebookoknál nagy kérdés, melyik mennyit fogyaszt.
Egyébként ott lényegesen rövidebb lehet a vezetékek távolsága, az épp segít a jelminőségnek/árnyékolásnak. Szerintem sem lenne sok értelme egyébként tovább csökkenteni az interfészt, 16-ról 8-ra menni sokkal több kivezetés megspórolása, mint 8-ról 4-re. -
HSM
félisten
válasz
Petykemano
#59918
üzenetére
"Igen, természetesen nyilván a legolcsóbb kártyához fogod venni a legdrágább alaplapot..."
Műszaki oldalról nézve viszont indokolt lehet a döntés a PCIE sávok csökkentésének pici GPU-k esetén... Egyfelől laptopokon gyakran nincs bekötve mind a 16 sáv, ami ezeknek a fő piaca, másfelől a nagyon pici lapkák erősen I/O limitáltak lehetnek, ami azt jelenti, hogy nem tudnak egy bizonyos csipméret alá menni, ha nem nyúlnak az IO-hoz. Kellő mennyiségű VRAM-al egyébként szvsz ez nem akkora gond.#59920 morgyi : Ezzel a három tervezett csippel (Navi31, 32, 33) szerintem elég kerek lett/lesz a portfólió, illetve az alul "ottragadt" Navi24 is kellően modern GPU-nak tekinthető, különösen a megcélzott feladatra/piacra/teljesítményszinten, így nem tartom jogosnak a kritikádat.
-
HSM
félisten
válasz
paprobert
#59848
üzenetére
Egy GPU nem csak ALU-ból áll... Van mellette egy rakás más struktúra, display motorok, memória vezérlő, gyorsítótárak, de akár az ALU-k felépítése, struktúrája is eltérhet. Az is eltér, melyik gyártó mit nevez ALU-nak. Nekem ez a szám emiatt nem mond semmit, nem tartom relevánsnak.
-
HSM
félisten
válasz
S_x96x_S
#59812
üzenetére
Figyelembe véve, hogy az N3 alig gyorsít a ram cellákon, de a logikán annál inkább, így nagyon jó iránynak tűnik, hogy sikerült GCD/MCD felosztást megcsinálni. Így a sok ram cella maradt az olcsó 6nm eljáráson, a jól skálázódó logika meg majd mehet 3nm-re 1-2 éven belül.
Egyébként költség oldalról teljesen rendben van most is, a kalkulációk alapján a méretéhez képest kedvező költségeken gyártható a Navi31.
Én egyébként azt gondolom, reflektálva a #59813-ra is, hogy a gyártókapacitás optimalizálásához is nagyon jó ez a 6+5nm kombináció, hiszen így a szűkös/drága 5nm-en csak egy egész kedvező méretű csipet kell gyártani, az olcsóbb, nagyobb volumenben elérhető 6nm-en meg remek kihozatallal lehet ontani a MCD-ket. Ez azért nagyban segíthet abban, hogy elérhetőbb áron, nagyobb mennyiségben legyen majd elérhető az új generáció.
-
HSM
félisten
válasz
Petykemano
#59794
üzenetére
Én azt gondolom, ennek az 5.3TB/s-nek azért nagyon nagyon sok mindenre elégnek kellene lennie. Az RDNA2-höz képest ők pl. 1.8X-os sávszélesség növekedést mértek a cache-re [link] . V-cache-el már lehet okozna némi hátrányt, de a jelenlegi rendszer nekem inkább tűnik GCD, mint MCD limitáltnak.
#59798 Petykemano : Az előző linkem alapján még mindig 4X gyorsabb elérésű lenne a cahce-hit, az még mindig emberes gyorsulás. Maradt az arány a VRAM/IC elérés sávszélessége között, mint ami a Navi21-en is volt.
#59799 Hellwhatever : Ennek sokan nem fognak örülni....
A szomorú, hogy sokan nem is az opciók/performance miatt használták az MPT-t, hanem mert gyárilag nem volt normálisan beállítva a GPU. Nem is lehetett vele a gyári értékek fölé menni, nem engedte már az RDNA2 sem, csak lefelé.
Én pl. lecsíptem kb. 100mV-ot a 6800XT-m feszültségéből, így alacsonyabb fogyasztáson hoz valamivel magasabb órajelet (2400Mhz, kb. a gyári BOOST teteje lenne ha ráadnám a gyárilag engedett +15% power limitet), halkabb, hűvösebb, takarékosabb működéssel (így szűk 300W helyett bő 200W a GPU részéről). Gyárilag nincs ilyen konfig, megvehetem vagy a jóval lassabb, fogyasztásra jobban optimalizált, de jól megvágott 6800-ast, vagy a gyárilag szénné feszelt 6800XT-t vagy 6900XT-t.
#59800 Yutani : A zöldeknél régóta kőbe meg digitális aláírásokba van vésve pl. a power limitek. Viszont náluk szabadon lehetett eddig állítgatni a V/F görbét Afterburnerből, ami igen hasznos opció volt. Az RDNA2-nél hasonlót az MPT-vel lehetett. Az RDNA3-nál úgy tűnik, marad korlátozottan, amit a WattMan felajánl.

#59801 Petykemano : A "tuning felárát" eddig is meg kellett fizetni. Az RDNA2 sem engedte felfelé a gyári maximum fölé sem az órajeleket, sem a feszültségeket, sem a limiteket.
Viszont engedte beállítani a ventilátort, feszültség görbéket. Remekül lehetett vele finomhangolni a működést.#59802 Abu85 : Ha az új API is tudni fogja, amit a régi, akkor nem lesz gond. Pl. feszültség görbék, ventilátor finomhangolása...
-
HSM
félisten
válasz
Petykemano
#59781
üzenetére
"Ha a chipletezés balul sül el? (Balul sült el.)"
Az elérhető információk alapján az a rész pedig elég jól sikerült.
Ami a pletykák szerint nem sikerült jól, az az elért GCD órajel (a tervezett fogyasztási kereten belül), és elvileg jelentősebb bugok vannak a lapkában, amik hatnak a teljesítményre (túl sok mindenbe nyúltak bele rövid időn belül). Nem tudom, mi és mennyire igaz ebből.
Érdekes lehet majd ebből a szempontból a Navi32, azt mondják, ott a bugok már elképzelhető, hogy javítva lesznek. -
HSM
félisten
válasz
bjasq99
#59759
üzenetére
"de adott termékek esetén nem ez kell hogy meghatározza döntéseinket hanem a nyújtott szolgáltatás"
Az egyik nagy probléma ezzel, hogy ha most veszel egy VGA-t, akkor annak csak a múltbeli játékok teljesítményéről, és a jelenleg elérhető szolgáltatásaival fogsz tudni tapasztalatokat szerezni. Nem tudhatjuk pl., hogy az Nv beharangozott RT-s fejlesztései mennyire fognak bejönni [link] ahogy az AMD-é sem [link] . Ugyanakkor arról lehet némi fogalmunk, hogy melyik mennyire széleskörűen alkalmazható, gondolok pl. az Nv-féle újítások egy részének szoftver oldali támogatás-igényére. Ugyanakkor vélhetőleg ha ma veszel egy 1-2000 $/€ értékű VGA-t, akkor az elkövetkező években megjelenő címekhez is veszed, nem csak az aktuálisan elérhetőkhöz... Ezt pedig a technikai leírásoknak kellene bizonyítania, hogy jó helyre teszed a pénzed, és nem lesz egy év múlva papírnehezék a kártya.Egyébként egyik implementációval sem vagyok maradéktalanul elégedett. Az Nv-é szvsz túl kötött, az AMD-é nem mindig elég gyors.
-
HSM
félisten
"Instabil alatt nemtom mire gondolsz"
Pl. 280X-ből volt jópár AIB típus, aminél a GPU alatti ramcsipre nem került hűtés, és rendszerint el is melegedett, ami miatt sok szemetelt ezek közül. 290-ekből is volt ramhűtés nélküli AIB, ott is a felhasználónak volt érdemes kicsit besegíteni a kártyának nem túlmelegedni... 5700-nál is volt pár 'érdekes' modell. Ezek nem segítenek építeni a bizalmat."Inkább a driverekkel volt/(van?) probléma."
Voltak bizonyos alaplapok, amiknél a zerocore módjuk után fekete képernyő jött, nem tért magához a GPU (volt aki írt is rá kis appot, ami meg tudta akadályozni ezt a módot). Na, aztán már mindenféle hibát ennek a számlájára írtak a fórumban, azt is, amiről ordított, hogy kártyahiba, de ugye a "fekete képernyős hiba" villant be..."2. átlag vásárló ha ilyet lát ... akkor kétségbeesettséget sejt emögött"
Nem tudom, én valószínűleg nem ilyen vagyok. Számomra a pl. zárt middleware-ek vagy zárt megoldások erőltetése a szabványok helyett, amire mint a versenyt potenciálisan csökkentő, a vásárlónak hátrányos dologként tekintek. -
HSM
félisten
válasz
Petykemano
#59723
üzenetére
A legérdekesebb, hogy szerinte nem is a bányászat volt a gond, hanem a szakszerűtlen tárolás.

#59729 fLeSs : AMD-nél is a hangos/meleg/instabil tapasztalatok is gyakran rossz minőségű AIB termékekből fakadtak. Érdekes mód AMD-nél nem az jött magyarázatnak, hogy hangos/meleg/silány ez az XYZ kártya, meg blackscreenel az XYZ kártya, hanem így AMD meg úgy. Szerencsére az RDNA2-nél már egész jó modellek jöttek az AIB-októl is, és a referencia is végre kitűnően sikerült.
"Melyik vonzóbb?"
Értem a gondolatodat. Ugyanakkor számomra elég gáz a DLSS meg a túltolt AI téma. A DLSS 1-2-nél simán csak gyomor kellett a homályos képhez, a DLSS3 meg számomra egy trükk a számokkal, kb mint az AFR CF/SLI volt annak idején. Ezzel szemben én igen érdekesnek tartom pl. az RDNA3 belső fejlesztéseit, amit szépen be is mutattak a diasorban. Én szívesebben vásárolok olyan terméket, ahol transzparensebb a gyártó, abban, hogy mit ad el, mint amikor magabiztosan a főnök a kamerába néz, hogy "Ai van benne, hidd el, nagyon jó lesz".
Számomra az is vonzó egyébként, hogy nyílt technológiákat fejlesztenek, pl. GPUOpen, így pl. az RTX 3060-amon össze tudtam direkten hasonlítani az FSR2.1-et a DLSS-el, hiszen az FSR2.1 gyártófüggetlen/nyílt, míg az RX 6800XT-men sajnos nem tudom bekapcsolni a DLSS-t egy árva teszt erejéig sem, mert zárt technológia... Mondjuk túlzotan nem zavar, számomra egyik sem opció, nem tetszik a képminőségük, inkább játszom kisebb felbontásban, vagy kevesebb FPS-el.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Magyar Logitech G915 Billentyűzet lehet +33.000.- Ft ból
- Lenovo Tab M10 HD 64GB, Kártyafüggetlen, 1 Év Garanciával
- 157 - Lenovo LOQ (15ARP9) - AMD Ryzen 7 7435HS, RTX 4060 (ELKELT)
- Új és újszerű 13-14 Gamer, ultrabook, üzleti, 2in1, X360, Touch készülékek kedvező áron Garanciával
- Gamer PC-Számítógép! Csere-Beszámítás! R5 4500 / 16GB DDR4 / RX 6600 8GB / 500GB Nvme
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
![;]](http://cdn.rios.hu/dl/s/v1.gif)

Én egyébként a hagyományos DLSS/FSR-el is így vagyok PC-n, beállítok magas felbontást, hogy aztán alacsonyabb felbontásból összetákolt képet nézzem? 


Én személy szerint maradok a natívnál.





