-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Petykemano
veterán
Találgatás
A srác szerint az xbox nagy dobása a modularitás lesz, moduláris fejleszthetőség. (Ezért hívják sorozatnak)
Valóban, az xbox ház kinézete elég formabontó.Az jutott eszembe, hogy az Apple-ön kívül akár ide is megfelelne a vágatlan navi 14. Olcsó változatnak, 1080p játékhoz épp elegendő.
-
Z10N
veterán
válasz
Petykemano
#44995
üzenetére
Meglepodtunk, "Vincent"?!
Amugy ez egybevag a tegnapival.
GIGABYTE preparing Radeon RX 5600 XT
"Board partners are very enthusiastic about this particular Radeon model, just as they were about Radeon RX 5500 series till AMD decided to make it… less cost-effective solution that they expected."
De amugy Igor is megmondja a frankot:
"It’s no secret that AMD’s Radeon RX 5500 XT is currently selling rather sluggishly, as the cards on offer are simply too expensive for what many customers are bidding. On average even slower than an old Radeon RX 590 as the last Polaris iteration, this card is nothing more than a much too expensive side-grade and actually only a replacement for the even older Radeon RX 580. And that’s exactly where AMD has created a problem for itself, because while the RX 590 has already been set EOL, the RX 580 will, according to internal sources correctly, still be available well into 2020. This is pure self-cannibalism and not a good starting position for the Radeon RX 5500 XT."
Ui: Csak halkan megjegyeznem, hogy $185-ert vettem most Vega56-t. -
AtomSiló
lelkes újonc
válasz
Petykemano
#44995
üzenetére
"Ugyanaz a teljesítmény, picit drágábban, 30%-kal kevesebb fogyasztással."
Honnan ismerős ez a mondat annyira ?
ja az 5500xt-nél olvastam. -
AtomSiló
lelkes újonc
-
Jack@l
veterán
Akkor megkérdezem mégegyszer, mert látom nem volt világos mi a bibi:
Szóval ha amd tudta hogy jócskán szarabb lesz 8x pci express 3-al (tehát hardveresen 8 lane-el) még ez a kis kártya is, akkor mért raktak rá ennyit? Mert az utóbbi 10 vagy több évben se találkoztam ilyennel vga-nál, csak 16x-ossal.
A bullshittől kimélj meg légyszi: "hogyha átváltjuk mi mennyi". -
Abu85
HÁZIGAZDA
Alapvetően azonos, csak ha rájátszol erre a dologra, akkor bármilyen hardverek ki tudod ezt hozni. Nem véletlen az a játékválasztás. Csupa megatextúrázó cím, ahol be lehet hülyíteni a megatextúrázót. Az AMD el is árulta a nyáron, hogy miképp kell csinálni.
Az FC5 is megatextúráz. Nézzék meg egy olyan címben, ahol nem lehet ezt megcsinálni. Ja, hogy ott nincs különbség? Akkor nincs szenzáció sem, és nincs kattintás.
(#44992) b. : A programokon belül természetesen orvosolható, de azért nem látsz erre túl nagy erőfeszítést a fejlesztők részéről, mert ha normálisan játszol, akkor jelenleg képtelenség előnyt kovácsolni a PCI Express 4.0-ból. Egyszerűen nem válik limitté. De ha a streaming algoritmus problémáira tudatosan rájátszol, akkor természetesen az lehet, csak én még nem láttam játékost úgy játszani, hogy megadott útvonalon fut körbe körbe, és rángatja az egeret. Ez hülyeség. Ezt nem kell javítani, mert ilyet egy játékos nem csinál, de még ha csinál is, akkor sem tudja, hogy pontosan hol kell az adott játékban. Az AMD-nek könnyű, ők azért látják, hogy mit csinál a játék a VRAM-ban, tehát ki tudnak találni olyan szimulációkat, ami belimitálja a buszt. Ezt sokszor a fejlesztők sem látják egyébként. Nem téma ezzel foglalkozni, mert jó eséllyel senkinek sem jön elő, aki játszik vele. A gyártók pedig azért csinálják ezt, hogy hatékonyabb drivereket tudjanak írni, nekik nyilván hasznos egészen extrém szituációkat szimulálni, ami otthoni szinten nem realitás. Jelen pillanatban a valóság a PCI Express 2.0, 3.0 és 4.0 tekintetében ez: [link]
Ami a Navi esetében specifikus, és driverrel orvosolható az a memóriamenedzsment. Mint írtam az AMD nem portolta az összes GCN optimalizálást a Navira, mert nem mindegyik működik jól, illetve a DirectX 11-es meghajtó már nem fókusz.
-
Abu85
HÁZIGAZDA
Egészen egyszerűen. Valójában a játékokban a PCI Express terhelése azért alacsony, mert tudatosan erre építik fel a működést. De előfordulnak olyan helyzetek, amikor nehéz úgy optimalizálni a rendszert, hogy a terhelés minimalizálva legyen. Klasszikus példa a streaming, amikor a textúrák jelentős része a rendszermemóriában van, és onnan kerül át a VRAM-ba, amikor erre szükség van. Főleg a virtuális textúrázást használó játékok esetében (AC: Origins és Odyssey, Battlefield 4-től kezdve az összes, új Wolfenstein 1-2) vannak olyan jelenetek, ahol pusztán a jelenet felépítése miatt ez a terhelés valamivel nagyobb, mint a játék jó részében, és ha bizonyos útvonalat követsz, majd többször bejárod, akkor nagyon meg lehet hülyíteni a megatextúrázó rutint. Ilyenkor mesterségesen ki tudod hozni a PCI Express 4.0 előnyét, mert gyakorlatilag kihasználod a fellépő tipikus problémákat, ideértve a VRAM beszemetelését. De ahogy írtam, senki sem fog úgy játszani, hogy direkt kihasználja az adott motor streaming hibáit, mert ilyenek vannak, nem tökéletesek ezek a programok, de nem baj, mert szökőévente, ha egy ember belefut a százezerből. Emiatt nincs is értelme ezt tovább optimalizálni, mert valós problémát nem okoz, rendbe hozni pedig drága lenne, így jó az a játék így is. Viszont nyilván az AMD rengeteget monitorozza a játékokat, így tudják, hogy mit és hol kell csinálni, hogy x-y címben valamennyire meghülyítsék a streaminget, amit megcsinálhatnánk mi is, csak ugye miért tennénk? Erősen mesterséges körülmény lenne, amit a valóság nem igazán igazol.
-
elolvastam:.
"Tehát ha információd arról, hogy az adott játék milyen jelenetsor során terheli a legjobban a PCI Express interfészt, akkor kizárt, hogy ki tudd mérni a 2.0, a 3.0 és a 4.0 között a különbséget. De ha erről van tudomásod, akkor sokkal egyszerűbb a helyzeted, mert tudatosan fel tudod úgy építeni azt a tesztet, hogy a játéknak azt az aprócska szeletét erőltesd, és ott már lesz különbség a csatolók között."
Ez egy hülyeség szerintem...
Nézd már meg milyen különbségek vannak a tesztben. nem pár tized százalékról beszélünk. Hogy a fenébe lehetne BÁRMILYEN jelenettel így megterhelni a PCIE3.0-t x 16 nál
ezekben a játékokban? meg persze hogy lehetett 8X re engedni ilyen eredménykülönbségek tükrében?
Szerintem valami nem egészen kóser itt nem lehetne ekkora differencia véleményem szerint. Majd kíváncsi leszek Igorra mit reagál erre. -
Abu85
HÁZIGAZDA
Úristen. Olvasd már el mit írok.
(#44983) X2N: A BRAW-ban akármit raksz mellé, bizonyos részletességen túl mindenképpen a PCI Express lesz a limit. Ezért választottuk ezt a programot demonstrációra, mert a Blackmagic írta, hogy náluk a 4.0 előnye tuti kijön.
Egyébként az AMD is ezt a programot javasolja, mint valós körülmény. A professzionális alkalmazások között kell keresgélni, hogy a PCI Express 4.0-nak megmutasd a hatását. Máshol nincs igazán jelentősége.
-
Hogy említheted a BRAW-t egy lapon egy játék által nyújtott PCIE terheléssel? tudod a BRAW milyen xtrem módon küldi meg ilyenkor az interfészt és hogy ehhez egy játék sehol sincs semmilyen általad említett extra jelenetben még 200 % resolution mellett sem 4 K ban?Még a legjobb motorok sem képesek értékelhető különbséget produkálni ...
És még erre is azt mondom hogy az általad linkelt mérésben sem a PCIE 3.0 volt az igazán korlátozó hanem a RAM... -
X2N
őstag
Szerintem egy gyorsabb memóriával (2 x 8 GB ADATA XPG Spectrix D40 DDR4-3000 (2 modul a AX4U300038G16-QRS kitből) @DDR4-2933, CL16, 1T) jobb eredményt értetek volna el mint ezzel a PCIE 3.0 4.0 összehasonlítgatással.
Egy X470 lappal és jobb rammal gyorsabb lett volna, mint egy PCIE 4.0-ás lappal. -
Abu85
HÁZIGAZDA
A mérési hiba az más. A helyzet nagyon egyszerű. Valójában még az x16-os PCI Express 4.0 sávszélessége is kevés a VRAM sebességéhez képest, tehát erre nem éri meg erősen építeni a szoftver oldaláról. Ugyanakkor egy játék is belefut helyenként olyan limitekbe, amelyek ugyan léteznek, de mindössze a teljes játék 0,0000000000000001%-át alkotják. Tehát ha információd arról, hogy az adott játék milyen jelenetsor során terheli a legjobban a PCI Express interfészt, akkor kizárt, hogy ki tudd mérni a 2.0, a 3.0 és a 4.0 között a különbséget. De ha erről van tudomásod, akkor sokkal egyszerűbb a helyzeted, mert tudatosan fel tudod úgy építeni azt a tesztet, hogy a játéknak azt az aprócska szeletét erőltesd, és ott már lesz különbség a csatolók között. Csak ahogy írtam ez mond rendkívül mesterséges körülmény, ami a valóságot nem reprezentálja, így ha ezeknek a körülményeknek az előállítására nem törekedsz tudatosan, akkor azt az eredményt kapod a PCI Express befolyásolása szempontjából, amit a TPU kapott. Ezt linkeltem a hsz-ben, amire reagáltál.
Ahol a PCI Express 4.0-s VGA igazán számít azok a professzonális alkalmazások. Ott azért találni olyan feladatot, ahol van olyan valós körülmény, ahol ebből előnyt lehet kovácsolni. Mi is találtunk: [link] - akinek erre kell VGA, nyilván törekedjen PCI Express 4.0-ra, de játékra igazából felesleges, mert a játékmenet 99,9999999%-ában nincs előnye, a maradékot pedig túl lehet élni.
-
X2N
őstag
Te olyan dolgokat állítasz be ténynek amik mérési hibának is beillenek. Gratulálok.
Csak az ssd sebesség miatt van értelme beruházni egyáltalán X570-es alaplapokba, mindenki más jobban jár egy régebbi szériás alaplappal aminek nem fog beszarni 1 év után a chipset hűtőventillátora. Az amd kártyái a közelében sincsenek a PCIE 3.0 korlátainak, A Titan V közelíti meg, csak de ott is elhanyagolható a sebesség különbség. Az a legnagyobb vicc hogy a legtöbb TRX40-es alaplap alapból alkalmatlan 4 vagy több kártya kihasználására, függetlenül attól hogy van-e rajta PCIE 4.0. -
Abu85
HÁZIGAZDA
Attól függ, hogy mennyi ideig mérsz. Elég csak másolni, amit az AMD csinált. Nem nagy ördöngösség. A probléma vele, hogy ez nem lenne a valóság. Egyszerűen csak rámész arra, hogy a PCI Express 4 gyorsabb interfész, és keresel olyan pontot a játékban, ahol ez kijön, majd abszolút azon a ponton maradsz. De ez rendkívül mesterségesen teremtett helyzet ám. A valóságban ilyen nincs. Természetesen előfordul az, hogy egy játékban pár frame mondjuk limites lesz a PCI Express miatt, de továbblépsz, és vége a limitnek. Ha viszont leragadsz, akkor mesterségesen tartod fent a limitet. Innen már csak azt kell kitalálni, hogy meddig kell mérni, hogy ezt a limitet erősen láthatóvá tedd az eredményeken. Ha mondjuk mérsz egy valós körülményt, ahol van egy 3 perces jelenetsorod, és tényleg a játékot szimulálod, akkor kizárt, hogy ez látható legyen. Még a minimumon sem, mert eleve leszűrjük a legrosszabb 2%-ot.
Amiről egyébként te írsz, az nem a PCI Express miatt van. Az AMD RDNA-ra még nem portolta a GCN összes memóriaoptimalizálását. Egyszerűen erre fél év nem elég. Nem is feltétlenül működnek ezek, illetve a DirectX 11-es driver sem kap valami nagy fókuszt.
-
Abu85
HÁZIGAZDA
válasz
Jack@l
#44977
üzenetére
A TPU tesztjében pedig x16-os PCI Express 2.0 szerepel, ami megfelel az x8-as PCI Express 3.0-nak. Szóval szándékosan írtam, amit írtam. Az AMD szépen felvázolt pár körülményt, amikor ki lehet ütni az x16-os PCI Express 3.0-t. És ezt kétségtelenül meg lehet tenni, de ez csupán az adott játék 0,00000000000000000000000000001%-a, tehát nem életszerű erre a körülményre építeni. Ezért van az, hogy a TPU az x16-os PCIE 2-3-4 összehasonlításnál nem talált 2%-nál nagyobb különbséget átlagban.
Meg tudnánk tenni mi is, hogy erre felépítünk egy tesztet, és akkor marha szar lesz mindennek, ami nem PCI Express 4.0-s, csak nem látom értelmét kikeresett körülményt tesztelni, az adott játék 99,9%-ára nem lesz igaz az eredmény.
-
HSM
félisten
válasz
Petykemano
#44973
üzenetére
Nem feltétlen ugyanekkorát, hiszen azokon többnyire nincs lespórolva a sávok fele, pl. RX580... Az 3.0-n tud annyit, mint az 5500XT 4.0-n.
Mindenesetre, nem véletlen vettem már egy éve is 8GB-os RX580-at...
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#44973
üzenetére
Van is. Csak a teszteket nem arra építik fel, hogy kivéreztessék a 4 gigás verziót. De ha erre építenék fel, akkor még az x16-os PCIE4 is előny lenne a PCIE3-hoz képest, hiszen gyorsabban másolja a VRAM-ba a rendszermemóriából az adatot. Csak ilyenkor már rég rossz, amikor ez az adatmásolás a limit, mert még a x16-os PCI Express 4.0 is sokkal lassabb a VRAM-nál.
Amikor szándékosan nem törekedsz arra, hogy az x16-os PCI Express 4.0-nak kedvezzél, mert be lehet úgy állítani a mai játékokat és keresni lehet olyan jelenetet, hogy az x16-os PCI Express 3.0 is limit legyen, akkor ezek a tipikus különbségek: [link] - Ebben ugye az x16-os PCI Express 2.0 is elég egy RX 5700 XT-nek, ami megegyezik az x8-as PCI Express 3.0-val. De még egyszer mondom, ha nagyon akarom, akkor ki tudnám hozni azt, hogy az x16-os PCI Express 3.0 kevés neki. Az AMD számos ilyen körülményt mutatott a review guide-ban, csak ugye ezek extrém szituációk, amikor pontosan ott kell állni egy területen, hogy belefuss a limitbe, stb. Erre azért nem tértünk ki igazán, mert ez kvázi az, amikor keresni kell, hogy hol kevés az x16-os PCI Express 3.0. Nem életszerű, de kétségtelenül tény, hogy sok játékban találni olyan helyzetet, amikor az x16-os PCI Express 4.0 is előny, csak a játékmenet 99,99999999%-ában pedig bőven elég a 3.0, sőt a 2.0 is, ahogy a TPU is mutatja.
-
HSM
félisten
Persze, világos.
Írják is a végén: " If the finding here is accurate, then the 4GB RX 5500 XT will consequently become very difficult to recommend as the majority of the people shopping with this budget will likely not opt for expensive PCIe 4.0-capable X570 motherboard offerings.".
Az is szépen látszik, a 8GB-os szépen elvan 3.0-n is, míg a 4GB-os mindkét illesztőn szenved, csak a 4.0-n kicsit kevésbé látványosan.
[link] -
Petykemano
veterán
-
HSM
félisten
-
Jack@l
veterán
https://www.neowin.net/news/pcie-30-could-be-crippling-amds-rx-5500-xt-performance
8x Ez azért elég fail... -
AtomSiló
lelkes újonc
válasz
Petykemano
#44963
üzenetére
Köszönjük a cépluszplusz dokumentumot most már mindenki tud deklarálni és inicializálni
Ne kockáztasd meg.
Ezek alapvetések:
-7nm EUV megvárása.
-RNDA2- re alapuló portfólió, NV kompatibilis shader kényszer nélkül.
Bérgyilkosképű Tanár úr megmondta K gyors lesz
De azért mondott Ő mást is megnevezett engineket és a CPU használatát... csak nem kell elbagatelizálni mint itt tették. -
Petykemano
veterán
válasz
Petykemano
#44962
üzenetére
/* TARGET ARIEL */ {HSA_ARIEL_ID, "", "gfx1000", "gfx1000", "gfx1000", 2, 32, 1, 256, 64 * Ki, 32, 0, 0},/* TARGET NAVI10 */ {HSA_NAVI10_ID, "", "gfx1010", "gfx1010", "gfx1010", 2, 32, 1, 256, 64 * Ki, 32, 0, 0},/* TARGET MI100 */ {HSA_MI100_ID, "", "gfx908", "gfx908", "gfx908", 4, 16, 1, 256, 64 * Ki, 32, 0, 0},/* TARGET NAVI12 */ {HSA_NAVI12_ID, "", "gfx1011", "gfx1011", "gfx1011", 2, 32, 1, 256, 64 * Ki, 32, 0, 0},/* TARGET NAVI14 */ {HSA_NAVI14_ID, "", "gfx1012", "gfx1012", "gfx1012", 2, 32, 1, 256, 64 * Ki, 32, 0, 0}Gfx9: vega vonal, a mi100 gfx908 tehát Vega leszármazott
Gfx10: naviAz ariel kódnév a PS5-öt rejti, ehhez a gfx1000 tartozik.
A navi 10, 12, 14 pedig rendre gfx1010, gfx1011, gfx1012Ezek persze csak számok, mindenki képessége és tudása szerint értelmezi és vetíti rá arra a kérdésre, hogy az új konzolok egyike és másika mihez állhat közel(ebb)
megkockáztatom felvetni a kérdést, talán a ps5 előbb jön? És raytracing nélkül? Vagy nem dedikált gpu RT hardverrel?
-
Petykemano
veterán
A NAVI12 továbbra is jelen van a szoftverben
a GFX908 helyén felbukkant a Mi100 -
válasz
Petykemano
#44960
üzenetére
Jobbbb😍😍
-
Yutani
nagyúr
válasz
Petykemano
#44958
üzenetére
Plutyka = kelkáposzta főzelék
-
Petykemano
veterán
Plutyka: a navi 14-et a Samsung (is) gyártja?
Eléggé furi lenne a sok TSMC-vel közös fellépés után, de hát az nvidia ia Így csinálta. A TSMC-hez képest a samsung selejtaránya vélhetően magasabb, lévén, hogy nem is verik nagydobra. Ez Megmagyarázná, hogy miért csak 22CU aktív. Mindenesetre ez csak plutyka.
-
Cyberboy42
senior tag
válasz
Csokishurka
#44944
üzenetére
Szerintem neked a kis fogaskerékre kattintás kell, és ott a Hotkeys fülön törölj minden gyosbillentyűt amire nincs szükséged
-
imi123
őstag
-
PuMbA
titán
válasz
Csokishurka
#44946
üzenetére
A driver felrakása után végignéztem a driver összes beállítását, hiszen eléggé megváltozott, ami csak 5 fülből áll és kikapcsolod, ha meglátod. Ennyire egyszerű
Fogalmam sincs, hogy melyik fülön van, én is csak egyszer végignéztem az egészet. Ne dobjuk már fel a talpunkat egy ilyen egyszerű dolog miatt. -
Yutani
nagyúr
válasz
Csokishurka
#44944
üzenetére
Rossz topikba írol, tesó.
Egyébként nekem az segített, hogy a Radeon Softvare-ben töröltem a játékhoz létrehozott profilt, a globális beállításoknál meg kikapcsoltam minden sz@r képjavítót meg frame limitert.
-
Abu85
HÁZIGAZDA
válasz
Csokishurka
#44946
üzenetére
(#44938) Petykemano: Azért nincsenek bizonyos utasítások RDNA1-2-ben, mert nem kellenek, míg a konzolokban azért vannak, mert kellenek. Ezek nem fognak az RDNA3-ban lejönni PC-be, mert továbbra sem kellenek ide.
(#44937) szmörlock007: Látni kellene, hogy mit tud a Sony devkitje. Eléggé kevés az infó róla még.
-
imi123
őstag
válasz
Csokishurka
#44946
üzenetére
Ja értem.
Akkor valamelyik szaki biztos tud segíteni aki használja az új drivert. -
imi123
őstag
válasz
Csokishurka
#44944
üzenetére
Szia!
Mit akarsz tiltani?A drivert?
Ezzel gyaluld le és rakj fel régebbit. -
Csokishurka
őstag
Sziasztok,
Ugye fel lett rakva ez új csudaszupi driver és cserébe a wow 3 másodpercenként megfagy csak altabozással jön vissza.
Le lehet ezt a szutykot tiltani hogy egyik játékban se jöjjön elő, vagy csak uninstal segít?Válaszokat előre is köszönöm!
-
imi123
őstag
válasz
Petykemano
#44940
üzenetére
Ja ja.
Hagyni kell egy kicsit az NV-t is hogy húzza a szekeret. -
imi123
őstag
válasz
szmörlock007
#44941
üzenetére
Mi meg pár száz oldalnyi ABU cikket.
Én már nem is nézek sci fit amióta a mester cikkeit olvasom.
Persze lehet hogy majd az öregek otthonában a netet bújva egyszer csak felkiáltok.Hát ezt már ABU 30 éve megmondta,igaz ő 29 évvel előbbre jósolta.

Bocs főni.
-
szmörlock007
aktív tag
válasz
Petykemano
#44940
üzenetére
Tapasztalatot
-
Tyrel
őstag
válasz
Petykemano
#44938
üzenetére
Jelenlegi konzolokról portolt játékoknál se számított, nem futnak jobban AMD videokártyákon (max. 1-1 ritka kivétel, amikre ugyan úgy vannak ellenpéldák is)
Egyébként RDNA2-ben lesz Variable Rate Shading és RayTracing, új konzolokban is lesz mindkettő... innen nézve szerintem elég egyértelmű melyik RDNA generációhoz állnak közel az új konzolok, pláne hogy a leak factory is jó ideje az RDNA2-höz társítja őket.
VRS-en egyébként csodálkozom hogy most a 2020-as driverrel nem hozták ki a Navi-khoz, lehet valami hardveres akadálya van ami miatt csak RDNA2-vel jöhet majd... ez tovább erősíti a konzolos rokonságot. (ok, értem, nem 1:1-ben ugyan az a két GPU, de közös alapokra építkeznek, csak aztán customizálják őket a célplatformnak megfelelően)
Vicces amúgy hogy pár éve még az AMD mennyire elöl járt az újabb API-k támogatásában, akár új Shader Model-ekről, akár DirectX feature level-ekről vagy bármi más nagyon új vagy nagyon experimental cuccról volt szó, ők mindig hozták a támogatást. Most meg messze lemaradva kullognak nVidia mögött...
Gyönyörűen végig aludták ezt a pár évet... 
-
Petykemano
veterán
"RDNA-ban és az RDNA 2-ben nincs VSKIP, de a konzolos RDNA-kban van. Na most akkor melyikhez áll közelebb? "
Félreérted a kérdést.
Nem az a kérdés, hogy mik azok a custom jellegzetességek, amik se a PC-s RDNA, se az RDNA2-ben nincsenek.Hanem hogy az RDNA2-ben az RDNA1-hez képest megjelenő jellegzeteségek közül (vagy azon túl az RDNA3-ból) mennyi került be a PS5-be és mennyi az Xboxba - természetesen a csak PS5-re és csak Xbox-ra jellemző jellegzetességeken kívül, azokon túl.
-
szmörlock007
aktív tag
Egyébként a ps5 launch címei (ami között nagy eséllyel megint ott lesz a guerilla games) ugyanúgy csak a képességek töredékét fogják kihozni a konzolból, mint anno a shadow fall?
Illetve mire lehet számítani, milyen nagy grafikai újdonságokra első körben mondjuk egy last of us 2-höz képest? -
Ribi
nagyúr
válasz
Petykemano
#44934
üzenetére
Xbox 360 GPU is elvileg X1800-ra épült (valamiért régen mintha x1650-et mondtak volna? de lehet csak haluzok), de voltak benne olyan dolgok ami a desktop VGA-ban nem. Az is eléggég custom volt.
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#44934
üzenetére
Egy túrót. Sosem épültek az új konzolok GCN-re. Csak volt egy félbalfasz ork, aki ezt írta korábban, majd úgy mentette meg a saját baromságát, hogy a Sony gyorsan váltott, csak kb. fingja sincs, hogy egy ilyen váltással az egész konzol 2 évet késne, mert elölről kellene kezdeni a fejlesztőkörnyezetet, az API-t, meg a bináris fordítót. De egyszerűbb volt ezt mondani, mint azt, hogy akkor sem volt erről fingom, és most sincs, csak haluztam valamit az olvasottságért.
A custom pedig azt jelenti, hogy egyikhez sem áll közelebb, mert például az RDNA-ban és az RDNA 2-ben nincs VSKIP, de a konzolos RDNA-kban van. Na most akkor melyikhez áll közelebb?
Annyira brutálisan le akarjátok ezt egyszerűsíteni, hogy innen jönnek ezek a GCN hibrid, ehhez közel áll, inkább RDNA1 lesz, mint 2, ésatöbbi, de közben egyiknek sincs köze a valósághoz, mert sokkal bonyolultabb a kérdés, mint amennyire egyszerűen akarjátok kezelni.Egyébként példa szintjén azt is említhetném, hogy a két új konzolon megmarad a S_SET_GPR_IDX utasítás, de ezzel együtt a V_MOVREL másképp fog működni, mint a PC-s RDNA-n, ahol viszont nincs S_SET_GPR_IDX, de a V_MOVREL-rel helyettesíthető.
-
Petykemano
veterán
A PS5 állítólag eredetileg GCN alapokra épült, majd elkezdtek bele RDNA elemeket építeni. Tehát az biztosan kijelentjető, hogy az RDNA-hoz fog közelebb állni.
Az új Xbox RDNA2
[link]
[link]
[link]Erre a kérdésre Abutól ne várj értelmes választ.
Ez a játék megvan?
Abunak ha a csillag forma nem megy be egy másik lukon, akkor a csillag már nem is ehhez a játékhoz való.
-
hajbel
addikt
Az új konzolok iGPU-ival mi a helyzet? A One SX-ben elvileg egy 12 TFlops teljesítményű navi 1 lesz, a PS5-ben pedig egy 9 TFlops környéki átalakított 5700 szerű dolog (hasonlóan, mint az RX480 a One X-ben)? Csak kérdedm, hogy a pletykák alapján jelenleg mi az friss álláspont?
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#44927
üzenetére
Nem lehetne, mert 4 HBM2 stack kell hozzá, tehát 16 GB a minimum konfigurációja a Radeon VII-nek. 2Hi stacket alig gyártanak, így az ára sokkal magasabb, mint a 4Hi stacké. A memóriánál a mennyiség döntően meghatározza az árat, és hiába fele akkor a kapacitása, ha alig gyártanak belőle, akkor a dupla kapacitású a mennyiségi előny miatt olcsóbb.
-
Petykemano
veterán
Ha ez ennyire jó technológia és ennyire csak a ramon múlik, akkor lehetne a RAdeon VII-en is csak 8GB. De gondolom a RAdeon VII nem a 8GB-nyi értékkel kerül drágábba.
TEhát magyarul ez a technológia azért nem érhető el és azért nem lehet vele normál kártyák esetén $10-50 árelőnyt realizálni, mert az AMD prémium/felárat (értsd: a ram áránál lényegesen többet) szed azért, mert egy kártyára kegyeskedik 16GB-ot rápakolni
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#44925
üzenetére
Azoknál a címeknél érhető el, ahol ennek előnye van.
A driveres megoldásnak van egy olyan hátránya, hogy valaki tud venni egy olcsó kártyát. Rárak ezzel 16 GB memóriát, és onnantól kezdve a Radeon VII-nek probléma, mert nem azt veszi a 16 GB-ért, hanem egy csuszkát használ. Üzletileg nem éri meg. Ellenben az inkluzív cache mód az megéri.
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#44923
üzenetére
Ott van benne az inkluzív cache mód. Amelyik játék támogatja, azzal így működik. Például Far Cry 5.
-
Petykemano
veterán
Abu!
És akkor a HBCC végülis tévút volt? Vagy csak HBM-mel működik, GDDR-rel nem?Itt lett volna a lehetőség, hogy a akár az 5700/XT csupán 4GB.tal, vagy akár az 5500/XT-t csupán 2/4GB-tal adják ki úgy, hogy a többit majd megoldja a HBCC és 1-2%-os veszteség mellett úgy, hogy a kártya
4GB=>2GB $10-15-ral
8GB=>4GB $30-40-ral
olcsóbbAkkor aztán igazán lett volna értelme verni a nyálat a PCIe4-re. Hogy miért is érdemes, miért is jó, mert így a rendszer-RAM - video RAM szinkronizálás nem 2-4%-os teljesítményveszteséget jelent, hanem csak 1-2%-ot.
Miért nem most sem?
-
Abu85
HÁZIGAZDA
A FEMFX-nél nem véletlenül nem említik a konzolokat. Ez a lib a PC-hez készült, a CPU-khoz. SSE2 a minimum, de megy AVX2-vel is, meg mindennel e két véglet között. A konzolokhoz a lesz egy külön verziót, ami nem csak a CPU SIMD-eket, hanem a konzolokhoz tervezett egyedi RDNA-kat is támogatja. Konkrétan le lehet fordítani a kódot a GPU-ra binárisként. Ez PC-n nem lesz opció, mert ugye ide nem jó binárist fordítani, hiszen folyamatosan változik az ISA, illetve a PC-s RDNA-k binárisan nem kompatibilisek a konzolos RDNA-kkal. Egyébként maga a CPU sem lesz ugyanaz a konzolokon, ami a PC-n van, hanem számos módosítást kap, inkább throughputra lesz optimalizálva a dizájnban a cache-rendszer, míg a PC-s Zenek azért ilyen balanced megoldások.
Az egyébként elképzelhető, hogy később ez PC-n is kiegészül GPU-s gyorsítással, de a FEMFX eléggé bonyolult pipeline. Nem lehet úgy megoldani, hogy egy VGA-n fusson, muszáj közös memóriát használnia a GPU-nak a CPU-val, mert az egyes pipeline-jai a CPU-n sokkal gyorsabban működnek, míg más pipeline-ok a GPU-n. Ha mindet átraknák a GPU-ra, akkor az egész lassabb lenne. Ha pedig VGA-ra menne per pipeline alapon, akkor a round tripbe döglene bele a rendszer. Egyelőre emiatt ez csak CPU-s megoldás, mert erre ott vannak az explicit API-k, azokkal az explicit skálázódás megoldott, és igazából a magszám is drasztikusan emelkedik.
-
Ribi
nagyúr
Kicsit olyan mint az RTX sok esetben, hogy ha normálisan megcsinálják nélküle, akkor 99%-ban észre sem venni a különbséget RTX-hez képest . RTX is tud ótvarul kinézni. +1 tool amit lehet jól meg rosszul használni, de maga a játék ettől még pont ugyan úgy lehet jó és rossz.
Jön majd rá pár techdemo "játék" aztán csoda hogy szar lesz, mert techdemo és nem játék.
De ha könnyen implementálható és nem ezzel akarnak majd eladni valamit akkor oké. -
Cifu
félisten
válasz
Petykemano
#44917
üzenetére
Mert nincs köze hozzá.
Mint amikor hajszimulációkat eladják, aztán kiderül, hogy ugyanúgy katasztrófa rosszul néznek ki...
-
Cifu
félisten
válasz
Petykemano
#44915
üzenetére
Csak így semmi értelme fizikáról beszélni...
-
Cifu
félisten
Köszi mindenkinek.

Ha 8/16-os CPU lesz 3Ghz a frekivel, akkor hozzávetőleg azonos a 4,5Ghz 6/12 szállal. Hmm... -
Petykemano
veterán
Szerintem zen2-ből 8/16 3GHz megvan 35-45W-ból. Ha jól emlékszem az utolsó jaguár magokhoz képest 4x nagyobb erőt jelent.
A pc felhasználók zömének sztem azért 4 magos a gépe, mert ennek zöme gamer noti, amiből elég általános volt a.4 mag Intel, nvidia gpuval. (Nem ok nélkül)
Idén megjelent a 6 magos Intel noti proci, jövőre a 8 magos Renoir.
Lassú lesz, de elindul az átmenet. -
Cifu
félisten
válasz
imi123
#44907
üzenetére
Tudjuk hány és milyen mag/szál lesz majd a konzolokban? Mert a Jaguar magok sem igazán voltak mellétehetők akár a korban együtt jelenlévő desktop procik magjaihoz. Ha kis fogyasztású magok lesznek ismét (és azok lesznek feltehetően), akkor a 90-120-150W-os PC procik izomból oldják meg majd a problémát...
A másik probléma az, hogy a PC felhasználók zömének jó, ha 4 magja / szállja van. Nem fognak maholnap jönni azzal, hogy minimum 8 mag / szál...
-
Cifu
félisten
válasz
Cyberboy42
#44905
üzenetére
...úgy 5 év múlva...
-
AtomSiló
lelkes újonc
Akarol deformálni és eddig nem mertél ?
Plasztik, elasztik, kinematik amit csak akarsz !
Most itt az új nyitott könyvtár és megint lehet rajta vitázni jó e az ha AMD mindent nyitottá és publikussá tesz.
AMD Publishes FEMFX Deformable Physics Library on GPUOpen -
Ferke77
aktív tag
-
Devid_81
félisten
Az ejszaka az pluszban feler 12 oraval a 24 melle naponta

Amugy meg neha irigylem azt akinek annyi szabadideje van, hogy a fullon terhelt VGA fogyasztas miatt aggodjon / eves fogyasztas
Mert en ha leulok gepezni annak a 70% nem jatek hanem csak valamire kellett a gep, bongeszni stb, avagy a VGA-m alig fogyaszt az esetek nagy reszeben.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Chieftec-Prohardver nyereményjáték
- Gigabyte alaplap topik
- One otthoni szolgáltatások (TV, internet, telefon)
- Amit látnod kell 80’ – 90’ évek, egész estét betöltő mozi filmjei.
- Robotporszívók
- Iqos cigaretta
- Kés topik
- Automata kávégépek
- Kettő együtt: Radeon RX 9070 és 9070 XT tesztje
- A Retro Games feltámaszt egy legendát
- További aktív témák...
- Fém, összecsukható és kihúzható fotó állvány eladó
- Eladó egy Clevo PA71HS-G i7 7700hq Gtx1070 Kérlek olvasd végig a hirdetést
- Xiaomi Redmi Note 14 5G 256GB, Kártyafüggetlen, 1 Év Garanciával
- iPhone 14 Pro Max 256GB Space Black -1 ÉV GARANCIA -Kártyafüggetlen
- HP EliteBook 840 G7 i5-10210U 16GB 256GB FHD 400nit 1 év garancia
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: ATW Internet Kft.
Város: Budapest



Egy X470 lappal és jobb rammal gyorsabb lett volna, mint egy PCIE 4.0-ás lappal.
Csak az ssd sebesség miatt van értelme beruházni egyáltalán X570-es alaplapokba, mindenki más jobban jár egy régebbi szériás alaplappal aminek nem fog beszarni 1 év után a chipset hűtőventillátora. Az amd kártyái a közelében sincsenek a PCIE 3.0 korlátainak, A Titan V közelíti meg, csak de ott is elhanyagolható a sebesség különbség. Az a legnagyobb vicc hogy a legtöbb TRX40-es alaplap alapból alkalmatlan 4 vagy több kártya kihasználására, függetlenül attól hogy van-e rajta PCIE 4.0.


Gyönyörűen végig aludták ezt a pár évet... 


