-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz #82819712 #40650 üzenetére
Szerinted így teljes értékű?
"Please note that the following gaming features will not be available when using AMD Radeon™ Software Adrenalin 2019 Edition software with AMD Radeon™ Pro graphics cards:
Enhanced Sync, Performance Monitoring, Radeon™ Chill, Radeon™ Game Advisor, Radeon™ Overlay, Radeon™ Settings Advisor, Radeon™ WattMan, Upgrade Advisor"
És milyen második 16 GB-os játékoskártyáról beszélsz?
Pepe, számodra egy külön jótanács: először olvass, értelmezz és csak aztán kommentelj!
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
schwartz
addikt
válasz huskydog17 #40651 üzenetére
milyen második 16 GB-os játékoskártyáról
A Vega Frontier az 16Gb.
If he dies, he dies.
-
#82819712
törölt tag
Egy beszélgetésnek a témáját vágtam be, mert itt beszélgetni szokás.
de mehet a PR is ha az jobb.
Rethink Performance with AMD Radeon™ Pro Software
(Radeon Pro Software Adrenalin 2019 Edition.)[ Szerkesztve ]
-
-
HSM
félisten
válasz huskydog17 #40654 üzenetére
Az nem datacenter, sosem volt. Alapvetően tartalomkészítőknek és játékfejlesztőknek készült, azért volt driverből kapcsolható, hogy játékos vagy profi driverrel menjen.
-
Bocs, igen nem csak datacenter, hanem AI is az egyik fókusz a Frontier kártyánál, leírtam ,de ugyanakkor datacenterbe is alkalmas:
"AMD claims the Frontier Edition is the "world's first" GPU geared for AI (Artificial Intelligence), creatives, and science pioneers."
"Nvidia just announced its new Tesla V100 based on the Volta architecture, so it's not surprising that AMD is firing back with details of its new Frontier Edition. Vega marks AMD's re-entrance into the high-performance desktop GPU arena, but it also serves as a platform for penetrating into the data center market.""Vega Frontier Edition’s Target Market: AI, Machine Learning, and other Professionals" - [link]
Ugye tudod, hogy a machine learning és data center között elég szoros kapcsolat van?
Tesla P100/V100 ellen megy. Akárhogy nézzük ez nem mezei konzumer játékos VGA.
#40656: Minden bizonnyal.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
HSM
félisten
válasz huskydog17 #40657 üzenetére
"Ugye tudod, hogy a machine learning és data center között elég szoros kapcsolat van?"
Nem nyert. Attól, hogy datacenterekben is van gépi tanulás, attól még nem lesz egy GPU datacenter, csak mert képes rá.... Ez elég gyenge érvelés volt.Az AMD honlapján is világosan szerepel a specifikációknál, hogy "Platform: Desktop". Nem datacenter, vagy szerver, mint az Instinct MI25-nél, hanem desktop, mint a Vega56-nál is.
"Akárhogy nézzük ez nem mezei konzumer játékos VGA."
Senki nem is állította ezt. Ez egy tipikus prosumer kártya mezei asztali számítógépekbe. A munkaállomás, asztali gép pipa, de hogy se nem szerver, se nem datacenter, az 100%.[ Szerkesztve ]
-
#82819712
törölt tag
Csak nem kopik ki az a 3600 G az APU köztudatból, most is viszi tovább mindenki a 12 mag mellett is, majd 3 ezer szavazattal jól el is van.
[ Szerkesztve ]
-
Devid_81
nagyúr
-
-
HSM
félisten
válasz huskydog17 #40664 üzenetére
Nem állította.
Így szólt az eredeti hozzászólás: "Magyarán megszületett a második teljes értékű 16 GB-os játékkártya AMD oldalon."
Ezzel szemben a te állításod, amire írtam, hogy ezt senki nem írta: "Akárhogy nézzük ez nem mezei konzumer játékos VGA."A prosumerben benne van a játékos felhasználás is, tehát a fórumtárs eredeti állítása megállja a helyét. Azt te keverted bele, hogy mezei meg konzumer, nyilván így nem igaz, de ezzel nem a fórumtárs állítását cáfoltad meg.
[ Szerkesztve ]
-
#82819712
törölt tag
válasz Devid_81 #40663 üzenetére
Chiplet, chipset, moduláris, WDDM 2.0, stack ez a sok szakszó és a kedves magyar szakma meg nem fordít semmit magyarra mi ?
Azért fontos mert chiplet igen, meg mert sok ember nem hiszi és mégis tovább él a hír talán mert...
Az EPYC az egy annyira korszakalkotó fejlesztése AMDnek hogy sokáig fogja meghatározni a piacot.
A modularitás egy szép eszme csak Amd az egyik legnagyobb visszahúzó erejét a GloFo-t előnnyé tudta kovácsolni ez ebben a sikertörténet. Mindenki érti az IO előnyeit, a külön elhelyezett és cserélhető memóriavezérlőt stb és kikerülnek a GPUból részek, amiről itt már sokat beszélgettek, az hogy ez mikor csorog le és milyen formában arról sokan gondolnak sok félét (warning adored elmélkedés az új frontierről warning)
de ha a Navi GPU is chipletes lenne az nagyon megváltoztatná a piacot és tényleg csak a mikor a kérdés.[ Szerkesztve ]
-
Petykemano
veterán
GCN geometry teszt
- Tahiti (2SE), Tonga, polaris
- volt-e fejlődés?
- a geometria képesség hogy képeződik le a tényleges teljesítményben?
- Mit tud ehhez képest a radeon vii?Találgatunk, aztán majd úgyis kiderül..
-
HSM
félisten
válasz Petykemano #40675 üzenetére
Azért nem véletlen mentek rá a Vega-nál többek között az órajel növelésére, főleg a Radeon VII-nál, nincs is bekapcsolva az összes CU, de az órajel közelíti a 2ghz-et, ami azért így már masszív előrelépés a Polarisok többségéhez képest.
-
nagyúr
válasz Petykemano #40675 üzenetére
Jó cikk
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Tyrel
őstag
Eeegen ezt már régóta mondogatom, hogy igazán nem is lennének lassabbak az AMD kártyái a konkurenciánál, ha megfelelő fogyasztás mellett (vagy úgy egyáltalán...) képesek lennének tartani a konkurencia órajeleit... De ezen a ponton vérzik el az összes, hogy vagy egyáltalán nem is tud olyan magas órajelekre felmászni, vagy ha véletlen fel tud akkor 300+ Wattot kér hozzá.
Igazán ha egy program ill. grafikus motor jól van megírva, jól van optimalizálva modern architektúrákra, és jól párhuzamosítható / jól tömbösíthető műveleteket végez, ezeket is kevés 'blocking call'-al, akkor jól fut a Radeonokon is, de ha homokszem került a gépezetbe és nem ütemezhető hatékonyan a feldolgozás, onnantól kezdve kb. csak az órajel számít ill. az segít abban, hogy átrágja magát a GPU a kritikus pontokon... és ezekben az esetekben az nVidia kiütéssel győz. Nem a driver jobb meg nem is feltétlen az architektúra, csak simán benne van +2-400 MHz és azzal nyer.
Nagyjából pont ugyan ez van a CPU piacon is, a Ryzen-ek párhuzamos feldolgozásban jók, de ha kéne a magas single-core teljesítmény, ott az Intel röhögve nyer, mert az ő chipje felmászik 4,7 - 5,0 GHz-ekre ilyen asszimmetrikus terheléseknél, a Ryzen meg ott ragad 4,2-n... Full ugyan azzal a gonddal küzdenek CPU és GPU fronton is már rég. Ha ezt sikerülne megoldaniuk végre, onnantól bőven méltó ellefelek lehetnének gaming fronton is.
[ Szerkesztve ]
Turenkarn
-
Abu85
HÁZIGAZDA
válasz Petykemano #40675 üzenetére
Tehát megvizsgálták a hardvereket a régi programokon, miközben a legtöbb mai motor már GPU-driven pipeline. Ügyes.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Nem véletlen a fejlesztési irány, de le vannak.maradva. a DCC az egyik ilyen, ahol azt mondják, hogy lényeges, mert ez kényszeríti a kártyákat másfélszer nagyobb sávszél kiépítésére, ami nagyobb fogyasztással,.felsőbb szegmensben meg a drága hbmmel.jár.
A másik meg ez a geometria, meg a culling. A primitive discard accelerator a polarisban hozott.valamit. a vegában az nggnek (meg a primitive shadernek) kellett volna hoznia - elvileg azt, amit a doomban láttunk.
Olvastam olyan véleményt, mely szerint a dsbr (ami most driverből ilyen per game van aktiválva (+finomhangolva?)) Működéséhez jelentős geometriai kapacitás szükséges - hogy megállapítsa a hardver,.hogy mekkora mozaik részekre kell felbontani. De mivel pont ebben nem jeleskedik a gcn (a nagyobb lapkák), ezért a dsbr haszna csekély, kevéssé tud hasznosulni.
Az órajel fontos, mert az egész lapka működését gyorsítja. Tehát érthető ez az irány is. Ugyanakkor azt még mindig nehezemre esik elhinni, hogy egy Vega64 ne teljesítene jobban 4x16 helyett 6×10 felállásban 50-100MHz-cel kisebb órajelen.
Mármint persze gamingben, és ezzel nyilván meg is válaszoltam a kérdést.A cikk azzal zárja, hogy a tahiti-Tonga-polaris átmenetben hiába vált látványosan erősebbé a geometria kapacitás, alig valamekkora előrelépest jelent csupán a végleges gaming teljesítményben. Remekül megállapítottuk, hogy a 2×8CU-t nem annyira a geometriai kapacitás fogja vissza. De hát ezt kár láttuk a hawaiiban is, ami viszont előrelépes volt a tahitihez képest és a 10-11cu vs 8-9CU különbségét hozta a polaris órajelből. És azt is láttuk, hogy a fiji.mennyire nem volt előrelépés a 4×16 felépítéssel.a hawaiihoz képest.
Kíváncsi vagyok, hogy vajon a Navi, ami gémingre készül, visszatér-e az ideálisnak tűnő 10-12CU/SE arányhoz és születik-e majd 6SE-s változat, vagy bízunk az okos megoldásokban? (Ngg)
Elő kéne venni újra azt a leaket a 20CU-s gfx1010-ről, ami radeon Vii-nek mutatta magát...
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
"ha megfelelő fogyasztás mellett (vagy úgy egyáltalán...) képesek lennének tartani a konkurencia órajeleit... De ezen a ponton vérzik el az összes, hogy vagy egyáltalán nem is tud olyan magas órajelekre felmászni, vagy ha véletlen fel tud akkor 300+ Wattot kér hozzá."
Nekem meggyőződésem, hogy az nvidia kártyák energiahatékonyságánák és a magasabb frekvenciának is az oka a lényegesen jobb culling. Vagyis az nvidia valójában ugyanahhoz a képhez, ugyanahhoz a fpshez az nvidia kevesebbet dolgoztatja a magokat.
A nem tömbösíthető műveleteken talán majd segít a SuperSIMD. Valamikor
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Abu, ha szerinted ez hülyeség, akkor megtennéd, hogy írsz egy cikket ertől és végrehajtod ugyanezeket a teszteket modern szoftvereken megmutatva ezzel azt, hogy ennek miképpen nem lesz jelentősége a következő 1-2 évben, nem pedig majd 3-4 év múlva, amikor már nem is fogunk emlékezni arra, milyen architektúra jelent meg idén.
Találgatunk, aztán majd úgyis kiderül..
-
HSM
félisten
A zöldek szvsz amin óriásit nyernek, nem csak az órajel. Hanem a sávszélességet sokkal kímélőbben használó ROP-ok.
Illetve, a szoftveres ütemező miatt sokat tudtak trükközni a DX11 alatt driverből a CPU kárára, ami miatt kb. duplaannyi rajzolási paranccsal is elbírtak.(#40679) Abu85: Nekem az tetszett, mikor azt írta, hogy a Tahiti igazából nem is DX12.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Eléggé. Az A4 Engine nem lett jelentősen átírva, ezért is fut eléggé gyorsan.
Nm a háromszögről van szó, hanem arról, hogy a GPU felé mennyi adat megy. Egy GPU-driven pipeline motornál már a leképezés előtt ki lesz vágva egy rakás háromszög, amiért compute shaderek felelnek. Ettől még mérheted a GPU-k közötti különbséget a háromszögek terhelése szempontjából, csak a nagy terhelést a culling fogja jelenteni, ami viszont TFLOPS-okat zabál.
(#40683) Petykemano: Eleve az a probléma ezzel, hogy egy rakás új játék wave intrinsics shadereket használ, és ezek még a GCN-en belül sem szabványosak, tehát az lesz a leggyorsabb architektúra, amely a legtöbb intrinsics függvényt kapja a culling kódokon belül. Mindegy, hogy a hardver mit tud elméletben, ha nem ugyanaz a kód fut rajtuk. Szóval jelentősége lesz ezeknek, csak nem a hardvertől fog függni, hanem attól, hogy az egyes GPU-kon milyen nem szabványos optimalizálásokat engedélyeztek.
A szabványosság is para ebből a szempontból, lásd a World War Z-t, ami először csinálja azt, hogy szabványosan elérhető intrinsics függvényeket használ minden hardverre a cullinghoz is. Aztán ez jól megkavarta ám az állóvizet, és nem azért ver a Vega mindent, mert annyira gyors maga a hardver. Szóval a hardver az intrinsics függvények terjedésével, főleg a szabványosokkal nem pont egy egzakt kiindulási pont, mert nagyon sok függ magától a kódtól. Az a hardver lesz a legjobb, amelyiken maga a shader, illetve ennek a fordítása a leghatékonyabban fut, ettől a hardvernek nem kell nyersen a leggyorsabbnak lennie.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Raggie
őstag
Abu, pár kérdésem volna, nem kötekedésből, hanem mert tényleg kíváncsi vagyok ezekre hogy jobban megértsem a helyzetet:
1) melyik rakás új játék használ wave intrinsics shadereket ?
2) Azért az eddigi tapasztalatok alapján igenis számítani fog mindíg is a nyers ereje a kártyáknak. Egy átmeneti rövid időszakon kívül, vagy átmeneti egy-két játékon kívül mindíg kiegyenlítődik a helyzet és kábéra a nyers erősorrend szerint alakulnak a kártyák teljesítményei. Mi az ami miatt most szerinted ez nem így lesz?
3)Hogyan tud Dx12-es lenni az A4 engine úgy, hogy nem lett jelentősen átírva? És még gyorsan is fut...[ Szerkesztve ]
Clint Eastwood FTW
-
Raymond
félisten
"Nm a háromszögről van szó, hanem arról, hogy a GPU felé mennyi adat megy. Egy GPU-driven pipeline motornál már a leképezés előtt ki lesz vágva egy rakás háromszög, amiért compute shaderek felelnek. Ettől még mérheted a GPU-k közötti különbséget a háromszögek terhelése szempontjából, csak a nagy terhelést a culling fogja jelenteni, ami viszont TFLOPS-okat zabál."
Ennek az egesz bekezdesnek se fule se farka.
Privat velemeny - keretik nem megkovezni...
-
nagyúr
Most tekintsünk el attól, hogy mennyire hiszem el a lentieket (pont annyira, mint a ROP-ok szerepének elsorvadását 2010 körül), és nézzük, hány játékban érvényesül ez. Mert ott ugye a Vega64 kb. az 1080 Ti szintjén kell teljesítsen.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
válasz Raggie #40686 üzenetére
Az idei explicit API-s felhozatalból szinte mindegyik. De már az előző év végére is ez volt a jellemző. Azért csinálják ezt a fejlesztők, mert az AGS fordítója nagyrészt érti a PSSL shadereket, tehát ezeket nem kell újraírni, hanem van egy konverter, amibe beküldöd, és kiadod HLSL Ext. shaderként, amivel máris tud bánni az AGS valamelyik verziója.
A különbség most annyi lett, hogy a jövőben ezt valószínűleg nem AGS-sel képzeli el a piac, mert az alapvetően csak az AMD-nek előny, de maga a wave terminológia általánosan hasznos. Erre van a shader modell 6 és a Vulkan API-n belül a subgroup shaderek. A shader modell 6-ot még wave terminológiára nem használják, de Vulkan API-ra már ott a World War Z, ami subgroup shadereket is használ. Emiatt kavarodott össze az utóbbiban az erősorrend, mert a subgroup/wave terminológia (ugyanaz mindkettő, csak máshogy hívja a Microsoft és a Khronos) eltérő módon működteti a hardvereket a régi, soros feldolgozáshoz képest. Egészen konkrétan megadja annak a lehetőségét, hogy az egymástól független párhuzamos feladatok bármilyen módban párhuzamosan fussanak a multiprocesszoron belül, és meg tudják osztani egymással az adatokat, legyen szó bármilyen pici feladatról. A korábbi terminológia erre csak compute shaderben adott lehetőséget, és ott is csak a helyi adatmegosztást lehetett használni az adatok megosztására, de csakis a helyi munkacsoportok között, vagyis maga az adatmegosztás durva szemcsézettségű volt.
Látszatra ezek nem tűnnek nagy különbségnek, de valójában azok, mert a hardvernek vannak különböző állapotai, amelyeken belül a multiprocesszor némileg eltérően működik, és nehéz meghatározni, hogy egy ilyen váltásra a korábbi terminológiához tervezett hardverek hogyan reagálnak. Maga az architektúra fejlődik az AMD és az NV dizájnjaiban, de az ISA tekintetében az alap az AMD-nél még az öreg GCN, míg az NV-nél a szintén öreg Fermi, tehát amikor ezeket tervezték 2010-nél korábban, akkor nem nagyon volt szempont, hogy 2019-re mennyire változik meg a shader modell. Ezt igazán lekövetni új ISA-val lehet, de mivel a hardveres szálkezelés tekintetében még mindig nincs ott a GCN és a Fermi, hogy a limitek erősen látszódjanak, így egy darabig nem valószínű, hogy az AMD és az NV vált. 2020 után tuti, de az még később van.
DirectX 12-re támogatást lehet írni egy eredetileg DirectX 9-re tervezett játékra is. Nem éri meg, de ettől lehetséges. A régebbi leképezők alapvetően tudnak működni nagyon sok API-n. Vannak bizonyos leképezők, ahol már nagy hasznot hoz mondjuk a DirectX 11, vagy a 12. Előbbire tipikus példa szokott lenni a compute cullingos megoldások, amikor valami problémát compute shadereken keresztüli kivágással kezelsz, míg utóbbi leginkább akkor hasznos, ha maga az árnyalás a jelenet szintjén történik, és nem a fragmentek szintjén, ez ugyanis jelentősen növeli a rajzolási parancsok számát, hiszen már nem lesz erősen limitált a shadow casting fényforrások száma sem, és rengeteg effekt szimplán a jelenet szintjén megoldható, egyszerűen csak másolod az árnyalt objektumokat. Annyiszor tudod ezeket megjeleníteni, amennyi rajzolási parancsot költesz rá, a hardver csak egyszer számolja ki.(#40687) Raymond: compute-based triangle filtering
(#40688) gbors: A wave/subgroup shadereknél eléggé össze van keverve az erősorrend. Sok múlik a fordítón, illetve azon, hogy az adott program milyen intrinsics függvényeket használ, a 2010 előtt tervezett ISA-k mennyire rugalmasak ebből a szempontból, mert ezeken olyan sokat javítani nem lehet, maximum teljes újratervezéssel. Ezért baj itt tippelgetni, mert a World War Z Vulkan módja ugyan egyértelműen első fecske, de egy rakás olyan tényező van, amit még húsz fecske után sem fogunk igazán ismerni. Tehát a World War Z Vulkan módjából annyi vonható le következtetésként, hogy azokkal a subgroup shaderekkel, amiket a program használ, azokkal a hardverállapotokkal, amelyekben ezeket futtatják a GPU-k, azokkal a fordítókkal, amelyeket a gyártók jelenleg implementálnak, ez a teljesítmény. És a sok tényező miatt nem lehet azt mondani, hogy ez lesz a következő címnél is. Emiatt nehéz erre építeni. Simán lehet, hogy megfordul az egész, mert más kódokat kapnak a hardverek, más hardverállapotokban futtatják azokat, és máshogy fog működni a fordító. Régen ez azért volt sokkal egyszerűbb, mert ha adatmegosztás kellett a feladatok között, akkor arra egy mód volt, és erre a módra ki volt gyúrva a hardver (na jó a hardver nem mindig) és a fordító. Ma nagyon-nagyon sok mód lett erre, és ki tudja, hogy melyik állapotra van kigyúrva az adott hardver, és melyikre fordít hatékony kódot a fordító.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Raymond #40690 üzenetére
Nem tettem hozzá. Megírtam, hogy miről van szó. Amelyik alkalmazás így működik, ott a legkevésbé a hardver nyers háromszög feldolgozási képessége számít, mert sokkal-sokkal több időt tölt majd azzal a GPU, hogy a nem látható háromszögeket nagy hatékonysággal kivágja a lefutó compute shaderekkel. Jó példa a Deus Ex Mankind Divided. Hiába rendelkezik ez a játék az egyik legtöbb háromszöggel egy jelenetben, a geometriai motorokra rótt terhelés szempontjából mégis kíméletes, mert nagyon sok háromszöget kivágnak a compute culling shaderek a leképezés előtt (bőven a leképezés előtt, vagyis bizonyos shader lépcsők is megmenekülnek a többletterheléstől), így igen kevés felesleges munka lesz a raszterizálás során. Összességében tehát többet ér ennél a programnál a nyers TFLOPS, mert a háromszögekkel való munka nagyobb részét a compute shaderek teszik ki. A raszterizálás előtti nyers háromszögterhelés átlag alatti, annak ellenére is, hogy a végleges geometriai részletesség átlag feletti.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Z10N
veterán
AMD Radeon RX 640 and Radeon 630
Polaris 23 XT Radeon (RX) 550X ---> Radeon RX 640
Polaris 23 MXL Radeon 540X ---> Radeon 630# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Petykemano
veterán
Én értem, hogy "mostantól" majd a compute culling old meg mindent. De ez a mostantól azt jelenti, hogy 2019-tölti kezdenek majd el szivárogni és ez egy legalább 1-2 éves folyamat. Ez azt jelenti, hogy mondjuk legjobb esetben is 2020-ra mondhatjuk, hogy ez a technológia elterjedt.
És addig??
Mármint hogy nem mostantól, hanem amióta ez a probléma létezik. Az AMD legkésőbb a fiji debütálásakor 2015-ben szembesült azzal, hogy a geometria számítási képesség kevéske. Valószínűleg előbb. 2016-ban jött a polaris, amiből ha jött volna nagy változat, nem tudjuk, hogy 6SE lett-e volna, de valószínűleg 4, és meg se próbálták. Aztán 2017 Vega, amikor pont ugyanúgy jött szembe a gyorsvonat az alagútban, mint a fijinél. Végül a Vega20 esetén úgyszintén meg se próbálták.Tehát úgy tűnik, lassan 5 éve várnak arra, hogy "áh, minek kínlódjunk egy problémával, amikor már mindjárt megoldódik magátol". Okos dolog.
[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
Devid_81
nagyúr
Szal akkor 6xx nevvel dobjak majd piacra a Navit is 99%
Hacsak nem akarnak kavart mint nVidia a RTX 2xxx majd GTX 16xx-elSzerk: de belegondolva meg mindig Polarisnal jarunk...amig vilag a vilag kozottunk lesz ez a cucc komolyan
Legalabb attaknyolnak 7nm-re es GDDR5X-et neki vagy valami...[ Szerkesztve ]
...
-
Abu85
HÁZIGAZDA
válasz Petykemano #40695 üzenetére
A compute culling már úgy 8 éve bőven velünk van. A háromszögek korábbinál hatékonyabb kivágása nem újdonság, nagyjából 10 éves projektek, amelyeket számos aktuális motor már évek óta támogat (szerintem a mi tesztcsomagunkban is alig van olyan játék, ami nem ilyen). Az más kérdés, hogy vannak akik még nem támogatják, mert nem tekintik kritikusnak azt a geometriai részletességet, amit ezzel el lehet érni.
(#40698) gbors: Mint írtam egyelőre csak a World War Z használ szabványos subgroup shadereket. De azt is leírtam, hogy a terminológia alapvető működése miatt egy játék nem elég a következtetésekhez, talán még húsz sem lesz az. Tényleg nagymértékben befolyásolja a teljesítményt a fordító, valamint az, hogy az adott GPU az adatmegosztásra milyen hardverállapotban kényszerül. A mai multiprocesszorokat arra tervezték, hogy a helyi munkacsoportok között a helyi adatmegosztással megosszák az adatokat a compute shader futtatásához beállított hardverállapottal. A subgroup azt követeli meg, hogy a helyi munkacsoportoknál kisebbeknél is legyen adatmegosztás, akármilyen hardverállapot mellett. A hardver nyilván képes rá, elvégre a compute shader támogatása ezt már lehetővé teszi, csak a hardverállapotok nagymértékben módosítják ám a multiprocesszor működését, amivel erősen javul vagy éppen csökken az adatmegosztás hatékonysága.
És akkor ott a szoftveres kérdés, mert a GPU-t azért lehet ám vezérelni driverből, tehát az se biztos, hogy ahogy ma működik egy GPU, az úgy marad a jövőben. Valszeg az AMD úgy marad, mert ők az AGS-en azt csinálják, hogy stateless lesz minden adatmegosztás, és gondolom ezt használják szabványosan is, de például az NV-nél már sok a kérdés, mert náluk nincs stateless mód. Emiatt még sokat kísérletezhetnek azon, hogy mi a legjobb. Valószínűleg nem az, ami most van, tehát az aktuális driverekkel a hardver még nincs a teljesítménye határán.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.