Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Ilyen módszerrel mind ugyanazt fogjátok látni. Túl kevés a felvett információ, illetve nem számoljátok bele, hogy az fps 100 feletti, vagyis a lag így igen alacsony marad, 30-35 ezredmásodperc közötti. Ez egy másodperc nagyjából harmincad része. Képtelenség a Youtube-on visszaadni. Legalább 480 fps-es kamera kellene.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW
#2524
üzenetére
Ennek az a célja, hogy minél később és egyben minél ritkábban kelljen törölni a nem használt textúrákat a VRAM-ból, mert a DX11-ben bármit törölni annyira körülményes procedúra, hogy jó eséllyel be fog akadni a program. Maga a DX11 API kényszerítette a Rebelliont egy olyan döntésbe, hogy akadjon, vagy ne, és akkor egy kis minőségcsökkenés belefér. Ez egyáltalán nem a fejlesztők sara. Ők két rossz közül választották ki a nézőpontjuk szerint kevésbé rossz opciót.
És hogy mennyire nem egyedi a Rebellion gondolkodása megemlíthető, hogy a Frostbite és a CryEngine új verziói ugyanerre a streaming modellre állnak át. Sőt, a Ryse már használja is. Bár a Ryse annyiban más, hogy ott még a maximális textúrarészletességet sem állíthatod be egyénileg, hanem a program automatikusan intézi ezt. -
Abu85
HÁZIGAZDA
válasz
FLATRONW
#2522
üzenetére
A régi verzió negyedakkora méretű textúrákat támogatott. A Sniper Elite 3-ban a low szint az, ami a Sniper Elite v2-ben a maximum volt a textúrarészletesség szempontjából. Erre reagál az új streaming stratégia.
Igazából ezeket a streaming rendszereket nagyon nehéz PC-re kifejleszteni. Tökéleteset két év alatt sem lehet alkotni. Nagyon akadályozza a fejlesztőket az a tény, hogy a DX11 nem engedi a közvetlen memóriaelérést, tehát nem tudnak akármit megcsinálni, hanem kerülőutak tucatjait kell kidolgozni, hogy egy átlagosnál jobb streaming rendszer egyáltalán működjön a gyakorlatban.
Kevés olyan játékot láttam, ami annyira példásan lett volna DX11-re optimalizálva, mint a Sniper Elite 3. -
Abu85
HÁZIGAZDA
Ezek a dolgok nagyrészt kapcsolódnak a DX11 API-hoz.
A Capcom beszélt erről egy hete a Panta Rhei kapcsán, hogy az aktuális PC-s kódjukban ez a motor képkockákként 3 interakciót képes kezelni, miközben a PS4-en nem okoz gondot a 30 fizikai interakció sem. És ez nagyrészt a DX11-re vezethető vissza. Hiába nincs köze az API-nak a fizikai motorhoz a Panta Rhei PC-s portjában le kell butítani a fizikát, mert túl sok az API többletterhelése. Az AI-t is ezért kell butítaniuk PC-re.
Masaru Ijuin azt is mondta, hogy PC-n, DX11-ben nagyon korlátozott a gyakorlatban is hozzáférhető processzorteljesítmény. Hiába terjedtek el a 100+ GFLOPS-os procik, DX11-ben nincs mód a teljesítményük kinyerésére. -
Abu85
HÁZIGAZDA
válasz
FLATRONW
#2514
üzenetére
Az Asura motor esetében a textúra streaming működése egy érdekes optimalizálási stratégia valóban, de teljes egészében a DX11 miatt alakították így. Azért tölt be a memóriába alacsonyabb felbontású textúrákat idővel, hogy a nem használt területet ne kelljen törölni. Viszont, ha nem törlöd, akkor egyre kevesebb használható területed van, tehát alacsonyabb felbontáshoz kell folyamodni. Egyszer persze úgyis lesz törlés DX11 alatt is, tehát ezzel csak az időt húzzák. Nyilván nem mindegy, hogy több órás játék során hányszor akad be a program a nem használt textúrák törlésétől. A Rebellion abszolút a folyamatosságot helyezi előtérbe, tehát minél kevesebb akadás lesz ebből, annál jobb lesz az élmény a fejlesztők szerint. És ezért úgy gondolják, hogy megéri beáldozni néhány textúra minőségét is.
-
Abu85
HÁZIGAZDA
válasz
daveoff
#2512
üzenetére
Vannak partnerek, akik már mondták, hogy a DX12 mellett is az AMD API-jait tekintik majd elsődlegesnek. Az EA stúdiók, a Firaxis, az Oxide és a Gamebase biztosan. Azzal indokolták döntésüket, hogy az AMD megoldásai alacsonyabb szintűek, illetve gyorsabban fognak fejlődni. De ettől mindegyik partner készít majd állandóan DX12 portot, és amit abban meg lehet oldani azt implementálni fogják.
Nagyon sok függ attól, hogy mi az adott fejlesztő igénye. Például a multi-GPU támogatását szükségesnek érzik-e, mert ez a DX12 előzetes speckóiban nincs benne, ugyanis az MS szükségtelen részpiacnak tartja, így nem élvez prioritást. Ehhez hasonló tényezők döntenek. -
Abu85
HÁZIGAZDA
válasz
daveoff
#2509
üzenetére
Mindenkinek. A top fejlesztőknek azért, mert esélyt kapnak rá, hogy a konzolra készült új generációs játékokat ne kelljen majd butítani PC-re. Hiába minden TFLOPS, ha a konzol csupán szoftverből többmilliószor gyorsabban ír be egy GPU parancsot egy parancspufferbe. És ez neked is jó, mert a PC-n is megkapod a teljes élményt.
A DX12-vel sok változás nem történik majd, mivel a low-level irány már eleve ki van jelölve. A DX11 támogatása valószínűleg vissza fog szorulni.
Az AMD addig készít saját low-level API-kat, amíg a fejlesztőpartnereik igénylik. Az egészet fogd fel úgy, mint egy problémamegoldást. Van egy gond, amire nincs megoldás létező API-n belül? Csinálunk egy új API-t, vagy kiegészítést, hogy legyen megoldás. Ennyi a célja. Most például a shader nyelvek reformja következik. -
Abu85
HÁZIGAZDA
válasz
daveoff
#2506
üzenetére
Mondtam, hogy ha te ezzel boldog vagy, akkor annak a DICE és az EA nagyon örül. Ezért dolgoztak az elmúlt hónapokban, hogy mindenkinek jó legyen. De ők már nem tartják a DX11-et használható API-nak, és sok dologban teljesen igazuk van. A Frostbite 3 az egyetlen motor a piacon, amely befolyásolja a grafikus driverek működését, és ezt senki sem ajánlja, mert összeomláshoz vezethet. Ez persze random jellegű, de létezik a probléma, és sokat kell tenni azért, hogy az összeomlások megritkuljanak. A BF4 egy évvel a megjelenés után már elég jó, viszont egy fejlesztő alapvetően szeretne a játék megjelenésére stabil programot kínálni. Persze, ha nem jön össze, akkor később ott a patch lehetősége, de ez nem optimális fejlesztési modell.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi
#2504
üzenetére
Nem valószínű, hogy a DX11 render prioritás. Erre elég drága optimalizálni, és állandó probléma a Frostbite 3-nál a DXGI_ERROR_DEVICE_HUNG hiba, ami ugye ismert a fejlesztők előtt is. DX11 alatt szándékosan feláldozzák a stabilitást a nagyobb sebességért. Enélkül a DX11 kód sokkal lassabb lenne, viszont így meg néha összeomlik a játék. Aki teheti nem a DX11 renderen játszik egy Frostbite 3 játékkal.
Az, hogy a Frostbite 3 értékelhetően fusson DX11 alatt, minden egyes játék, minden egyes új patch-jénél iszonyatos mennyiségű pénz és erőforrás befektetését jelenti. Egy évben az összes megjelent játékra nem kell költeni annyit a driver fejlesztésénél, mint egy Frostbite 3-as programra egymagában. -
Abu85
HÁZIGAZDA
válasz
daveoff
#2502
üzenetére
Mindenkinek mást takar. Ha te elégedett vagy azzal, amit kapsz, akkor a DICE nagyon boldog, hiszen részben azért dolgoztak, hogy elégedett legyél a szoftverükkel. A lehetőségekhez mérten a legjobbnak akarták kihozni. Viszont minden fejlesztőnek van egy nézete arról, hogy mire van szükség. A DICE azért használ low-level elérést, hogy az általuk elgondolt élményt át tudják adni a PC-seknek. Nem kötelező ezzel élni, vagy akár egyetérteni sem. Ők csak a lehetőséget akarják biztosítani nektek, hogy úgy játsszátok a játékot, ahogy elképzelték. De még egyszer mondom, ha te boldog vagy azzal, amit most kapsz, akkor a DICE is boldog, mert pozitív az élményed a szoftverükkel, ami később új vásárlásra fog sarkalni stb.
-
Abu85
HÁZIGAZDA
válasz
daveoff
#2500
üzenetére
Ha megoldható lenne az optimális élmény a Frostbite 3-mal DX11 alatt, akkor nem használna az EA low-level API-t. A PC-ért nem érné meg a beruházás, ha ki lehetne hozni a DX11-ből is a fejlesztők által elfogadottnak tartott élményt. Viszont a fejlesztők már annyival jobbnak tartják a low-level elérést, hogy megéri beruházni annak érdekében, hogy a konzolos élményszintet a PC is megkapja. Nekik megvannak az eszközeik, hogy kimérjék a legkisebb változásokat is a PC-ken, amiket átlag szoftver nem tud mérni. Az fps csak egy mérőszám, és ha nézel DICE előadásokat, akkor sokszor elhangzik, hogy az egyik legrosszabb mérési módszer.
Annak nyilván örül a DICE, hogy te jónak érzed a DX11-es munkájukat. Ők viszont nem érezték annak a DX11-et, ezért használnak más API-t is. -
Abu85
HÁZIGAZDA
válasz
daveoff
#2497
üzenetére
Sehogy. Nem tudják megtenni. De ez nem az NVIDIA hibája. Igazából maga az alapprobléma, ami az API-k lemaradását okozta igen hosszú folyamat eredménye. Már a 2000-es években felmerült, hogy a szoftverrel tenni kellene az olcsóbb rajzolási parancsokért. Egy parancs beírása a parancspufferbe a DX8-ban ~10-15 millió órajel volt. A DX9 erre reagált is az állapotblokkokkal. Aztán a DX10-ben jöttek a nagyobb állapotcsoportok, majd a DX11-ben a deferred context. A DX10-ben leküzdöttük az erőforrásigényt 10 millió órajel alá, míg a deferred context igazából nem ért semmit. Most azért van ez a hatalmas váltás, mert a PS3 GCM 5 órajelből megoldotta a parancsok beírását a parancs pufferbe, és az új API-kkal ezt a teljesítményt akarjuk lekövetni. A 10-20 órajel már jó érték PC-n.
-
Abu85
HÁZIGAZDA
válasz
daveoff
#2494
üzenetére
A DX11 eleve egy olyan API, ami rengeteg alapvető problémát vet fel. Meg kell küzdeni a shader újrafordítással, a sok állapotváltással, az állapotszűrés terhelésével, ami ráadásul háromszoros munka, mert megcsinálja a program, aztán az API és végül a driver. A parancspufferekhez ellenőrizni kell, hogy megvannak-e a szükséges információk a hardver számára. Hiába tervezted programozóként konzisztensre az adatok tárolását, akkor is el kell költeni a processzor erőforrásának felét erre az ellenőrzésre, mert az API megköveteli.
Szóval a DX11 eleve egy nagy kompromisszum, amiben ma jót egy BF4 komplexitású szoftvernél nem lehet alkotni. Egyáltalán nem véletlen, hogy az EA egy másik API-t is használ a DX11 mellé, hogy legalább egy réteg megkapja a fejlesztők által optimálisnak tartott élményt. -
Abu85
HÁZIGAZDA
Mindegyik aktuális API megmarad. Annyi lesz, hogy a mostani 1.0-s API verziót az AMD megnyitja, és a core specifikációkat úgy véglegesítik, hogy többet ahhoz nem lehet hozzányúlni. Ezzel ha az Intel és az NVIDIA támogatni akarja, akkor ingyen és félelem nélkül megtehetik, hiszen a specifikációkat az AMD sosem fogja módosítani, tehát nem kell attól félniük, hogy az AMD később kizárja őket a piacról. Viszont az AMD egy másik API-val tovább szeretne fejlődni.
Én annyit tudok, hogy az új API-nak köze lesz a HSA-hoz, de még nem tudni, hogy milyen mértékben. Reális elképzelés lehet az APU-k IGP-jével gyorsítani a parancspufferek kreálását, így 2015 végére elérhető lehet a 300000 batch/frame, illetve a processzormagok válláról egy egészen nagy teher is lekerülne. -
Abu85
HÁZIGAZDA
válasz
daveoff
#2486
üzenetére
Ez az egész egy rendkívül komplex probléma. A játékfejlesztő és a gyártó is azt a paraméterezést keresi, aminél a játék folyamatos, jó sebességet ad, nem akadozik túl sokat és az input lag is még elfogadható. A preender általában mindegyikre hatással van valamilyen mértékben, tehát meg kell találni azt a beállítást, ahol ezek kombinációja optimális élményt ad. Az input lag biztos nagyobb lesz több jelenet előzetes felpufferelésével, de ha kevesebb jelenet előzetes felpufferelése érezhetően rontja a sebességet, vagy a folyamatosságot, akkor elképzelhető, hogy a magasabb input laggal is előnyösebb az összesített élmény.
(#2485) odorgg: A DX elmegy ott is, csak a BF4-nél van egy összehasonlítási alapod az AMD saját API-jával, ami eleve az az élmény, ahogy az EA eltervezte.
-
Abu85
HÁZIGAZDA
válasz
daveoff
#2473
üzenetére
A Mantle-re nem lehet driverrel válaszolni. Maga a DirectX 11 teremti meg az aktuális korlátokat és addig nem lehet azon túllépni, amíg low-level API-t nem használ a program. Ha elfogadjátok, ha nem ez az irány nagyon sokat ér a fejlesztők szemében, mert megadja az esélyt, hogy a PC-piacot a konzolra tervezett játékok portjával terítsék, és nem a mobilra fejlesztett butított verziót javítsák fel grafikailag.
Egy olyan extrém fejlődés előtt állunk, ami a 2000-es évek elejére volt jellemző. Csak most nem hardvereket kapunk, hanem grafikus API-kat, és innen jön majd a sebesség. És ezt érdemes szó szerint venni, mert a Mantle csak egy API lesz az AMD-től. Már készül a leváltója, ami nem lesz kompatibilis vele. A DX12-vel párhuzamusan akarják bemutatni. -
Abu85
HÁZIGAZDA
válasz
daveoff
#2451
üzenetére
A prerender nem egy univerzálisan használható érték. Jellemzően nincs olyan, hogy egy szám mindenhol jó, mert játék válogatja az eredményt. Simán lehet, hogy az AMD-nél DX alatt a 3 működik a legjobban, míg az NV-nél az 5. Ezt csak a gyártók képesek kiértékelni, mert megvan hozzá minden eszközük. Az Intel például 2-t használ a Frostbite 3-ban a DX alatt.
-
Abu85
HÁZIGAZDA
válasz
Televan74
#2370
üzenetére
Nem szerencsés hármas.
A Withcer 3 TWIMTBP, míg a Dragon Age: Inquisition Gaming Evolved.
A GTA5-re nincs adat. Az AMD reklámozza veszettül a Youtube csatornájukon, de tudtommal nincs benne egyik partnerprogramban sem. Szóval olyan semmilyen, de optimalizált játék lesz. -
Abu85
HÁZIGAZDA
válasz
Goblin12
#2361
üzenetére
Az Apple-nek készítettek egy M295X-et. Az egész jó. Nem tudom, hogy mikor akarják másnak is elérhetővé tenni. Úgy tudom van egy exkluzivitási egyezmény az Apple-lel, szóval lehet, hogy ebből idén nem lesz semmi. A CES-re esélyes, mert az OEM-ek igényelni fogják az új cuccokat.
A Star Citizen nem sok NV-s dolgot tartalmaz. Nem is dolgoznak együtt az NV-vel, csak beépítik a turbulence modult, amit az NV kért és kész. A többi technika, amit használnak AMD-s vagy inteles. De főleg AMD-s kirakatjáték lesz a Star Citizen, gyakorlatilag minden benne lesz, amit a veres oldal kínál.
-
Abu85
HÁZIGAZDA
Erre való a GameWorks, hogy a fejlesztő ezt használja és ne az Xbox One shadereit hozza át PC-re. És ez eléggé egyértelmű koncepció, mert más lehetőségük annyira nincs. Az oké, hogy a Microsoft arra buzdít, hogy ott az Xbox One arra kell DX12 rendert írni és az jó PC-re, de ez nem optimális. Szóval kell PC-re optimalizálni. A Microsoft is egy manipulatív cég. Nekik szuper lesz, hogy az Xbox One kódja sok PC-n nem fut hatékonyan, hát mit fog venni a user? ... konzolt. Persze, hogy azt mondják, hogy nem kell optimalizálni, mert kompatibilis, illetve csak pár extra sor és fut.
![;]](//cdn.rios.hu/dl/s/v1.gif)
Az NV-nek a problémát egyedül a gyártói partnerprogramokban nem résztvevő stúdiók jelentik. Ők sehonnan sem tudják majd megszerezni az optimalizáláshoz szükséges információkat. Lásd Ryse.
-
Abu85
HÁZIGAZDA
válasz
szasanyi
#2355
üzenetére
Nincs olyan forgatókönyv, ami nem jelent majd az eladási mutatókban csökkenést. Ez sajnos a piac változásaival fog járni.
A fő szempont egyébként mindkét cég számára, hogy ne kövessék le egymást sehol. Ez már a fejlesztőkhöz való hozzáállásban kialakult, és a játékok esetében is látszik. Az AMD-nél extrém fókuszt kap az AAA kategória, míg a MOBA/MMO csak támogatott, de nem lényeges. Az NV-nél ez pont fordított. A MOBA/MMO a fókusz és az AAA a másodlagos.
Ez egyértelműen látszik a nagy kiadókkal való üzletelésben is. Gyakorlatilag az NV-nél csak az Ubisoft komoly partner, míg az AMD-nél az EA, a Square Enix és a SEGA is kiemelt támogatást kap. Viszont az NV rengeteg PC-exkluzív MMO és MOBA támogatására is költ. -
Abu85
HÁZIGAZDA
válasz
szasanyi
#2353
üzenetére
Persze, hogy nincs törekvés. Mivel mostantól kezdve nem tekintenek egymásra versenytársként. Minden szempontból az ellenkezőjét teszik annak, amit a másik csinál.
NVIDIA: dokumentációk hiánya és az egyéni optimalizálás akadályozása, lezárt és csak felügyelet mellett módosítható shader kódok
AMD (és az Intel is): dokumentációk biztosítása és az egyéni optimalizálás segítése, nyílt és szabadon módosítható shader kódokAz NVIDIA ezt nem kicseszésből csinálja, hanem azért, mert abban a modellben, amit az AMD és az Intel csinál, illetve amire ők is építettek a 2006-2010-es években már nincs jövőjük. Ez látszik is. Rengeteg top kiadó nem is tartja már velük a kapcsolatot. Az Intel és az AMD többet fog mondani arról, hogy GeForce-ra hogyan kell optimalizálni, mint maga az NVIDIA.
-
Abu85
HÁZIGAZDA
válasz
ricshard444
#2334
üzenetére
A Witcher 3 szempontjából mindegy. Egyetlen GPU PhysX-es játék sem ad jó skálázódást, aminek az oka egyszerű: Mindig csak az első GPU számolja a CUDA feladatokat, tehát ha van mellette egy második GPU, akkor a számítás teljesen aszimmetrikussá válik. Az első GPU nagyon le lesz terhelve, mivel a második GPU grafikai számításánál ki kell számolnia a CUDA effekteket. Ha van egy harmadik GPU, akkor annak is. Ezért skálázódik GPU PhysX mellett az SLI csak 30-50%-os szinten.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi
#2287
üzenetére
Supersampling mellett van gaussian blur filter. Attól lesz homályos. Supersampling nélkül ez a szűrő nem fut.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi
#2268
üzenetére
Már kitárgyaltuk: [link]
-
Abu85
HÁZIGAZDA
A shader átírás nem egyedi dolog. Mindenki csinálja. Az AMD is szokta, ahogy az Intel is. A képminőséget ez nem befolyásolja, mert csak optimalizálás történik. Az NV azért csinálja sűrűbben, mert kevés regisztert építenek a hardvereikbe, így mindenképpen optimalizálni kell az übershadereket, hogy elég regiszter legyen.
Semmi gond, ha egy patch javít a shaderen. Ettől a driver még lecserélheti továbbra is. Ha nem kell, akkor egy új driverben kikapcsolják a cserét.A fogyasztásra gyúrnak, így meg kell hozni az áldozatokat a működésben. Mivel ez csak a DX11-et érinti ennyire durva eredménnyel, ami amúgy is elavult, így ez bevállalható.
Igazából terjed a GameWorks, csak nem ott ahol szeretnék, hogy terjedjen. A legtöbb top stúdió elzárkózik előle, ami érthető, hiszen évekig küzdöttek azért, hogy kiirtsák a rendszerből a fekete dobozokat, erre az NV hoz nekik egy fekete dobozt az új rendszerekhez.
-
Abu85
HÁZIGAZDA
Persze. Abba gondolj bele, hogy nem is nagyon lehet mire optimalizálni még. Oké, picit optimalizálták Intelre, amit szintén elismertek, de GeForce-ra nem lehet. Főleg nem úgy, hogy a Crytek anyagilag nem áll most stabil lábakon. Nem fognak arra költeni, hogy visszafejtsék a GeForce-ok működését, csak azért, hogy optimalizáljanak rá. Lásd a TressFX, az AMD fél évig optimalizálta Keplerre, és még Maxwell optimalizálást nem is kapott, az még egy fél év. Az is kérdéses, mennyire jogszerű az AMD-nek megosztani a visszafejtés adatait a Crytekkel. Ugye a reverse engineering alapból egy tiltott dolog, de nagyon jellemző, hogy amikor a teljesítményproblémák, vagy kompatibilitási problémák megoldása érdekében történik, akkor a jog szemet huny a "bűntett" felett. Vannak is a törvényben ilyen kivételek. De a reverse engineering adatok továbbadása egy másik félnek már törvénytelen. A Crytek ráadásul nem Gaming Evolved partner a játékokra vonatkozóan. Ezért nincs a Ryse a Gaming Evolved listában, és így például az sem megoldható, hogy az AMD emberei optimalizálják a játékot GeForce-ra, amit például az új Aliennél megtettek.
Ha az NVIDIA akarja, akkor kihasználhatja a törvény kiskapuit, így visszafejthetik a Ryse shadereit és azokat optimalizálhatják, majd driverből lecserélhetik. Ez biztos eredményt ad majd, csak nem egy gyors folyamat. De nem egyszer csinálták már. Ott volt például a Dirt Showdown. Háromnegyed év alatt átírták a shadereket és jóval gyorsabban futott GeForce-on, mint a kezdetekben.A DX11/DirectCompute 5.0 működésével nem nagyon tudnak mit kezdeni. Azt be kell nyelni. Az optimalizálás leginkább felzárkózást jelent majd, hogy a GTX 770 mondjuk ne egy 270X-szel legyen pariban, vagy mondjuk a 280X se legyen a 970 nyakán. Csodát viszont nem lehet tenni, olyat ne várjon senki.
Az architektúra dokumentálása, illetve annak hiánya egy üzletstratégiai lépés. Az NV rá akarja kényszeríteni a fejlesztőket a GameWorksre, csak láthatóan a Cryteket ez nem érdekli, ahogy számos más fejlesztőt sem. Tehát szükség lesz a driveres hackekre, még ha a hátuk közepére is kívánják. Az NV idézi elő a problémát azzal, hogy nem mondják meg a fejlesztőknek hogyan lehet GeForce-ra optimalizálni.
-
Abu85
HÁZIGAZDA
Fogalmam sincs, de mivel marha sok trükközés lesz a jövőben, így már most érdemes eltávolodni az AFR-től, mert az még low-level szinten sem fog igazán működni. Valószínűleg a Rebellion motorjának a pipeline vágása reális koncepció. Szerintem másnak nem lesz az, de ki tudja.
-
Abu85
HÁZIGAZDA
Az SSAA számít, de nem ennyire, ráadásul eléggé speciális SSAA és TAA keveréket használ a játék.
Igazából ilyen eredményt több tényező együttállása okoz. Valószínűleg az Xbox One shadereit nem sok módosítással hozták át PC-re. Úgy sem tudják hogy működik a Maxwell/Kepler, szóval majd az NV lecseréli őket driverből, ha akarja. A CryEngine is eléggé compute irányba fejlődik. Ezt nyilatkozták is: "We are making heavy use of some DX11 features like Compute Shaders, which however, perform better on some hardware architectures than others, so there will be some noticeable performance gaps between different desktop GPUs." Nyilván a Maxwellnek nem segít, hogy DX11 compute shader mellett az elméleti teljesítményének a negyedét elveszíti, mert a negyedik blokkhoz nem tud 32 kB-os LDS-t rendelni.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW
#2208
üzenetére
Nem igazán a low-level API a követelménye, hanem az érzékelt GPU-k fölötti teljes kontroll (QoS). Az API absztrakciós szintje nem sokat számít, bár a low-level valószínűleg segít nagyon egzotikus működési modellt tervezni.
A DX-ben azért nincs ilyen, mert az API egy erőforrást detektál, és a mai SLI/CF csak egy szimpla driverhack.
OpenGL-ben van erre egy specifikus megoldás: AMD_gpu_association -
Abu85
HÁZIGAZDA
válasz
FLATRONW
#2206
üzenetére
Például a geometry shader fázisig az egyik hardver dolgozik, míg onnantól a másik. Mintha egy GPU lenne a kettő. Ez akár kombinálható AFR-rel. Vagy az IGP csinálja a geometriát, és a dedikált GPU a többi számítást. Vagy akár két dedikált GPU is megteheti ezt. Sok lehetőség van.
-
Abu85
HÁZIGAZDA
De. Különösen szeretjük, amikor egy független stúdió komoly kiadói tőke nélkül tartja a lépést a nagyokkal. Sajnos alig van ilyen, de a Rebellion a példa, hogy meg lehet csinálni.
(#2200) FLATRONW: Kérdés, hogy milyen lesz a multi-GPU, mert nem AFR-t akarnak az Asura motorba építeni, ami ezt különösen érdekessé teszi. Erre én is befizetek, mert feladatfelosztásos modellt még nem láttunk.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Abu85
HÁZIGAZDA
Nekem Q9550-en 30%-kal jobb Full HD-ben maxon a 270X. De most azért tesztelték nagy procival, mert ott is hoz a Mantle. Plusz a textúrákra vonatkozó javulás.
(#2193) Televan: Az egy szabványos effekt. Nem kötelező kikapcsolni, bár rendkívül fényes lesz tőle a bunda, és mivel a rejtett fényforrások megvilágítják, még este is csillogni fog. Ha Lara haja samponreklám volt, akkor itt óránként kondicionálják is a tisztaság érdekében. Ez sajnos még mindig tipikus probléma az efféle szimulációknál.

-
Abu85
HÁZIGAZDA
Négy játék jött. [link] - no offense, csak a pontosság végett.

Az Asura motort az előző verzióhoz képest teljesen átírták. A Sniper Elite 3 már job rendszerű, vagyis nincs dedikált mag az egyes feladatokra. Ehhez még hozzájön, hogy a nyáron átírták a rendert is, hogy jobban illeszkedjen a low-level API-khoz, és kiműtötték belőle a korábban még problémás többletterhelést. Emiatt DX11-ben is gyorsult 10-20%-ot az új patch-csel.
Lehet vele olyat is, de az jóval nehezebb, és igényli azt, hogy a driver támogassa az aszinkron compute-ot. Ilyen driver még nincs a felhasználóknál. De azt mondta a Rebellion is, hogy képesek ingyenessé tenni az OF effektet a Mantle alatt. -
Abu85
HÁZIGAZDA
válasz
Dragbajnok
#2159
üzenetére
Ja. Beépítették a state blokkokat optimalizálásnak +50% sebesség reményében. Olyan fasza lett az implementáció, hogy -50% lett az eredmény. De azért maradt a kód, me miért ne. Legalább nem mondhatják a játékra, hogy elavult a DX9 kódja is, mert nincs state blokk támogatás sem. Most már van.

-
Abu85
HÁZIGAZDA
Inkább úgy mondanám, hogy hasonló számban nincs jelen. Nagyon tipikus dolog lett önmagában már a fekete képernyő miatt is a GPU-t hibáztatni. Mi mástól lehetne, hiszen arra van kötve a monitor ... de nem?

A garanciára BS-sel visszaküldött kártyák zöme ebből a téves alapból születik meg, mert a szerviznél ugyan nem jön elő, de nyilván a user mondhatja, hogy rossz és ragaszkodik ahhoz, hogy ezt megvizsgálják. Ilyenkor megy a gyártóhoz. Sokáig tart, de teljesen normális és jogilag indokolt ügyintézés ez. A gyártó meg vagy visszaküldi, vagy utasítást ad, hogy cseréljék ki, és az amúgy jó kártyákra raknak egy új sorozatszámot és megy újra a piacra. Utóbbi szimplán kedvezőbb, mert egyszerűbb és olcsóbb nem visszaküldeni a terméket. -
Abu85
HÁZIGAZDA
Pontosan. Eleve a gyártók nem is tesztelik az ilyen hibákat kereskedelmi forgalomban kapható alaplappal. Van egy direkt erre kialakított tesztgépjük, amivel minden hardver összeférhetetlenségi gond kizárható, és csak arra koncentrálnak, hogy a VGA hibás-e. Egy mezei szerviznek ilyen berendezésre se pénze, se szakképzettsége.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW
#2128
üzenetére
Azért mert még nem ütötted be a Google-be az NVIDIA (esetleg Intel) black screen keresését. Ott is milliós nagyságrendű találatot kapsz.

Egyébként nem feltétlen más komponens okozza, hanem két komponens közötti kompatibilitási probléma. Külön-külön lehet, hogy minden jó, de együtt ...
-
Abu85
HÁZIGAZDA
válasz
the_mad
#2126
üzenetére
Jóval jobb tesztmegoldásaik vannak, mint bárkinek innen, vagy akár a sarki szervizből. Ha azok azt mondják, hogy jó a kártya, akkor az jó.
A BS hibák nagyon nagy többsége kompatibilitási gond, tehát a problémásnak hitt komponenst átrakva egy másik rendszerbe megjavul az egész. Ugyanezt tapasztalja minden gyártó a garizás során. Teljesen normális, hogy a szervizben is jól működik, mert más a konfig.
A BS-re vannak olyan tesztjavaslatok, amelyeket a szervizpartnerek megkapnak. A legfőbb javaslat, ha hardvert hoznak BS-sel, akkor rögtön kérjék be a teljes gépet, mert a csavarokat leszámítva bármitől lehet. -
Abu85
HÁZIGAZDA
válasz
Locutus
#2124
üzenetére
Nincs elég számítási kapacitás egyetlen PC-s processzorban sem, hogy kiszámolja a mozgásszimulációt és az AI-t. Ha másképp le is programozzák, amit le lehet, akkor is hiányozni fognak a GFLOPS-ok. Esetleg a 24 magos szerverprocesszorokra meg tudnák oldani.
Broadwellre és Kaveri APU-ra meg tudnák csinálni, mert azok támogatják a megosztott virtuális memóriát. Ettől persze még az IGP számolna, csak meglenne a GFLOPS és a hatékonyság, ami kell a feladathoz.Hidd el egyébként az EA-nek sem akkora öröm két motort párhuzamosa fejleszteni és fenntartani. Ha megoldható lenne, hogy csak az újat használják, akkor már a jóval kisebb költségek miatt is átállnának rá.
-
Abu85
HÁZIGAZDA
válasz
Locutus
#2122
üzenetére
Ez nem elmélet, csak nincs még általános fejlesztőkörnyezet. Az EA egyébként a sportjátékaihoz már használja a next-gen igazi extráit. Ők is úgy implementálták, hogy írtak egy saját fejlesztőkörnyezetet. Ha nem tudod megnézni, akkor hallgasd meg az bemutatókat a X1/PS4-es és a PC-s FIFA különbségeiről. Megdöbbentően életszerű a next-gen verzióban a játékosok mozgása. Azt mind a CPU és az IGP közös munkája számolja, pont úgy ahogy kérték a fejlesztők. Az AI-t is IGP számolja.
Mi PC-sek biztos kitörölhetjük majd, mert ide a valóban next-gen játékmeneti dolgok nem lesznek vissza portolva. Amelyik játékot nem butítják le azt ki sem adják PC-re.
-
Abu85
HÁZIGAZDA
válasz
Locutus
#2119
üzenetére
Ott, hogy ők fejlesztik a gépekre a tartalmat. Nekik vannak ötleteik, és szeretnének olyan hardvert, amin ezek az ötletek megvalósíthatók.
Az a gond a piaccal, hogy mindenki sír, hogy hol van a játékokból az innováció. Most mindenki azon sír, hogy miért olyan gépek jöttek, amik lehetővé teszik az innovációt.
-
Abu85
HÁZIGAZDA
válasz
the_mad
#2116
üzenetére
Ezek amiket felsoroltál mindenen vannak. Sőt, most elmondom neked, hogy a PC Partnerhez BS-sel visszaküldött kártyák 99,98%-a hibátlan. Újracsomagolják, új sorozatszámot kap és eladják, mert a PC egy más komponense okozta a fekete képernyőt, csak a user nem lát túl a VGA-n.
Manapság egyébként teljesen normális (szintén PC Partner adat), hogy a garira (akármilyen hibával) visszaküldött termékek ~40%-át újra eladják, mert nem hibásak. Ez arra utal, hogy rengeteg a kompatibilitási probléma.
-
Abu85
HÁZIGAZDA
Ha olcsón akartok top minőséget, akkor mindig attól a gyártótól vegyétek a kártyát, aki az OEM-eket szolgálja ki. Az NV esetében a PC Partner, azaz dobozos szinten a Zotac. Az AMD-nél a TUL, azaz dobozos szinten a PowerColor.

-
Abu85
HÁZIGAZDA
válasz
the_mad
#2111
üzenetére
Nekem az az érzésem, hogy a Titan Z-t még az NV sem tudja mire szánta. Olyan kísérlet lehet mint a sima Titan. Bedobták 3000-ért, hátha ezt is megveszik, csak arra nem gondoltak, hogy az AMD készít egy ugyanilyen koncepciót 1500-ért. Innentől kezdve pedig jön, nem jön, visszavonták, még drivert írnak. Az ASUS-nak annyira későn szóltak, hogy a sajtókat is kiküldték április végén. Most azon mehet a vita, hogy mivel járnak jobban ... ha megjelenik, vagy ha törlik.
-
Abu85
HÁZIGAZDA
válasz
#17954112
#2099
üzenetére
A nyomós ok kimerült abban, hogy az AMD mellett az összes többi nevező azt mondta, hogy az a hardver, amit kérnek előtt kivitelezhetetlen. Az AMD azt mondta, hogy 2014-re összerakják. Mivel 2014-2015-re új konzolokat akart a Sony és az MS, így eldőlt a kérdés. Ha 2016 végére tervezték volna a startot simán nem az AMD nyeri meg a tendert, mert ARM vagy Power magok licencelésével sokkal olcsóbb üzleti konstrukciókra is lehetőség van, és úgy a Sony és az MS megveszi a dizájnt, majd megdobja a beszállítót 3-5 dolláros gépenkénti zsetonnal. Ezzel szemben az AMD-nél az x86 miatt csak OEM konstrukcióra van lehetőség, vagyis nem lehet megvenni a dizájnt. Ez gyakorlatilag azt jelenti, hogy gépenként 3-5 dollár helyett 20-30 dollárral többet rak zsebre a beszállító.
-
Abu85
HÁZIGAZDA
válasz
Locutus
#2095
üzenetére
Ezt még ma is félreérti mindenki. A fejlesztők igazából egy dolgot kértek nagyon, ami miatt az eredeti hardverkoncepciók mentek a kukába. Az egységes memória és a vele járó egyéb extrák, mint a C1x atomics. Egyszerűen fogalmazva kértek egy gyorsabb Cellt a Cell hátrányai nélkül.
Amit majd látni fogsz, hogy ami PC-re megjelenik az már biztos nem fog tartalmazni olyan dolgokat, amelyek a fenti fícsőröket kérik. Vagy esetleg butított lesz a port lásd Fifa 14.
Egyébként ezt már más leírta igen jól. Erről szól a next-gen. És az az architektúra, amit beleraktak olyan, ami pont ezeket teszi lehetővé. Hogy új szoftvereket kell írni? Persze, de az eredmény lenyűgöz majd mindenkit. -
Abu85
HÁZIGAZDA
Nem. Nem alkalmazták a PS4-re és az X1-re sem az aszinkron compute-ot, és még a DMA transzfert sem csinálták meg nemhogy shared memre, de még aszinkronra sem. Ez az egyelten next-gen játék, ami DMA transzfernél leállítja a futószalagot. Eredetileg valóban úgy tájékoztatták a Sony-t, hogy a PS4-re meglesz a 60 fps és az 1080p, csak akkor még úgy volt, hogy a kidolgozott optimalizálásokat beépítik. Ezek nélkül viszont a teljesítmény több mint a felével esik. Vagy csúszik még negyed-fél évet, vagy kiadják mindenre úgy, ahogy van. Esetleg év végére befejezik és jön egy patch.
A legtöbb eljárást láthatóan pre-gen konzolokra építették. Az X360 és a PS3 verzió alig néz ki rosszabbul, mint a többi, pedig ezek majd egy évtizedes hardverek. -
Abu85
HÁZIGAZDA
A BF4 AFR módja nem elég jó. Egyedül Mantle alatt van mindig skálázódás, de DX alatt vannak helyzetek, ahol egyszerűen a kényszeres AFR által kínál QoS nem teszi lehetővé, hogy jó legyen. Se az SLI, se a CF nem skálázódik megfelelően.
Régóta téma már, hogy az API-ból kellene direkt elérést adni mindegyik GPU-ra, de ez egyelőre szabvány szinten még csak álom. Most kezdődött el valami OpenGL-en, mert az NV és az AMD összeállt, hogy elkészítsék a GLX_AMD_gpu_association kiterjesztés ARB változatát, de minimum lesz belőle egy EXT változat. Ez lesz az első szabványosítási kísérlet a jó QoS-es multi-GPU-ra.A BF4-ben láthatók a limitek. Még a direkt optimalizálás nélküli Mantle multi-GPU is veri a DX-es AFR-t.
-
Abu85
HÁZIGAZDA
Valójában nem a hardverekkel volt a gond. Az API korlátozta a lehetőségeket. Később, ha elterjednek a modernebb API-k, akkor vissza lehet térni az eredeti koncepcióhoz. Esetleg next gen konzolokra meg lehetne csinálni az extrákat, de az UE4 fő terepe inkább az ultramobil piac lesz, tehát ennek rendelik alá a fejlesztéseket is. A licencelést is ennek megfelelően lőtték be.
Egyébként mindegyik nagy motorlicencelésre szakosodott cég a mobil irányba megy el. Egyszerűen a napnál is világosabb, hogy a nagy kiadók házon belül fejlesztik a motorokat. A megszokott területeken kvázi megszűnt a felvevőpiac. -
Abu85
HÁZIGAZDA
válasz
Firestormhun
#2056
üzenetére
Ez az eredeti demó, csak ennyire le kellett butítani a motort. Úgy nem adhatsz ki játékot, hogy bármelyik pillanatban elsötétülhet minden. Nagy ötlet volt az eredeti GI, jó volt a minősége, de ha nem stabil, akkor dobni kell. Helyére a Lightmass került, de a motor alapértelmezetten már Enlightent használ, csak az Elementálban ezt már nem cserélték be, felesleges is lenne.
Az Unreal Engine 4-be számos korábban tervezett effekt nem került bele. Egyszerűen vagy nem volt stabil, vagy kevés volt a 8 UAV/pipeline.
Ezt az Epic is megsínylette. Csúszott a fejlesztés és el is kellett adni a GoW jogokat az életben maradáshoz. -
Abu85
HÁZIGAZDA
válasz
szasanyi
#2055
üzenetére
Azzal nem lesz gondjuk. Engem jobban izgat, hogy a PC-re mit találnak ki. Ha reálisan nézzük, akkor GI-ra két értékelhető alternatíva létezik ma.
Valszeg a legtöbb játék az Enlighten új verzióját fogja erőltetni. A mostani CPU-s számítás még többletterhelés és extra késleltetést jelent, de GPGPU-val is megoldható. Most, hogy az ARM megvette őket, biztos átrakják DC-re vagy OpenCL-re. Asszinkron compute mellett szuper sebessége lesz.
Jobb minőséget ad az LPV, de számításigényesebb is, viszont cserébe egyszerűsíti a volumetrikus fényszámítást.
Opció esetleg a VPL, de ez a jellemző leképzőkhöz nem ideális.
A SVOCT szerintem álom. Maximum az SVPRTCT mehet, de az nem minden architektúrán oldható meg jól. A 3D textúra mérete sem ideális. -
Abu85
HÁZIGAZDA
Meglehet érteni őket. Azért az nem jó dolog, ha hirtelen összeomlik a rendszer és sötét lesz a játék. [link] - itt van a különbség. Sajnos nem stabil az effekt, és hát láthatod, hogy ha leáll, akkor az fáj a színekre nézve.

A Sony csinálta meg egyedül az Voxel Cone Tracinget stabilan, valós időben. Az tényleg jól működik, persze ők nem az Octree-re mentek rá, hanem eleve a PRT-re. PS4-en ez lesz a brutáleffekt az érkező exkluzívokban. -
Abu85
HÁZIGAZDA
Elég sok a bugreport, szóval van benne programhiba. Majd idővel javítják.
Amúgy túl sok értelme nincs a tesztnek, mert az Elementalban olyan effektek és eljárások vannak, amik már nem alapértelmezettek a motorban. Azóta ezeket újakkal cserélték. SVOCT-vel lett volna értelme, de azt kivették sajnos. Látható, hogy visszaesett a minőség az eredeti videóhoz képest. -
Abu85
HÁZIGAZDA
Nem a stabilitás a fő probléma. A kiszámíthatatlanság, ami ma a fejlesztőket a low-level API felé tolja. Azért nagy az érdeklődés egy ilyen koncepció iránt, mert ma a DX-ben az a legnagyobb gond, hogy megjósolhatatlan a működése. Annyira segíteni akar, hogy árt a fejlesztéseknek.
Sokszor kapják a fejlesztők, hogy nem tudnak többszálú kódot írni, így nem tudják kihasználni a többmagos processzorokat. Ez szinte általános nézet a PC-ben, hogy erre a piac képtelen. Eközben konzolon baromira jól kihasználják az erőforrásokat. A tudás és a tapasztalat tehát megvan, csak nincs normális többszálú végrehajtása az API-knak, illetve a driverekre annyi munka a szakad, hogy rengeteg rejtett szál akadályozza a programszálakat. -
Abu85
HÁZIGAZDA
A stabilitási gondok 95%-a arra vezethető vissza, hogy a fejlesztőnek szüksége van a sebességre és egyszerűen bevállal olyan optimalizálásokat, amelyeket meg lehet csinálni DX alatt például, de az MS határozottan nem ajánlja, mert nem garantálható az API stabilitása olyan körülmények között.
Amiket felsoroltál azok mind attól vannak, hogy az aktuális API-k még ma is úgy kezelik a VGA-kat, mintha TnT-k és Voodoo-k lennének. A driver pedig megpróbálja ezt a modellt olyan formába önteni, ahogy a mai hardverek valóban működnek.
Az új low-level API irányzatok lényegében csak azt teszik, hogy eldobják a régi kötöttségeket és úgy tekintenek a hardverekre, mint általános processzorok. Ennek értelmében egy modern API annyit tesz, hogy shadereket futtat a hardveren és kész.
-
Abu85
HÁZIGAZDA
Szerintem a PC-t fel kell segíteni olyan technikai színvonalra, amivel a két új generációs konzol rendelkezik. A fejlesztőknek első a konzol, és minden kutatást arra végeznek. Abból pedig átjön a cucc PC-re, de ha nincs meg a technológiai alap ehhez (low-level API, dedikált hangprocesszor, HSA-szerű integráció), akkor a PC maximum a mobilokhoz készített port grafikailag feljavított verzióját kapja meg.
Az persze igaz, hogy AMD jobban érvényesül, ha a PC megkapja a konzolos új generációs tartalmakat. Az NVIDIA eközben jobban érvényesül, ha inkább mobil portokat kap a PC GameWorks és GPU PhysX effektekkel kiegészítve. Ez a felfogás a két cég szoftveres fejlesztésein egészen világosan látszik. -
Abu85
HÁZIGAZDA
Ez nem értékrend. Az természetesen látszik, hogy az AMD elsők akar lenni az egyes API-k kihasználásában és támogatásában. Ezt évek óta teljesítik is. De ettől még ez nem értékrend, hanem a fejlődés elősegítése. Aki nem így tesz az fékezi a fejlődést. Szóval ez itt egy kötelesség az adott cégtől, hogy a piac ne egy helyben toporogjon, hanem fejlődjön. Aztán persze lehet magyarázni, hogy az csinálja jól, aki nem fejleszt, mert csak, de ettől még a szabványba az egyes funkciók akár követelményként, vagy akár opcionálisan nem véletlenül kerülnek be. Azokat megszavazzák a GAB/Khronos tagok, ráadásul legalább 4-5 évvel a bekerülés előtt, tehát meglepetés senkit sem ér.
-
Abu85
HÁZIGAZDA
Igen. Mostantól még kevésbé lesz meg a best buy termék, mert rengeteg szubjektív tényező jön be. Én arra gondoltam a változások mellett, hogy az értékelés megmarad az objektív szempontok szerint, de a szubjektív tényezőket pár folyamatosan frissülő bejegyzéssel az olvasók elé tárjuk. Ennél jobb rendszer sajnos nincs.
-
Abu85
HÁZIGAZDA
válasz
ricshard444
#1971
üzenetére
Én ma már nagyon leegyszerűsítem a kérdést. A következő tesztplatformban is ez lesz benne. Itt már egységesség nem lesz, mert alapjaiban különböznek az architektúrák. Amit nézni kell, hogy az extrák közül NVIDIA PhysX és TXAA a fontosabb, vagy az AMD TrueAudio és Mantle, vagy az Intel PixelSync.
Mindhárom cégnek meglesz a játékfejlesztői támogatása ezeknél a technológiáknál. A hardverek teljesítménye eléggé közel van egymáshoz azonos árszinten, így az extrák eldöntik a választást. -
Abu85
HÁZIGAZDA
Itt sosincs filozófiai felfogás. Legalábbis a tervezésnél biztos nincs, mert eleve a termékekkel piacokat célzol és nem filozófiai irányzatokat.
Az AMD és az NV között ma az a különbség, hogy pár éve egy válaszút elé kerültek. Az egyetlen dolog ami világos volt, hogy a PC-s VGA-piac nem viheti a hátán a termékportfóliót, mert szenvedni fog. A termékek eladhatók ide, de biztos bevételt kínáló és/vagy növekvő piac kell. Az utat mindketten kiválasztották. Az AMD berakta magát a konzolokba. Legalább 8 évig biztos bevétel ráadásul OEM konstrukcióban. Az NV kiszemelte magának az ultramobil boomot, ami nem olyan stabil bevétel, mert sok a konkurens, viszont masszívan növekvő piac.Ez itt tiszta üzlet. Az architektúra karakterisztikáján is látszik, hogy ultramobilba vagy konzolba tervezték.
-
Abu85
HÁZIGAZDA
válasz
daveoff
#1907
üzenetére
Először is tudni kellene, hogy mit tud majd az új DX. De ha feltételezzük, hogy legalább képes arra, amire a base funkcionalitású Mantle, akkor szerintem a szabványos az előnyösebb (a szabvány miatt
). Az viszont nem kizárt, hogy páran maradnak a Mantle mellett. Legalábbis azok a fejlesztők nagy valószínűséggel nem hagyják el, akik saját idejükből részt vettek a fejlesztésében. Ők amolyan saját gyereknek tekintik ezt. -
Abu85
HÁZIGAZDA
válasz
Casanova*
#1902
üzenetére
A Mantle-t azért fejlesztik, mert a fejlesztők igényelték. Ezután addig fogják fejleszteni, amíg ez az igény megmarad. Alapvetően a Mantle állandó fejlesztése az AMD számára nem nagy költség. A grafikus üzletág szoftveres R&D-jének nagyjából 1-2%-a. Ahol a Mantle költséges az a fejlesztői oldal, mert ami eddig a driverben, illetve az API-ban volt annak most a programban kell lennie. Ebből a szempontból az a kérdés, hogy a nagy támogatók, mint a Frostbite Team azután, hogy az R&D-jük 70-80%-át is elköltik majd a Mantle-re úgy gondolják-e, hogy jobb a szabványos modern API, vagy inkább maradnak a Mantle mellett, vagy esetleg belefér mindkettő. Ettől a kérdéstől függ a Mantle további fejlesztése. Hacsak a Frostbite Team megmarad támogatónak, akkor az már megéri.
-
Abu85
HÁZIGAZDA
Hogy legyen szakmai is kicsit kutattam a multi-GPU jobb kihasználása után. Na most nem olyan tragikus a helyzet, hogy ehhez Mantle kelljen. OpenGL-ben már van egy WGL_AMD_gpu_association kiterjesztés, ami a közvetlen elérést biztosítja a hardverekhez. Ha jól értelmezem, akkor ennél a Mantle csak annyiban több, hogy egy GPU partíció képes egy másik partíció memóriájába írni. Bár ez OpenGL-ben kicsit necces lehet, de az szerintem megoldható, hogy az egyik GPU a másik frame bufferébe írjon adatot.
Az Nv-nek is van egy WGL_NV_gpu_affinity kiterjesztése némileg eltérő működéssel. Sajnos csak Quadro kártyákra.
-
Abu85
HÁZIGAZDA
Az erőforrások explicit elérése megoldható bármilyen gyártón. A Mantle semmi extrát nem kér a hardver oldalán. Tisztán szoftveres technológiáról van szó. Akár beépülhet a DX-be, vagy az OGL-be is, csak egyelőre le se szarja az igényeket az MS és a Khronos. A hardverek egytől-egyig alkalmasak a jobb alapokra épített több GPU-s kezelésre.
-
Abu85
HÁZIGAZDA
Komplikált kérdés. Leginkább jelenettől függ, illetve nem érdemes az AFR-es CF/SLI-t a Mantle megoldásával összehasonlítani. Óriási különbség van aközött, hogy a fejlesztő explicit hozzáférést kap az erőforrásokhoz kiváló QoS mellett, vagy csak kap egy AFR-t (CF/SLI), ami felett leginkább nincs kontrollja és közvetve lehet rá felépíteni egy esetlegesen működő rendszert igen gyenge minőségű QoS-sel.
A Mantle koncepciójával úgy lehet használni több GPU-s kiépítést, hogy az nem ad a működéshez extra késleltetést, és a programban direkten kezelhető minden probléma, ami rossz skálázást vagy mikroakadást okozhat. Olyan extrém gépek is építhetők, amelyekben nyolc GPU is van, és ezeket lineárisan lehetne skálázni, továbbá nem éreznéd a több GPU mellékhatásait az egy GPU-s rendszerhez képest.
-
Abu85
HÁZIGAZDA
válasz
#35434496
#1863
üzenetére
A 4,8 GHz. A Mantle jelenlegi implementációja erre a DX kódhoz képest nagyjából 4%-ot ha rápakol még maximum. Legalábbis egy 290X és 780 Ti kaliberű VGA-hoz ez az órajel és proci elég. A Mantle előnye ilyenkor csak az alacsonyabb késleltetésben nyilvánul meg, de az nem mérhető. Ha ezeket a kártyákat megduplázod, akkor már erősebb lesz a procilimit.
-
Abu85
HÁZIGAZDA
A PS4 (és az X1) a TressFX 2.0-t kapta meg. Annak a szimulációja jobb, mint az első verzió. Sokkal jobban kezeli az extrém gyorsulásokat, ezért hat másképp a mozgás. Nem olyan irreálisan nyúlik el a haj. Ezt egyébként át lehet menteni PC-re DX11-re. Nem tudom, hogy akarják-e, de technikai akadálya nincs.
-
Abu85
HÁZIGAZDA
válasz
#35434496
#1856
üzenetére
A TressFX-re én sosem mondtam azt. Ha megnézed én voltam az egyetlen itthon, aki leírta, hogy szabványos effekt, pedig más fórumokon már ment a sírás.
A TressFX akkor lenne gondban NV-n, ha nem csak Lara hajára csinálták volna meg. Na az úgy már nem futna náluk, mert az már 4 UAV összesen. A játék más effekjei pedig elvisznek hatot, amivel rögtön 10 UAV van, de az NV 8-at támogat.
-
Abu85
HÁZIGAZDA
válasz
TechArtist
#1844
üzenetére
Technikailag mindegy. A Nixxes elmondta, hogy őket elsősorban az asszinkron compute és a kiszámítható shader újrafordítás érdekli. Nem valószínű, hogy olyan CPU-limitet okozna a Thief, hogy ebből sokat profitál a Mantle. De egyébként az API extra effektekre is használható, ami DX-ben esetleg nem megvalósítható.
(#1845) stratova: Elég sok TrueAudio hangeffekt elérhető lesz szimplán CPU-s számítással. Szóval valamennyire mindenképp beleszól majd a játékmenetbe. Ezért kérnek brutálizmos kétmagos CPU-t minimum, mert az átlag játékokhoz képest kétszer több procierőforrást használnak el a hangra. Ha nincs elég erős procid, és TrueAudio blokk sincs, akkor búgni meg sípolni fog a hang.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi
#1841
üzenetére
Aki virágokkal zombikra akar lőni és fordítva.
-
Abu85
HÁZIGAZDA
válasz
TechArtist
#1839
üzenetére
Tavaszra is van még egy játék bónuszként

-
Abu85
HÁZIGAZDA
válasz
#35434496
#1817
üzenetére
Nehéz megmondani, mert erről sosem szoktak beszélni a cégek. A core funkciókat nem írják sokan sehol sem. Van egy D3D és egy OGL csapat, illetve ha több API-t támogatnak, akkor azokat is általában külön csoport végzi. A tesztelésen és a profilozáson dolgoznak viszonylag sokan. Ha a szinte minden feladatot beszámítunk, akkor leginkább 100 fő körül lehet a létszám. Ez általánosítható más cégre is. Egy prémium drivertámogatáshoz ennyi hardverrel mindenképp szükséges ennyi ember.
-
Abu85
HÁZIGAZDA
válasz
#35434496
#1815
üzenetére
Dollármilliárdos szintű pénz. De itt a büdzsé, amit a fejlesztésre szánnak fontosabb. Ha a grafikára vetítjük le az egészet, akkor az AMD és az NV költ a legtöbbet, míg az Intel kevesebbet. Ezen belül is a driver viszi a legtöbb pénzt. Viszont a Mantle ennek alig 1-2%-át teszi ki az API-val együtt is. Ami sokba kerülhetett az az R&D, de azt a PS4 és az X1 API-jávál együtt megcsinálták. Egyedül a validációs rendszer lehet extra költség. A driver oldalán pedig csak egy vékony felület kell, ami engedi a shadereket futni. Nincsenek hazardok, agresszív kötegelések/pufferelések, külön profilok vagy compute-grafika átlapolási rutinok. Gyakorlatilag a Mantle-re havi szinten költött összes pénz nem teszi ki a D3D driver havi szintű költségeinek 10%-át sem.
-
Abu85
HÁZIGAZDA
A pénz belepumpálása leginkább attól függ, hogy meddig igénylik a fejlesztők. Az első körben eleve úgy fejlesztették, hogy tudták kik lesznek benne (DICE, Oxide, Nixxes, Rebellion, CIG, PopCap, Bioware, Visceral, Stardock, Mohawk). Aztán szeptember óta volt már tagfelvétel, ki tudja kik kerültek még be. Épp most is zajlik egy újabb felvételi.
-
Abu85
HÁZIGAZDA
A GTA4 kapcsán drága GTA-fanboy barátom tudnám idézni: "Nem volt fos a GTA4 motorja, csak a játékosok nem értékelték, mert szarul működött."

-
Abu85
HÁZIGAZDA
Az még a nagy kérdés, hogy meddig fognak a fejlesztők 2000-5000 batch/frame között maradni a multiplatform címeknél. Az előző generációs konzolok 20k-t is tudtak, az új generáció 40k-t is tud. A Mantle 100k-ra is képes. Előbb-utóbb elfogy a türelem. A fejlesztők elég sokáig vártak, rájuk nem lehetett panasz, de egy PC-s játékos nem fogja eltűrni, hogy PC-n legyen kisebb a látótávolság vagy gyengébb az általános minőség. Ha az MS és a Khronos nem adja meg, amit kérnek, akkor majd egy gyártó.
-
Abu85
HÁZIGAZDA
válasz
BlackSoft
#1771
üzenetére
Inkább csökkenti az API többletterhelését és valóban többszálú leképzést biztosít. A jelenlegi programok ebből a képességéből profitálnak. Ez több fejlesztőnek nagyon fontos dolog, mert túl vagyunk egy konzolgeneráción, és az Xbox 360-on egy-két exkluzív elérte a 20000 batch/frame-et is 30 fps-sel, amikor ezt a sebességet PC-n jó programozás mellett is csak 5000 batch/frame-mel tudjuk hozni. Kivéve persze az olyan vadállat motorokat, mint a Nitrous, de nem mindenki öl az optimalizálásba annyi pénzt és időt mint az Oxide.
Na most itt az új konzolgeneráció, amelyek képesek 40000 batch/frame-re, és PC-n még mindig nem történt semmi előrelépés. Nem mennének bele egy gyártófüggő API-ba a fejlesztők, ha nem gondolnák, hogy a szabvány már a PC versenyképességét veszélyezteti. -
Abu85
HÁZIGAZDA
válasz
#35434496
#1754
üzenetére
A DX-et 2000 batch/frame-re ajánlják maximum. Ez meg minimum 15000 batch/frame-et csinál, de az átlag inkább 50000-et. Nincs azon mit csodálkozni, hogy egy 90-es évek végére szánt hardverekhez tervezett API-val ezek a komplex jelenetek CPU-limitesek.
Ez a fő oka annak, hogy ma már a tartalomkészítők is driverre optimalizálnak. 15 év, nulla előrelépés, az új konzolok meg 40000 batch/frame-et tudnak. -
Abu85
HÁZIGAZDA
Itt vannak a marketing slide-ok a Mantle-re. A fejlesztői slide-okon volt több adat. A legnagyobb bottleneck a draw call overhead és a működő multithread hiánya. Ez az amiért a fejlesztők kérték. Aztán másodsorban lényeges előny a GPU memória explicit elérése. Látható, hogy mennyire egyenletes lett ennek használatával a frame time Mantle-lel, pedig még nem is használják hatékonyan. Végül a shader fordítás kigyomlálása. Ez nem mindenkinek fáj ugyanannyira, de gondolom emlékszel a Deus Ex: HR-re. Annak voltak akadásai a shader újrafordítás miatt. A Nixxest például inkább ezért érdekli a Mantle.
-
Abu85
HÁZIGAZDA
Az AMD az API-ról beszélt és nem egy játékról. Az API-ban rengeteg lehetőség van a teljesítmény növelésére: többletterhelés csökkentése, multithread, bindless modell, asszinkron compute, explicit memóriamenedzsment, monolitikus futószalag, state fícsőrök, shader fordítás optimalizálása, asszinkron memóriamásolás, stb. Ezek összessége is használható, de lehet használni csak egy részét is, sőt épphogy béta API-ról lévén szó, talán nem ideális az első implementációba mindent bevetni. A többletterhelés/multithread, a bindless, a shader fordítás és az alapvető memóriamenedzsmentnél egyik új program sem ment tovább. Kvázi elsőre beírt kód.
A Nitrous DX kódjában három ember egy évnyi munkája van, a Mantle pedig egy ember három hónapnyi munkája. Azért ez különbség. -
Abu85
HÁZIGAZDA
válasz
MiklosSaS
#1665
üzenetére
Nem. A Mantle semmilyen driver oldali CF-et nem kínál, és a jelenlegi tervek szerint nem is fog. Ehelyett az alkalmazás közvetlen kontrollt kap a detektált erőforrások felett. Mindenki olyan multi-GPU megoldást implementálhat, amilyet akar, és amelyik jó az adott renderhez.
-
Abu85
HÁZIGAZDA
A PhysX-et mindenki leszarja, azzal nincs baja senkinek, irreleváns dologként tekintenek rá. A CUDA probléma. Például az NV a PhysX für és hair effekteket elkészítette DirectCompute platformra. Azokat támogatja az AMD és az Intel. Működik is az új COD-ban. Nem a PhysX-szel van itt a baj, hanem a CUDA-val. Azt nem akarja senki sem támogatni, és az elmúlt évek alatt jól kivégezték a konzumer szinten, tehát most már nem fognak hátramenetbe kapcsolni a konkurensek.
Ha a HSA-nak adná oda az AMD a Mantle-t, akkor olyan, mintha nem adná oda az NV-nek és az Intelnek. Utóbbi két cég sosem fog belépni a HSA-ba, mert az arra szolgál, hogy rázúdítson a piacra egy tucat chiptervezőt. Ez durván növeli a versenyt. -
Abu85
HÁZIGAZDA
Attól, hogy kijön egy SDK még nem változik semmi. Ahhoz, hogy egy konkurens cég támogassa a Mantle-t az kell, hogy egy független alapítvány átvegye a fejlesztését. Az SDK csak annyit jelent, hogy nem kell többet nevezni az AMD partnerfelvételére, hanem csak beütöd az oldalt és töltöd le az SDK-t. Ez a gyártói hozzáálláson nem fog változtatni.
De egyébként nem vagyok meggyőződve arról, hogy a világnak szüksége van egy publikus SDK-ra. A Mantle kontrolláltan lehet hasznára a piacnak. Nemsokára meghirdetik a harmadik felvételit, oda jelentkezhetnek majd a fejlesztők.Szerk.: [link] - már ki is posztolták. Szépen kontrollált környezetben lehet fejleszteni rá.
-
Abu85
HÁZIGAZDA
válasz
SzlobiG
#1607
üzenetére
Ezért nem értem én sem ezt az irányzatot, de ettől még a multis játékosok nagy része csökkenti a részletességet, hogy 100 fps fölött legyen mindig multiban. Nem értem miért, de ha megnézel egy profi játékost, akkor lowra van véve mindene és úgy játszik. Többnyire azért vesz gépet, hogy elérje a 200 fps-t.
(#1608) Malibutomi: A négymagos Inteleken sokat segít a Mantle. Még Full HD ultrán is megdobja azokat egy extra 30%-kal multiban. A hatmagos Inteleken nem dob annyi. Ott 290X mellett is maximum 20%-kal több az ultra multi.
-
Abu85
HÁZIGAZDA
Idén biztos nem jön a 490X. Márpedig idén lesz olyan játék, aminek egy-egy effektje reálisan csak Mantle-ön lesz bekapcsolható. A Frostbite Team mondta, hogy az R&D-jük nagy része a Mantle-re megy.
A 290X-es felhasználók is örülnek. A legtöbb hardcore játékos eleve 100 fps fölé lővi be a rendszert még 290X-szel is. Lásd őt is. [link] - számára a Mantle plusz 60 fps-t jelent. És durva gépje van, csak multis arc és 100 fps fölé paraméterezi a beállításait. Szóval leginkább medium presetre. És még egyszer mondom, a legtöbb hardcore játékos ilyen. A mögöttes koncepciót én sem értem, hogy csúcsgéppel, mi értelme medium preseten játszani, de most mit lehet ezzel kezdeni. -
Abu85
HÁZIGAZDA
válasz
ricshard444
#1596
üzenetére
Mondjuk azt tedd hozzá, hogy leginkább multiban. Single-ben tényleg inkább 10% a bónusz.

-
Abu85
HÁZIGAZDA
válasz
Locutus
#1592
üzenetére
Itt nem a felbontásról van szó, hanem az általános effektminőségről. Régóta tudnánk olyan dolgokat csinálni, amiket a filmekben látsz CGI animációként. Egy dolog miatt nem tesszük meg. Nincs hozzá megfelelő API-unk. De látszik, hogy maga a piac próbál innovatív lenni. John Carmack a megatextúrázással. Berakta, innovatív, de még nem működik. Vagy Tim Sweeney az UE4-nek az Voxel Cone Tracingjével. Berakta, DX alatt nem stabil, így mára kivette, de érzi, hogy merre kellene menni, csak ma még nem tudja megtenni. Bezzeg Capcom. Berakta PS4-re az alternatív implementációt, és eldobta az agyát a piac a Panta Rhei motortól. Ez eddig jó, de hogyan portolod PC-re? És ez felmerült már a Capcomnál is, hogy az új motornál erre nem gondoltak, és ez gond lesz.
-
Abu85
HÁZIGAZDA
A DX kód ledobja az erőforrást. Ezzel küzd a BF4 mióta megjelent. Az januári patch-ek javítottak, de most az új patch-ben nőtt egy picit a DX kód sebessége és megint jönnek a device hung hibák. Többek között nekem is előfordult a hétvégén, pedig két hónapja nem volt ilyenem. A Mantle kód stabil a rendszeremen.
Engem ebben az irányban az érdekel, hogy legyen egy olyan API, amire lehet a konzolról új generációs effekteket portolni. Értem, hogy van más koncepció is, amit az NV csinál, hogy ha valami nem működik, akkor lesz rá OGL- és DX-barát alternatív effekt, de szerintem ez nem reális alternatíva. Egy hardcore PC-s játékos nem fogja elviselni, hogy konzolon szebb lesz xy effekt. Persze a többség le fogja szarni, de a hardcore réteg lázadni fog. Nekik jó lesz a Mantle.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Lenovo IdeaPad Slim 3 Ryzen 7 8840HS 15" FHD+ 24GB 1000GB Teljeskörű garancia
- Licencek + laptopok + dokkolók
- BESZÁMÍTÁS! Gigabyte Z390 i7 9700K 16GB DDR4 512GB SSD RX 6600 8GB Rampage SHIVA FSP 550W
- GYÖNYÖRŰ iPhone 13 Pro 256GB Graphite -1 ÉV GARANCIA - Kártyafüggetlen, MS4409
- Surface Pro 7+ i5-1135G7 16G 256GB 1 év garancia
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
![;]](http://cdn.rios.hu/dl/s/v1.gif)






