-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
#85552128
törölt tag
válasz Venyera7 #25050 üzenetére
A "hack" nem mintha garantált megoldás lenne, elég szomorú, hogy állítólag a Freesync jobb/okosabb mégis a Gsync monitorok tartománya a gyakorlatban sokkal szélesebb, pedig ugyanazokat a paneleket használják...
(#25049) HSM: 39 használhatóbb mint a 30, ahol a 1080 50 felett lenne ott a Fury X még a 40-et sem érné el, ráadásul a Gsync monitoroknál sokkal szélesebb az adaptive sync tartomány is, akár 30-ig lelehet menni, Freesyncnél meg egy kivételével 40-től kezdődik. Persze lehet itt hackekre meg hasonlókra alapozni csak több százezres kiadásoknál nem éppen okos dolog Egy erősebb kártya kéne belátható időn belül. Vicces, hogy tavaly 4K mániával promózták a Fury X-et mostanra meg gyakorlatilag az nV után legjobb esetben is 4. opcióként van kártyájuk erre a célra.
(#25052) gollo91: Tudom mi a range mod. Nem garantált, hogy adott típuson belül minden monitor panelje bírni fogja - máskülönben nem 35-40-től kezdődnének gyárilag sem. Az egyéb mellékhatásokról (frame skipping, villogás) nem is beszélve.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A post-process 8xTSAA-val átlapolja az új frame elejét. Ehhez kell egy present a compute parancslistán. Ezt a PresentMon nem látja. A Doom minden frame-nél csinál ilyet. Külső programból is van rá megoldás, de ilyenkor a PresentMont úgy kell tervezni, hogy az adott alkalmazás adott GPU-n való futásához igazodjon az elemzése. Ilyen verzió még nincs belőle.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #25051 üzenetére
Igazából nem hack, hanem gyári tuning. Olyan, mint a G-Sync 165 Hz-re emelése, csak fordítva. Csak akkor működik, ha Radeont használsz. Ellenkező esetben az LFC nem aktiválódik. Ezért van így megadva a tartomány, hogy normál Adaptive-Sync+LFC. Például Intellel az LFC nem fog már működni, ha majd lesz Adaptive-Sync implementációjuk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #25056 üzenetére
A range mod az hack. De ez nem range mod, hanem egy külön firmware kiegészítés, ami engedélyezi az alacsonyabb vertikális frissítést, ha a kijelzőt egy Radeonra köti a felhasználó. A legfőbb különbség, hogy erre van garancia, míg a range modra nincs.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yany
addikt
válasz #85552128 #24991 üzenetére
Őszintén szólva a BF1-től én félek picit. Az early tesztek szerint nem gyorsul DX12-től, de inkább lassul. Igen, tudom, hogy beta, de a Mantle fejlesztésének is óriási reklámértéke volt, közben mégsem bevethető BF4 alatt, DX11-ben meg állva hagyja az NV a pirosakat. Pedig AMD barát engine. (?) Szóval a BF1-be vetett hitet látva én mindig inkább tartok tőle, semmint együtt éreznék.
Építs kötélhidat - https://u3d.as/3078
-
-
nagyúr
Jó, tehát akkor, ha jól értem:
- Ha van 8xTSAA, akkor a presenteket a compute parancslista küldi, és a PresentMon pontosan 0 frame-et fog detektálni
- Ha nincs 8xTSAA, akkor nincs compute listás varázslás, és a PresentMon helyes eredményeket ad visszaMagyarul, ami mérés készült a DOOM-ról PresentMonnal, az mind helyes, mert ami nem lenne helyes, az 0 FPS
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Jack@l
veterán
Vagy Abu bele akarja számolni az N-1-edik már legenerált és eltárolt framet is az fps-be
@Yany: Lehet csak pletyka vagy félreértés, de olyat olvastam redditen, hogy állítólag ki is fogják hagyni megjelenéskor a dx12-es modot, mert nem hozta a várt eredményt.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Yany
addikt
2 hónapja, mikor még ment a 7870-esem akkor totál bugos volt (grafikai glitch-ek és kilépő játék) és még lassabb is volt a DX11-nél. Bepróbálom most az RX480-assal akkor, ha azt mondod, hogy stabil, hátha a driverek/GCN4 többet hoz ki ennél.
Építs kötélhidat - https://u3d.as/3078
-
Abu85
HÁZIGAZDA
Nem teljesen. Mindenképpen lesz egy grafikai present, csak nem az lesz, amit a PresentMon-nak mérnie kellene.
Igazából akkor mér jó CPU fps-t a Doomban a PresentMon, ha az AA nincs kikapcsolva és nem 8xTSAA van beállítva.Valójában egyébként GPU fps-t kellene mérni, mert a DX12 és a Vulkan is multi-engine API. A CPU fps-t mérő Fraps azért volt jó régen, mert a GPU fps is lényegében ugyanaz volt, hiszen a DX11 és az OpenGL single-engine API volt. A CPU fps és a GPU fps között nem volt csak 1-2% különbség. Persze nyilván a Fraps esetében is voltak problémák, amire az FCAT rávilágított, de az fps akkor is jó volt. A DX12 és Vulkan alatt a CPU fps a GPU fps-től 10-20%-ot is simán eltérhet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
A 7870XT-men nekem se ment jól. Kevés hozzá a 2GB ram, mediumra kéne venni a grafikát, úgy egyébként a 7870-en is szépen megy Mantle-vel, de ilyen kártyával nyilván érdemesebb eggyel magasabb beállításon DX11 alól tolni.
A 290-eken viszont 4GB rammal nincs ezzel gond, és szépen, stabilan megy. Bár nekem a DX11 móddal sem volt semmi komolyabb bajom.
[ Szerkesztve ]
-
Yany
addikt
válasz Jack@l #25063 üzenetére
Az nagyon durva, orbitális blama lenne mind az AMD felé, mind a DX12 felé. Gyakorlatilag a DX12-be vetett hitet és az AMD egész jövőképét kérdőjelezné meg... hogy akkor most mire is ez a nagy áldozás?
Miért írom ezt? Minden AMD vásárló a megjelenés előtt álló játékoktól várja a megváltást és a manifesztálódó ígéreteket, miszerint azért jobbak ár/teljesítmény/fogyasztás mutatói a GeForce-nak, mert csak az aktuális/elavult játékok meghajtására koncentrál, de szépen lemaradnak, amint az új gémek jelennek meg. De ha a BF1 képtelen jobbat mutatni DX12-n, mint DX11-en, az Vulkan-os Doom ide vagy oda, le fogja húzni csúnyán a DX és a GCN imidzsét is egy DX11 only BF, vagy egy azonos/rosszabb tempójú DX12 mód.
[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
-
Jack@l
veterán
Most néztem Tomb Raidert a legújabb gen. sötétzöld kártyámon, még mindig kb -10% difi van dx11-hez képest, az X-edik patch után is.
BF1 bétával is ez volt a helyzet.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz Jack@l #25068 üzenetére
A Rise of the Tomb Raider nem is fog megjavulni. Ott a buffer view-ek direkten a root signature-be vannak töltve, ami egy nagyon nem ajánlott dolog DX12 alatt. A Frostbite-ot a Microsoft és nem az NV ajánlásai szerint írták.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
válasz Jack@l #25068 üzenetére
UI: a link lemaradt
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/Abu: Akkor majd az évek óta mantle-el mesteri szintre fejlődött Frostbite motor most megmutathatja.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
Várjuk szertettel a csodát a maradék 1 hónapban. Gáz lesz ha a végleges is ezt a szöveget írná ki, csak hogy megnyugodjon mindenki.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
HSM
félisten
válasz Jack@l #25075 üzenetére
Másfél hónap elég sok idő, ha csak annyi a dolgod, hogy rázd gatyába a DX12 kódot.... Nyilván csodát sem lehet ennyi idő alatt tenni. Majd meglátjuk. A sebesség amúgy DX11 alatt is pocsék volt, szval lesz mit csináljanak. Ez inkább állhat a DX12 optimalizálgatás útjába.... Ahogy annak idején is a DX11 gatyába rázás kellett a prioritás legyen, és csak utána rázták gatyába a Mantle-t.
[ Szerkesztve ]
-
Yany
addikt
válasz #85552128 #25074 üzenetére
Bizony, de itt a fő gond nem is azzal lesz, hogy várni kell és az addig bevétel-kiesés, hanem az előre befektetett bizalmat is elveszti az egész és azt újra felépíteni sok idő lesz. Egy Doom nem csinál nyarat és a BF1-re legalább annyi figyelő szempár tapad, ha nem sokkal több...
Építs kötélhidat - https://u3d.as/3078
-
nagyúr
Akkor ez továbbra sem világos. A CPU és a GPU oldalon mért FPS között csak akkor lehet különbség, ha nem ugyanannyi a CPU oldali presentek száma, mint a GPU oldaliaké. Ez csak akkor lehet, ha a GPU eldob frame-eket és / vagy olyanokat is megjelenít, amihez nem volt CPU-oldali present. Csinál ilyet a Vulkan renderer?
A frame-time-ok persze shiftelődhetnek ide-oda, és emiatt valóban jobb lenne a GPU-oldalt látni, de az átlagos FPS tekintetében nem szabadna eltérésnek lenni.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
A multi-engine felépítés miatt ilyeneket lehet csinálni az új API-kban. Nem minden játék csinál ilyet, de a Doom és az új Deus Ex igen. Régen nem lehetett, de ma eléggé jó ötlet mondjuk meghívni egy presentet a compute futószalagra, aminek nincsen a CPU oldalon látható nyoma. Ez elég nagy eltérést okozhat a CPU fps és a GPU fps között. A Doom az kijátszható azokkal a beállításokkal, amire nincs aszonkron compute. A Deus Ex nem játszható ki, de arra szerencsére van beépített mérő.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
OK, tehát akkor régen nem volt 1-2% különbség sem a CPU és a GPU present között. Miért jó extra presenteket csinálni compute futószalagból - ha a scene nem változik alatta, akkor miben lesz más a kép?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
sulu1701
aktív tag
Sziasztok!
Érdeklődni szeretnék szerintetek amikor megjelenik A Vega várható,hogy az RX480 ára csökkeni fog? Azért kérdezném mert lehet lecserélném most a 970 et a "kevés" Vram miatt, és ha megjelenik a Vega akkor arra cserélem.
Köszi előre is.
-
őstag
válasz sulu1701 #25084 üzenetére
A Vega előre láthatólag 2017 első felében jön csak (és ez a legmegbízhatóbb jóslás), a 480-ak ára ha lassan is, de elindult lefelé.
Szóval cirka fél-háromnegyed évig kár várnod a cserével, amúgy sem hiszem, hogy a vega ára nagyban befolyásolná a 480-ét.Aminek kerekei, vagy mellei vannak, azzal előbb-utóbb gond lesz.
-
#35434496
törölt tag
Én a következő csúcs Radeont megveszem. Eldöntöttem és kész. Sapphire powa!
-
Abu85
HÁZIGAZDA
Régen nem. Nyilván single-engine volt az API, nem lehetett más a CPU és a GPU fps.
Az aszinkron compute egyik egzotikus felhasználási módja a késleltetés csökkentése. Elsődlegesen a konzolokon használják ezt a lehetőséget, de a Doom és az új Deus Ex áthozta PC-re is. Valamivel kisebb lesz az egész rendszer input lagja ilyen formában, ezért szerencsés ezt alkalmazni.(#25082) lee56: Akármilyen külső program jön, semmi sem fog tudni GPU fps-t mérni. Erre csak az alkalmazás képes, ha a fejlesztő beépített egy ilyen mérőt a programba. Ez ma szerencsére jellemzően megtörténik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
"Régen nem. Nyilván single-engine volt az API, nem lehetett más a CPU és a GPU fps."
Az esetleg nem-e lehet netán, hogy fogja a doom a cpu időt, fogja a gpu időt ami egy frame kiszámításához kell és azt kiirja, mint "cpu fps" meg "gpu fps".
Csak az egyszerűség kedvéért, mielőtt multi engine és hasonló mesékbe kezdenénk?
Meg aztán felettébb okos döntés lenne fullra járatni a cpu-t, miközben a gpu ugyse tud több fps-t megjeleníteni. Memória és latency overheadről már nem is teszek említést.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz Petykemano #25091 üzenetére
Nem létezhet ilyen eszköz. Az új API-k felépítése miatt a valós fps 3rd party szoftverekkel kimérhetetlen. Ezért látsz a legtöbb DX12-es alkalmazásban beépített tesztprogramot. Egyedül maga az alkalmazás képes kimérni a valós GPU fps-t az új API-kkal.
(#25092) gbors: A CPU-GPU sync pointokkal lehet így trükközni. A felhasználás módjától függ, hogy miképpen, de az új API-kkal az alkalmazásnak nagy a kontrollja a hardver fölött, így rengeteg apró trükk vethető be, ami a régi API-k alatt lehetetlen. A fejlesztők oldaláról ez hasznos, és az lesz az utolsó negatívum, amit mérlegelnek, hogy 3rd party programmal nem lesz mérhető az fps.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #25093 üzenetére
A Doomban a programba épített statisztikában csak GPU fps-t ír ki. Valószínűleg képes lenne egyébként CPU fps-t is kiírni, csak a fejlesztők nem tartották fontosnak a kijelzését, mivel sokat trükköznek.
A kérdésedből egyébként rosszul értelmezed már magát a fogalmakat is. A CPU fps az a presentek között eltelt idő, míg a GPU fps a bemeneti adatok megérkezésétől a kimeneti kép elkészültéig eltelt idő. Ilyet régebben is csak maga a motor tudott mérni, mert egy 3rd party program nem kapott hozzáférést az alkalmazáshoz és az alkalmazás által lefoglalt erőforráshoz, amit a driver vezérelt.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yany
addikt
Abu, ignorálod gbors hozzászólását, pedig jogosnak tűnik a kérdése. Új állapotok kiszámításához józan paraszti ésszel kell a cpu. Mitől lesz újabb képkockánk (csökkentett input laggal), ha cpu-t nem használsz? Mi lesz a következő képkockán?
Építs kötélhidat - https://u3d.as/3078
-
Jack@l
veterán
Akkor lehet kevertem a másik techdemóval.
CPU fps-nél másra gondoltam, arra az fps számra amit maga a proci ki tudna számolni, ha nem kellene várnia a gpu-ra plusszban. 20 éve mérhető ez így ebben a formában, persze csak a motoron belül.
Amit te mondassz az a latency vagy response time, fura hogy mostanában ezt nyomod orrba szájba a vr kapcsán, de nem tudod mi az.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
A következő képkockára egy másik present vonatkozik, ami a grafikai parancslistába kerül.
Az a trükk, hogy úgy kezdjék meg a következő képkocka számítását, hogy az előzőt még nem fejezték be. A legelső képkocka mindenképpen hosszú lesz, de minden azutáni már rövidebb, és ezzel csökken a késleltetés. Az egyetlen hátrány, hogy ezzel mutatsz egy fityiszt a 3rd party mérőprogramoknak, mert nem érzékelik a presenteket a compute parancslistákon.
A Deus Ex hasonlóan trükkös. Ott az történik DX12-ben, hogy a haj szimulációja hamarabb kezdődik, meg mint maga a képszámítás, illetve ennél a játéknál már aszinkron DMA is van, ami még jobban bonyolítja a dolgokat.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #25097 üzenetére
A latency azért más fogalom, mert lehet eltérő a flip-queue méret, és akkor máris jelentősen módosult a késleltetés annak ellenére, hogy az fps minden paraméterrel ugyanaz. Ezért nem szabad a késleltetést belekeverni a CPU fps-be és a GPU fps-be. A VR esetében azért egyszerű a történet, mert a flip-queue méret mindig 1, illetve a pufferelés is közvetlen, front bufferes megoldás. Egy nem VR játékban azért számos lehetőség van még ezeken kívül.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Tehát akkor összefoglalva: azáltal csökken a késleltetés, hogy a képkocka számításának megkezdése a GPU-n azelőtt történik, hogy a CPU elkészült volna. Ez mondjuk vet fel problémákat, de ezen lépjünk túl, el tudom képzelni, hogy egy 60 FPS-sel futó hajszimulációban nincs jelentőségük. Az is világos, hogy a mindenféle varázslások eredményeképpen a GPU-ra jutó számítási feladat rövidebb lesz.
Ellenben:
- Ha a GPU frametime rövidebb, mint a CPU frametime, akkor vagy CPU-limit van, vagy tudna gyorsulni a GPU is
- A GPU nem jelenít meg több frame-et, mint amit a CPU kiad, csak másképp lesznek időzítveUgye?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- GARANCIÁLIS! MSI SUPRIM RTX 3080 Ti 12GB GDDR6X Videokártya! BeszámítOK
- nVidia GeForce RTX 3060 TI AMP White Edition Videókártya
- PowerColor RX 6800 XT Red Dragon 16GB GDDR6 256bit - Számla + Garancia, Ár alatt! BeszámítOK!
- BESZÁMÍTÁS! Gigabyte AORUS MASTER RX 6800XT 16GB GDDR6 videokártya garanciával hibátlan működéssel
- BESZÁMÍTÁS! SAPPHIRE RX 460 2GB GDDR5 videokártya garanciával hibátlan működéssel