Keresés

Új hozzászólás Aktív témák

  • janos666

    nagyúr

    válasz deadwing #11495 üzenetére

    A jövő az AMD-nél tegnap, a mi valóságunkban viszont csak holnap kezdődik. A kettő közt érzésre még nagyobb a különbség, ha hirtelen "józanodsz ki" a mában. ;) ;] :P

  • janos666

    nagyúr

    Frissítettem a driver-t 15.10 beta-ra (15.7.1 WHQL-ről) és frissült vele a RaptR is. Így most működik a VCE, még 1080p60-ban is vesz fel. Még szebb is a kép, mint a Sandy féle QuickSync-el (azonos bitráta mellett), viszont néha "hullámzik" kicsit a sebesség (mint mikor régen megnyúlt a VHS szalag), vagy akár meg is akad egy-egy pillanatra. Illetve a RaptR nem tud olyat (vagy nagyon el van rejtve az opció), mint az AfterBurner, hogy a felvételhez szinkronizálja az fps-t, így hiba futott a játék >60fps-el, a videón úgy néz ki, mint a monitoron nézne Vsync nélkül, minusz a tearing (az nincs, de a folyamatosság sincs meg, hogy minden képkocka pont 16.66ms-el követi az előzőt a 60fps videóban, hanem random ki van választva 60 a "sok"-ból).
    Szóval még mindig nem tökéletes nálam, inkább csak súrolja a használhatóság határát (talán kisebb bitrátán vagy alacsonyabb minőség beállításon egyenletes lenne). De legalább már csinál valamit ahelyett, hogy semmi nem történik, vagy legfeljebb kifagyasztja a programot.

  • janos666

    nagyúr

    válasz Abu85 #11285 üzenetére

    Ez nekem főleg elsőre nem volt egyértelmű (mikor szembejött, mint egy gőzmozdony százzal a tizedik emeleten), de még ma sem teljesen.
    De ha így van, ahogy írod, akkor OK. :R

    Most, hogy beszéltünk róla, feltelepítettem úgy, hogy a "Gaming Evolved App"-ot gépeltem a google-be, amiből az első találat nem az amd.com-ra, hanem a raptr.com-ra vezetett, ahol láttam ugyan a Gaming Evolved logót, de egy raptr_installer.exe-t sikerült letölteni, bár amint végzett a telepítő, már egy Gaming Evolved nevű ablak ugrott fel. :))

    Most amúgy majdnem teljesen korrekt, mert ahelyett, hogy elbújt volna a háttérbe, előtérben szól egy felugró ablakon, hogy be van kapcsolva a videórögzítési funkció.
    (Korrektnek azt nevezném, ha egy kérdés ugrott volna fel, hogy "Engedélyezi a videórögzítő funkciót?", alatta tömören kifejtve, hogy ezt erősen javasolják, mert több funkció igényli, de azért fogjam fel a dolgot, hogy nem véletlenül vagyok megkérdezve.)

    Aztán kiszúrta magának a DA:Inquisiton-t, aminek vakuszerűen villogtatta a poszterét pár másodpercig, most pedig azt mondja pakoljam fölfelé Ultra-ra, ami High-on van (de nem jó, mert akkor nem lesz 60fps egy szál 290X-el, nekem pedig nincs most több) és adjak neki 0x helyett 4x MSAA-t (ami szerintem ebben a játékban abszolút semmit nem csinál azon kívül, hogy masszívan lassít --- legalább is én ránézésre durván ugyan annyi aliasing-et vélek látni, csak jelentősen alacsonyabb fps mutatóval a sarokban), majd a tegyem a tetejébe még a post-process AA-t is (miért is kéne, ha jól működne a 4x MSAA? Vagy minek akkor az MSAA, ha az nem működik jól...?), mert az legalább tényleg csinál is valamit (valóban, bár én nem szeretem, inkább nézem a recéket az álomszerű homály helyett). Abba érdekes mód nem szól bele, hogy DirectX vagy Mantle legyen beállítva.

  • janos666

    nagyúr

    válasz letepem #11282 üzenetére

    Akkor ezek szerint változtak a lehetőségek, mióta nézegettem. :R
    Mikor legutóbb néztem ezt a menüt, akkor még 30 fps volt a max. Ekkor kerestem az amd.com-on valami spcefikáció összefoglalót, vagy komplett doksi félét, és akkor láttam is a hivatalos oldalon, hogy 1080p30-ig van támogatás. Igaz, olvastam azt is máshol, hogy nemhivatalosan megy az 1080p60, de csak erősen tesztverziós programmal, ami csak régi driver-el működik, stb...

    Tudom, hogy az nVidia driver csomag is telepít automatikus módban bloatware-t (3DVision és hasonlók), de attól még hogy két konkurens gyártó egyformán tesz "rosszat", az nem menti fel automatikusan mindkettőt, és szerintem az nV nem csomagolt még oda third-party cuccot, csak sajátot (de javítsatok ki, mostanában kevés nVidia kártyával volt dolgom, nem láttam rendszeresen a drivertelepítőiket), bár lehet, hogy megvette már az AMD a RaptR-t? (Passz, de szerintem előbb kezdték csomagolni, mint hogy átkeresztelték Gaming Evolved-ra és úgy rémlik régen teljesen külsős cucc volt, ha ma már nem.)

  • janos666

    nagyúr

    válasz Abu85 #11278 üzenetére

    Lehet, hogy csak a felhasználók egy viszonylag szűk csoportjánál jelentkezik ez a driver problémába, de nem én vagyok az egyetlen, akinél nem működik a VCE: Guru3D-s fórumtopic a témában (én is írtam hozzá)

    "De hardveresen Full HD 30 fps-t mindegyik tud."
    Sehol sem mondtam, hogy nem tudja papíron az 1080p30-at, én az 1080p60-at hiányolom, hogy hivatalosan nem tudja a VCE (az QS viszont nevetve).

  • janos666

    nagyúr

    válasz letepem #11276 üzenetére

    Illik, de épp ez a probléma, hogy szeretném, ha megbízhatnék annyira az AMD-ben, hogy amit tőlük töltök le driver csomag címén, azt next-next-finish is nyugodtan telepíthetem.

    Később egyszer tudatosan is hagytam települni a RaptR-t és nézegettem. Videót abszolút nem sikerült vele rögzítenem, az aktuális játékomhoz javasolt beállításaival pedig nem értettem egyet.

    Ez utóbbi az nVidia-nál is inkább a geforce.com oldalon található tweak guide-ok erőssége, ahol nem csak javaslatot próbálnak tenni pár VGA kategóriára, hanem igyekeznek szemléltetni és alapszinten megmagyarázni, hogy melyik játékmenüs opció milyen fokozaton mit csinál azon túl, hogy várhatóan mennyire erőforrásigényes, hogy ez alapján egyszerűbben és gyorsabban összerakhass a saját gépednek és ízlésednek megfelelő beállítást (megspórolva jó pár iterációs kört), akár Radeon kártyához is (ez utóbbi esetben visszafejteni is alkalmas, hogy melyik funkció lehet csak Maxwell-re optimalizált ; bár pl. a HBAO+ is kiválóan fut Hawaii-on is).

  • janos666

    nagyúr

    válasz letepem #11274 üzenetére

    Na, igen... Egyszer vakon (next-next-finish) tettem fel az AMD driver csomagot és kicsit később láttam, hogy van a gépemen egy szoftver, ami:
    - automatikusan indul a Windows-al a háttérben
    - képes rögzíteni a képernyő tartalmát
    - képes akár valós időben továbbítani ezt a videót szerte a nagyvilágba
    Nem vagyok az a típus, akinek minden árnyék láttán nedves lesz az alufóliával bélelt alsóneműje, de ez már nekem is több, mint SOKK volt.

    Azt eddig is gondoltam, hogy gyakorlatilag ennek is elhanyagolható a CPU terhelése (egy valamire való hardware-es megoldásnak az, mert a CPU csak másolgat és ütemezget, főleg ha eleve nem is akarod valós időben körbevágni/átméretezni a képkockákat...).
    De RaptR-el biztos, hogy maximum 30fps-el lőtted a "kalózvideót", mert a 60fps csak nem-hivatalos opensource cuccal érhető el (ha egyáltalán tényleg stabil lesz az a 60, még nem próbáltam -- és most sem fogom, mert nálam teljesen halott az egész kütyü Win10-en).

    ---------------------------

    Mondok egy még jobbat: DirectX Reference Rasterizer
    Ezzel is minden egy helyben maradhat egy-egy tesztkonfigban, miközben összeveted a gyártók által is befolyásolható képkockákat a referenciával.

    De lehet, hogy csak a driver hiányzik ahhoz is, hogy működjön a BattleField DX12 módja. (Már benne van egy erősen félkész előzetes, csak szétesik a kép és lefagy a játék.)

  • janos666

    nagyúr

    válasz TTomax #11271 üzenetére

    Ha VGA-kat szeretnél összevetni, akkor miért félsz Intel CPU-ra korlátozni a tesztet? De elvben nem is kell, mert az AMD APU-kban is benne van az AMD hardware-es video encoder-e, nem csak a dGPU-kban.
    Szóval akár futhatsz is egy ellenőrzőkört: mindkét VGA mindkét CPU/APU-val...

    Nem tudom pontosan mennyi CPU erőforrást köt le a QuickSync, de szerintem elhanyagolható, főleg amíg bőven tartani tudjuk a tervezett fps-t (ha pl. 60-ra fixálod, akkor nem mindegy, hogy 130-ról, vagy 120-ról korlátozol 60-ra?).

    HDMI 2.0? Miért kell ennyire erőltetni a 4k-t, mikor belátható, hogy még "kiforratlan" (legalább is ilyen szempontból)? Olyanra vadászol, ami 2k-n még nem, csak 4k-n kezd látszódni?

  • janos666

    nagyúr

    válasz TTomax #11269 üzenetére

    A ShadowPlay az nVidia GPU-kba integrált H264/AVC encoder-t használja.

    Az iGPU-s Intel CPU-kban is van ilyen QuickSync néven.
    A Sandy-é ilyeneket tud rögzíteni, a Haswell-é elvileg jobbat: BF_QS_test01

    Egyébként az AMD-nek is van ilyenje, csak "természetesen" megkérdőjelezhetőek a specifikációi is (1080p-ben nem támogat hivatalosan 30fps-től többet), illetve "nyilván" nincs rá megfelelő driver (15.7 óta halott) és "főleg" szoftver támogatás (tesztverziós opensource cuccok és az idióta RaptR), ezért sokak számára nem is létezik.

    Mindháromnál kb. annyi a CPU terhelés, hogy vissza kell másolni a GPU memóriából a CPU memóriába a képkockákat, megetetni őket az encoder-es, aztán kiírni file-ba a végeredményt (csak az Intelt ismerem jobban, de ez tudtommal RGB-t eszik, a chroma subsample-t is a hardware-es egység csinálja, még talán át is tudja méretezni a képkockákat).

    Látatlanban jobban bíznék ezekben, mint egy külső kamerában. Főleg, hogy két VGA összevetésére ugyan azt a QuickSync-es Intel CPU-t használjuk (akkor ha el is ront valamit, egyformán teszi mindkét VGA-nál).
    Egyrészt, mert a nyersanyagot kapja meg a framebufferből, másrészt, mert egy ilyen H264/AVC eszköznél szigorúan veszik azt, hogy tartsa magát a szabványhoz, egyébként nem nyomhatja rá a gyártó a logót (lehet hozzá adni opcionális szűrőket, de maga a decode/encode az szigorú szabvány). És egyébként is nagyon könnyű ellenőrizni, ha pl. 3D gyorsított képszerkesztő programból rögzítesz vele videóként tesztábrákat (pl. szürke és színes gradienseket, amiken látszik, ha levág a dinamikatartományból, belenyúl a gammába, eltorzítja a színeket, stb, valamint ponthálókat, amiken látszik a felbontástorzítás, élesítés/homályosítás, stb).

  • janos666

    nagyúr

    válasz janos666 #11267 üzenetére

    Na ma is tanultam valami.
    Egyrészt simán megette a Youtube feltöltőkéje az 50Mbps videót PCM hanggal is, pedig azt hittem van valami ésszerű bitráta limit és csak AAC+ lehet a hangkodek. Na mindegy...
    Másrészt szarrá tömörítette és még akadozik is kicsit a böngészőből visszanézve.

    Érdekes, mert láttam már jó minőségű videókat Youtube-on, de ezek szerint azok valamilyen szponzorált/szerződéses felhasználók/partnerek videó lehettek, amiket másképp kezel a rendszer, mint mikor egy mezei paraszt tölt fel. :U

  • janos666

    nagyúr

    válasz Loha #11266 üzenetére

    Beraktam letölteni a Battlfield3front3 Star Wars Skin Pack DLC-t (;]:D), mindjárt kipróbálom, hogy milyen minőségű Youtube végeredményt tudok belőle produkálni.
    Megj.: Csak most láttam, hogy ingyenes a Béta, azt hittem előrendelői extra.

  • janos666

    nagyúr

    válasz deadwing #11264 üzenetére

    Abszolút nem ilyen egyszerű, minden tekintetben manuálisan szabályozható kamera kell, ideális esetben olyan, ami RAW módban is tud rögzíteni, hogy biztos ne legyen a dologban véletlenszerű automata szabályzás. De ez esetben is hatalmas lehet a minőségvesztés és benne van a monitor és kamera tökéletlensége (akármilyen jó, profi eszközök, nincs olyan, hogy tökéletes monitor vagy tökéletes kamera).

    Sokkal egyszerűbb és jobb, ha mindkét kártyához vagy ugyan azt a HDMI-s DVR-t használja, vagy még biztosabb, ha egy olyan Intel CPU mellé teszi a kártyákat, aminek van hardware-es QuickSync encoder-e (ez nyersen kapja meg a képet a DirectX felületből, és szerintem megbízhatóbb, mint egy "akármilyen HDMI-s fekete doboz", még ha egyébként profi is lenne az a dobozka).

    Az első rögzítést "placebó" minőségbeállításokkal érdemes végezni, magas bitrátán megvágni a videókat (összedobni a jobb/bal képet), aztán óvatos beállításokkal újrakódolni egy youtube-on is emészthető méretre (de ez esetben már egy óvatosan beállított, szoftveres encoder-el, több lépésben, szép lassan).

  • janos666

    nagyúr

    válasz letepem #11262 üzenetére

    Vagy rendelhet a teleshop-ból akciós bevezetőáron egy ... nem egy áráért rögtön két darab SuperHD+ kijelzőfóliát, amivel szeretteit is megajándékozhatja. ;] :P :O

  • janos666

    nagyúr

    válasz Assdak #11244 üzenetére

    Nem feltétlenül csatolófüggő. Bizonyos driver-ek ez alapján hozzák meg a döntést "első fokon" (az AMD-nél régóta és még jelenleg is, nV-nél ez időnként változott), de lehet még "fellebbezés", ahol az EDID alapján próbálják meg eldönteni, hogy HDTV vagy PC-monitorként kezeljék-e a megjelenítőt.
    Egy HDTV-ről feltételezik, hogy jobb lesz neki az YCC, vagy a Limited Range RGB, mint a Full Range RGB (YCC-ből csak egy van, ami mondhatni Limited). Az AMD rég és még mindig az YCC-re esküszik, az nVidia-nál ez is változott már néha.
    Ez az EDID-es (sőt, HDMI-nél van még egy "hardmadfok": az ITC) detektálás viszont tévedhet mindkét irányba, főleg hogy használnak néha tudatosan is HDTV chipseteket monitorokba (még akkor is, ha nem kimondottan hybrid-TV/monitor a termék [nincs DTV tunere], de ugye még olyan is van...) és néhány TV kínál korrekt PC módot, ahol teljes értékű PC monitorként képes viselkedni (teljes RGB 4:4:4, fixen letiltva minden képmanipuláló opció, stb), és ezt akár nagy ritkán még a VGA-val is képes elhitetni (ez utóbbinál jön képbe az ITC, de talán életemben egyszer láttam ezt így működni, hogy eddig eljutottak).

  • janos666

    nagyúr

    válasz Loha #11240 üzenetére

    Az ilyen jobb-bal oldal relatív, és sokak által kiszúrható mértékű eltéréseket azért lehetne minimalizálni, ha érdekelné a készítőt és tudná, hogy miként érhet célt.

    Csak ritkán, és sohasem "publikáltam" belőlük, de szórakoztam már játékvideók rögzítésével. QuickSync-nél 1080p60-ban 50Mbps-el szinte alig lehet már megmondani, hogy nem lossless (ha csak folyamatában nézed, és nem lassítva vizsgálgatod direkt hibákat keresve, akkor teljesen jó). Persze az sokszorosa annak, amit egy youtube-ra feltölt az ember, de ez kiváló arra, hogy valós időben is kinyerhető, később pedig rá lehet küldeni egy 2-3 lépcsős szoftveres tömörítést, hogy emészthető legyen a mérete is, vállalható minőséggel (sokkal jobb minőség/méret arányban és abszolút értelemben is jobb minőséggel, mint ha a játékból valós időben felvett anyagot kódolták volna elsőre is ezen a végleges bitrátán).
    Ez persze sokkal több idő és szükség van némi extra tárhelyre (ami elég gyors is, egy szál töredezett HDD beletörhet), de megoldható otthoni körülmények közt is.

    Egy ilyen videónak szerintem sem célja az ilyesmi (minőség összevetéhetőség), de szerintem elkerülhetetlen, hogy utána mégis legyen, aki firtatja, így érdemes lehet megpróbálni. Nem lepett meg, hogy volt, aki szóvá tette. Én láttam, de eszembe sem jutott, mert tudtam, hogy ezt tömörítették, vágták, újratömörítették, és mindezt úgy, hogy nem minőség összevetés volt a cél, így nyugodtan lehettek "hanyagok" e tekintetben.

    Egyébként nem zárom ki teljesen a lehetőségét, hogy tényleg csúnyább Geforce-okon a játék. Sőt, BETA időszakban igazából még szavunk sem lehet emiatt. De ez szerintem itt konkrétan a tömörítés.

    Láttam BF4 screenshot-okat is. Azokon "csak" a LOD skálázás tűnt másnak. Nem a teljes kép volt életlenebb vagy kevéssé részletgazdag, hanem pár távoli objektum hamarabb tűnt el, de a közeli tárgyak ugyan olyan élesek voltak.

    Lehet, hogy tényleg vennem kéne egy használt GTX 970-et pusztán tesztelési célból, így hogy elkelt a "tartalék" 290-em.

  • janos666

    nagyúr

    válasz deadwing #11230 üzenetére

    Célszerű lett volna egyrészt ugyan azzal a hardware encoder-el rögzíteni, másrészt első körben mindkettőnél maximális bitrátával (amennyit csak elbír az encoder és a háttértár), amit a side-by-side clip vágása után újratömöríthetett volna a végleges, sokkal alacsonyabb bitrátára több lépcsős software encoder-el (pl. x264). Akkor összességében is szebb lenne mindkettő és csak akkor látnánk különbséget, ha tényleg ott volt már az eredeti monitoron is (vagyis tényleg "csal", bár BETA időszakban ez még kicsit erős kijelentés, lehet véletlen bug is).

  • janos666

    nagyúr

    (#11222) Televan + (#11223) Kolbi_30 v

    DX11 alatt nem eleve csak egy durva becslés a GPU RAM használat? :U
    Amúgy pedig szerintem azért van a RAM, hogy használják, nem azért hogy üres legyen (tehát akár cache-nek teletömjék, mintsem folyton flush-elgessék).

    (#11223) Kolbi_30 v

    Én úgy látom, hogy végig sokkal élesebb és részletgazdagabb az egész kép a Radeon oldalán, de gyanítom, hogy ezt inkább a videótömörítés okozza. Ilyen videókat gyakorlatilag csak hardware encoder-el lehet összehozni, így ha nem az Intel QuickSync volt a közös nevező, hanem mindkét esetben a VGA saját H264/AVC encoder-ét használták (esetleg nem is egyforma beállításokkal, hanem mindkettőnél egy oda vonatkozó default értékkel, amit az adott program felkínált), akkor ez okozza az eltérést.
    Esetleg (de nem hiszem) valami korai driver bug lehet (nem szándékosan, mert ennyi butítást nem engednének meg maguknak és eleve nem úgy néz ki, mint a célirányos butítás, inkább úgy, mint az alacsonyabb videó bitráta).

  • janos666

    nagyúr

    válasz Crytek #11198 üzenetére

    Én szinte megszállottan szoktam "optimalizálni" a játékbeállításaimat (addig nem tudok nyugodtan játszani, míg nem elégedtem meg vele) úgy, hogy a játékidő >95%-ában meglegyen Vsync-el a stabil 60 fps (csak nagyon elvétve és/vagy ismerten problémás cutscene jellegű jeleneteknél zuhanjon be [jobb esetben] 45-re vagy 30-ra), azon belül pedig a lehető legszebben nézzen ki. De benne van az is, hogy egy TitanX SLI-vel is kikapcsolnám az olyan post-process szűrőket, amik leginkább csak elmaszatolnak és/vagy elzajosítanak mindent, mert tudom, hogy nem minden azért van a menüben, mert attól egyenes úton és mindig szebb a kép: nem szebb, csak más, ami szubjektív, hogy valakinek épp tetszik-e valamelyik, de biztos nem úgy gondolták a programozók, és szerintem "ízléses" embernek amúgy sem kéne az egymásnak ellentmondó dolgokat egyszerre bekapcsolni (pl. józan ésszel a blurring és sharpening szűrőknek egyszerre semmi értelme, még ha az egyiket kívánja is valaki), csak mert ott vannak a menüben, hogy válogathass közülük ízlésedre nulla és egy-két valami közt (de nem automatikusan mindet). De ide sorolható még az esetek túlnyomó többségében bármilyen post-process anti-aliasing is, amit nagyon ritkán használok (csak ha alaphangon borzalom aliasing-hegy a kép, és viszonylag jobbféle maszatoló-AA, pl. SMAA szerűség van a játékban, de az ML- és FXAA hagyjon békén).

  • janos666

    nagyúr

    válasz #85552128 #11074 üzenetére

    "a véglegesben"?
    Már négy darab WHQL stable (15.7 | 15.7.1 | 15.7.1-hotfix | 15.7.1-hotfix2 \\\ először azt hittem, hogy az épp csak megjelent Win10 hülyéskedik, hogy minden nap újra letölti ugyan azt driver-t, de aztán az AMD honlapon is leírták utólag, hogy hotfixek jöttek) és két ezektől újabb béta (15.9 | 15.9.1) is kijött a Win10 hivatalos startja óta (lassan itt a TH2, kvázi 10.1 vagy 10-SP1, ahogy tetszik).

    A végleges SW játékra gondolsz? Miért lenne mérföldkő egy új játék, ha vannak régiek is, amiket érint?

    Az AMD sokszor túlzottan szó szerint is a jövőben jár, a jelen pedig "már" nem számít. Mire beérik az idő a korábban a jövő-jelenre tervezett feature-re, addigra rég megfeledkeznek róla és helyette a jelen-jövőről beszélnek.
    Talán nincs ez máshogy a Mantle-el sem, és ahogy elnézem már a TrueAudio is történelem. -> Ez működik még vajon Win10 alatt ... abban az egyetlen játékban, amiben elérhető egyetlen effect erejéig? :))
    Pedig nálam komolyan szempont volt vásárláskor. Nagyon hiányolom a normális játékhangzást a Vista megjelenése és EAX eltűnése óta és be tudtak etetni, hogy a PS4-ben is nagyon hasonló DSP van, így tényleg használva is lesz PC-n...

    Észrevettem, javarészt DX11-el játszottam végig (bár a DLC-k nagyja még hátra van). De szerintem Win10 alatt legalább olyan gyors DX11-el, mint Win8-al volt a Mantle-el, szóval ha nekilátok szórakozni a DLL file-okkal, sokat akkor sem nyerek.
    Mondjuk, ha nem lenne felrántva az i5-2500K 3300-ról 4700MHz-re (vagy egy AMD APU-m lenne :P) akkor lehet, hogy megérné (sőt, akár kimondottan hiányozna tuningolatlan APU-val a 290X mellett).

  • janos666

    nagyúr

    válasz #85552128 #11071 üzenetére

    Olvastam már ezt többször is többektől, de nem értem mi lehetne vele a gond, ha a GCN 1.2 már úgymond hardware-esen is visszafelé kompatibilis, szóval a legrosszabb, ami történhet, hogy nincsenek kihasználva olyan extra feature-ök, amiket a GCN 1.1 még nem ismert, de ez ugyan, illetve fokozottan igaz a DX11.x-re is.

    Ami szerintem inkább gond, az a Mantle OS kompatibilitása. Windows 10 alatt a 15.9.1 beta driver-el is ugyan úgy nincs tripple-buffering a Frostbite-os játékoknál Mantle-el, ahogy már 15.7.x-hotfix-Vy (;];];]) verziókkal sem volt.

    Ha ebben a bétában lesz DX12 támogatás, azt vajon visszaportolják a többi Frotbite 3-as játékba is, amikben volt Mantle? :U

Új hozzászólás Aktív témák