Új hozzászólás Aktív témák
-
janos666
nagyúr
Mit vártál? Hogy ha DX11-ben 10%-al gyorsabb a hasonlóan pozicionált Geforce, akkor DX12-ben nem az lesz, hogy a Radeon 10%-ot, a Geforce 5%-ot gyorsul, hanem a Geforce egyenesen lassul (ami egyértelműen programozói hiba lenne, ha ugyan azt a képminőséget rosszabb teljesítmény mellett érik el adott hardware-en), vagy hogy a Radeon 25%-ot is gyorsul olyan szituációkban, ahol eddig nem a CPU limitált, hanem a GPU? (A példáknál ne a konkrét százalékokon ragadjunk le, hanem az arányokon, de azokat is próbáltam -szerintem- reálisra venni.)
-
DoxaM
aktív tag
hát ez elég gyászos....dx12 ugyanúgy "sehol" sincs a nagy dx12 hype-hoz képest, ami volt, h majd a radeon megmutassa! tényleg vicc a köbön, pedig bíztam benne
...legalábbis az fury esetében....jóval később jött ki, szénné hypeolták és ENNYI??? nem mondom azt, h jó lenne a ha megszűnnének..bár túl sok "ártoríztó" hatásuk szerintem így sincs már (talán egy pici), de az nv annyiért adja kis túlzással a kártyáit, amennyiért akarja (hisz eleve ő jön ki hamarabb a modellekkel) meg ez, hogy előremutató, sehol sem előremutatók ezek.
nem is értem am az "amd" taktikáját...."előremutató" kártya és 4k-ban játszhatatlan a játék vele, hol előremutató az? olyan technológiát (effektek) meg nem tud, amitől leesik az állad és a konkurencia nem tudja....most ez kicsit idegesít am, mármint ez a hype és ami lett végül, nem jó hozzáállás szvsz ez a mókolás (bár ezt jól tükrözi a piaci részesedésük is)....ami kevésbé idegesít, h a 7970 érdekesen jól szerepelt
mire a 144es 4k-s monitorok 50ezerért pörögnek majd, addigra már ezeknek a dolgoknak híre hamva se lesz (reméljük az "amd"nek még igen
) ....szal, jobban örülnék, hogy ha az "amd"sek a jelenre koncentrálnának kevesebb hype-al és jó driverekkel, akkor szerintem lenne esélyük.....de így ez most fekete pont erősen újra (átnevezgetések után) és a lejtmenetet látom csak
-
KKaresz45
senior tag
válasz
Parano1d #152 üzenetére
Szerintem nem játéktípus függő hogy milyen fps-sel játszható egy játék. Minden játszható alacsonyabb fps-sel is, de ha megnézel egy játékot 30 fps-sel meg 60-nal akkor látható lesz a különbség, és ha kiadsz egy videokártyára 100+ ezret meg veszel egy 4K kijelzőt, akkor valószínűleg nem az akadozást akarod nézni. Millió szemléltetés van erről a neten, csak egy példa:
Ennek ellenére én nem gondolom hogy minimum 60 fps kell a tökéletes játékhoz, szerintem jót lehet játszani az alatt is (például ha a minimum 40, atlag 45-50 megvan). Főleg hogy már vannak olyan technológiák amikkel javítani lehet az érzésen (g-sync, freesync). De azért a minimum ne essen már be 30 alá, az már olyan zavaró fps drop, hogy a szemed is észreveszi. Igazad van abban hogy a Metro meg a GTA V extrém példák voltak, de a tesztben szereplő összes játéknál 30 alatt volt a minimum 4K-ban, ezért írtam azt, hogy én biztosan nem használnám így, és másnak sem ajánlanám.
Az is igaz hogy a tesztben mindent maxra állítottak, nem tudom hogy mennyit lehet nyerni a beállítások variálásával. Nyilván nehéz olyan tesztet csinálni ami mindenkinek jó. Itt igazából a Full HD meg a 4K közötti felbontások lennének az érdekesek, és gondolom hogy az volt az alapötlet hogy lemérjük mind a kettőt és feltételezzük hogy a köztes felbontásokban arányosan skálázódik.
-
janos666
nagyúr
válasz
Parano1d #156 üzenetére
Ez volt a legelső felvetésem, hogy ha minden más állandó, csak a felbontást növeled, akkor megvalósul az "optikai SSAA", csak aztén elkanyarodtunk.
A "HD élmény" egyik része házimozi és TV-film/sorozat esetén is (akár TV-vel, akár projektorral), hogy minél jobban ki legyen töltve a perifériás látómeződ is. Ez ugyan úgy skálázódik tovább HD-ről UHD-re, ahogy annak idején SD-ről HD-re. Tudatos, megfontolt, tervezett elhatározás az, hogy egyre jobban ki legyen töltve a periféria, ezzel is javítva az összehatást. A nagyobb felbontás lehetővé teszi, hogy közelebb ülj és/vagy növeld a kép méretét, ezzel jobban kitöltsd a látómeződ, jobban a vetített világ részének érezhesd magad.
Erre egy másik példa az Eyefinity játékos felhasználásra, mikor csak azért tesztnek le egyesek még pluszban két ugyan olyan szélesvásznú monitort a mellé, amit ténylegesen néznek, hogy jobban kitöltse a látómezőjüket.
Bár személy szerint nekem nem tetszik ez a felállás, mert ilyen formában túl kompromisszumos a kávák miatt és abszolút nem költséghatékony amiatt, hogy gyakorlatilag háromszor annyit kell költened monitorra (de ha pl. IPS helyett TN panellel is beéred a két szélre, akkor is legalább kétszer annyi lesz a szumma) és durván háromszor annyit VGA-ra. De van olyan "hülye" (a lenti klasszifikálásod követve), akinek így is megéri.
Szerintem ettől jobb és olcsóbb közelebb ülni egy 4k-s kijelzőhöz 2k-s helyett.
De persze te tudod. Szerintem abszolút jogos az "optikai SSAA" jellegű 4k használat is, jobb mint a 4k->2k resample szoftveres SSAA. Ezt sohasem tagadtam. Ugyanakkor részben pazarlás, ha pl. MSAA-val egyszerre lehetne AA és még perifériakitöltés ("közelebb ülés") is.Lehet-e akkor érelme MSAA-nak 4k-ban?
Szerintem igen. Abszolút csak attól függ, hogy hogyan és mire használod a komplett rendszer. -
Parano1d
tag
válasz
janos666 #155 üzenetére
Most mi nonszensz azon amit írtam?
Közel=30/40/50cm, nem definiáltam, de nyilvánvaló mire gondoltam (perifériás látásból kiesik a képernyő nagy része...) és ezért nincs értelme."Ez pusztán attól függ, hogy milyen messziről nézed és mekkora a képernyő."
"pontosan ugyan annyi értelme lesz az élsimításnak 1k-n, 2k-n, 4k-n és 8k-n is"
Hogy a "képleteddel" válaszoljak, nagy átmérőjű megjelenítőhöz egyre közelebb kell ülni, hogy meglásd a különbséget. Szóval igencsak függ a felbontástól is, hogy van-e értelme az élsimításnak.(egyre kisseb az a tartomány ahol már látod a különbséget, és még látod az egész képernyőt) és még ebben a tartományban is kevésbé észrevehető a különbség.
De biztos mind1 a felbontás, ha te azt mondod. Én mentem aludni a részemről jó éjt.
-
janos666
nagyúr
válasz
Parano1d #154 üzenetére
"Lehet közelről nézni egy 65"-os monitort is, csak nincs sok értelme véleményem szerint."
Ha így definiálsz egy fix képátlót (és feltesszük, hogy állandó a képarány is), akkor pontosan attól függ az, hogy mi számít ideális, távoli, vagy közeli nézési távolságnak, hogy pixelszámban mekkora a felbontása. Minél több rajta a pixel, annál közelebbről kell nézned, hogy ilyen szempontból ideális legyen (hogy tényleg érzékeld is azt az információt, amit az adott felbontás hordoz, ne vesszen el belőle számottevő mennyiség), illetve ménél kevesebb a pixel, annál távolabbról (hogy ne kezd el magukat a pixeleket látni rácsháló szerűen és vesszen el túl sok minden a periféria legszélén vagy szó szerint a látómezőn kívül).
Ez szerintem egy nagyon egyértelmű képlet. Három változód van, amikből mind viszonylag szűk tartományban jelennek meg (néhány extrém esetet kivéve az átlaghoz képest durván 0.5x és 2.0x skálán: 1000 és 4000 oszlopnyi pixel, 24-65 colos képátló, 1-4m nézési táv... az alapeset szerintem 2k-s ~40" ~2m-ről, ami egy kis-közepes méretű lakás nappalijában egy TV egy játékkonzollal, kis-közepes pénztárcájú és hobby-játékos vásárlót feltételezve, akiknek nem kellenek nagy tepsik a falra, csak ami befér a régi szekrénysorba...).
Amit most ezen túl és eredetileg írsz, az "csak mert én épp úgy csinálnám hasra ütésből, gondolkodás nélkül, mert izé..." nonszensz. Azzal nem lehet vitatkozni.
-
Parano1d
tag
válasz
janos666 #153 üzenetére
Na látod ezért nem tudnak olyan videokártya tesztet csinálni, ami mindenki igényeit kielégíti.
Ha bármit megmagyaráz valaki, akkor mások megmagyarázzák a "bármi" ellentétét
A hozzászólás első felével kapcsolatban még annyit, hogy 4k-s megjelenítőnél kis méretben nem szükséges élsimítás, nagy méretben pedig úgysem közelről nézed alapesetet vettem számításba.
Lehet közelről nézni egy 65"-os monitort is, csak nincs sok értelme véleményem szerint.
(tudom vannak olyanok is, akiknek még telón is kevés a FHD, azok nyugodtan költsenek vagyonokat a számítógépükre is, engem nem fognak tudni meggyőzni, hogy van értelme) -
janos666
nagyúr
válasz
Parano1d #152 üzenetére
"Minek 4k-ban pl élsimítás? Teljessen ésszerűtlen dolog."
Ez pusztán attól függ, hogy milyen messziről nézed és mekkora a képernyő.
Ha X szélességű 2k-s képernyőtől Y lenne az ideális távolság (ahol épp se több, se kevesebb a látásod hatékony felbontóképessége), akkor ha X és Y körülbelül azonos marad, de 2k-ról 4k-ra lépsz, akkor lényegében "optikai SSAA lesz érvényben".
Ha X és Y viszonya átalakul úgy, hogy 4k-ra is az teljesül, mint az alapeset (tehát a felbontás növekedéssel arányosan közelebb ülsz és/vagy nagyobb képernyőd lesz), akkor pontosan ugyan annyi értelme lesz az élsimításnak 1k-n, 2k-n, 4k-n és 8k-n is (persze egy olyan tartományban, ami fizikailag és praktikusan lehetséges)."pl egy RTS-ben 30 fps még bőven játszható kategória."
Ezért szeretem én inkább, ha az "élvezhető" kifejezést használjuk. Van, aki bármilyen játékstílust képes élvezni 30fps-el, de van akit egy RTS-nél is idegesít, ha nincs >=45fps, de inkább fix 60.
De ez is függ a megjelenítési technológiától is:
- vannak kijelzők (pulzáló háttér-világítású LCD, PDP, pulzálóra belőtt OLED, stb), amik ideálisan fix 60fps-re, de rosszabbak 30-ra, mint egy klasszikus (folyamatosan világító háttér-fényű) 60Hz-es LCD
- vannak kijelzők, amik ideálisak 100-140 közti fps-re (folyamatos világítással, de sok valósi frissítéssel), de ugyan olyan rosszak 80-100 alatt (pl. ~60-al, vagy csak kicsit többel), mint a klasszikus 60Hz-es LCD-k (mert lényegében ilyenkor pont ugyan úgy működnek) -
Parano1d
tag
válasz
KKaresz45 #149 üzenetére
Ennyi rővel azt is kifogásolni lehetne, hogy 60+ fps-nek sincsen jelentősége. ha úgysem veszed észre a különbséget. aztán még játékstílus függő is a dolog, mert pl egy RTS-ben 30 fps még bőven játszható kategória.
Amúgy csak a gépgyilkosabb játékok nyúvasztják meg ezeket a kártyákat, a játékok 90%-a simán megy rajtuk akár 4k-ban is. A GTA V is, csak ésszerű grafikai beállításokat kell használni.
Minek 4k-ban pl élsimítás? Teljessen ésszerűtlen dolog.
Ezek alapján bármelyik tesztbe bele lehet kötni. Nem mintha nem fogadnám el az érveidet, de FHD felbontáshoz meg felesleges egy ilyen kategóriájú kari, egy R9 380/GTX960 bőven elég (még sok is) -
janos666
nagyúr
válasz
KKaresz45 #149 üzenetére
Részben egyetértek.
1: Mantle:
Szerintem sem elvetendő dolog bemutatni és valamilyen módon figyelembe venni a Mantle (és hasonló gyártóspecifikus dolgokat, pl. ide tartozhat még a CUDA/APEX/PhysX is) eredményeket, hisz a végfelhasználók számára is elérhető, így feltehetően ők is használni fogják otthon, ha jobb eredményt szül.
Egy átlagolásnál viszont nagyon kényes kérdéseket szül, hisz korlátozott az elterjedése. Valami módon meg kéne saccolni, hogy egy véletlenszerű felhasználó összesen hány órát fog DX11 és hányat Mantle támogatású játékokkal játszani és eszerint súlyozni a végeredményt.
Szélsőséges példaként, ha egy tesztben a Mantle 5x gyorsabb és csak 4db DX11-es játékot teszünk mellé, az nyilván rontja az átlag reprezentativitását még akkor is, ha valaki épp azzal az egy Mantle-ös játékkal is fog játszani X órát, de közben 5X-et is más játékokkal, ahol nincs is Mantle. De lehet, hogy 150 órát fog valaki játszani egy szál Mantle-ös játékkal és 50-et 6 másik DX11-essel. Nem egészen mindegy és ezt nagyon nehéz megsaccolni.
2: Beállítások
Ezzel is egyetértek, hogy végfelhasználóként számomra is abszolút irreleváns, hogy melyik kártya mennyivel gyorsabb olyan szituációkban, ahol egyik sem használható.
Erre egy szélsőséges elvi példában, ha egy FuryX 20fps-t dob ott 4k-ban, ahol a 980Ti 10fps-t, de 2k-ban a 980Ti már 60-at, míg a FuryX csak 50-et, akkor teljesen egyértelműen jobban járok a 980Ti-vel, hisz 2k-ban fogok játszani, nem 4k-ban diát vetíteni.
Ugyanakkor érthető az a tesztelési metodika is, hogy megpróbálják minél inkább a VGA-ra izolálni az szák keresztmetszetet, tehát olyan beállításokat használni, ahol minden GPU a lehető legjobban le van terhelve, a gép többi részegysége (CPU, a CPU-hoz tartozó RAM, a PCI-E vezérlő és busz, stb, stb mind-mind a lehető legkevésbé vannak kihajtva, hogy) minél kevésbé szólhassanak bele egy olyan tesztbe, ami alapvetően a VGA-kat szeretné összehasonlítani.
Sőt, még akár egy olyan feltevéssel is élhetnénk, hogy a 4k eredmény reprezentatívabb lehet a ma még nem elérhető, későbbi, feltehetően GPU-intenzívebb játékokra nézve (főleg ilyen drasztikusabb változások korában, mint most az új API-k). Persze ez megint csak egy hihetetlenül bizonytalan feltevés, "jóslás", illetve a jelenbeni potenciális vásárlóra nem feltétlenül reprezentatív egy jelenben extrapolált jövőbeni retro-teszt, ha az is olyan eredményeket fog dobni, amik nem használhatóak (pl. mint mikor 2015-ben leteszteljük, hogy a 2011-ben kapható kártyák közül melyik gyorsabb a 2014-es játékokban -> érdekes, de nem sok értelme van, főleg ha minden ilyen játék játszatatlan sebességgel vagy más drasztikus kompromisszumokkal futtatható [pl. bűn ronda minimumra állítva, ahol elég gyorsan fut, mert nem erre van optimalizálva, hogy 3-4 éves kártyákon fusson jól]).
Szóval, szerintem az a legjobb, ha mutatnak mindenféle eredményt, de a végső konklúziót abból vonják le, hogy 30+, inkább 60fps-hez közeli tartományokban melyik kártya volt gyorsabb, és itt esetleg zárójelben melléfűzni, hogy ha valaki sokat tervez Mantle-ös címekkel játszani, akkor neki esetleg más a javaslat.
Én egyébként DX11-el játszom a DAI-t, mert az én gépemen jobban fut azzal, mint Mantle-el. Na bumm... annak idején ezért vettem Radeon-t Geforce helyett (semmi komoly fanatizmus és pártváltás, csak épp akkor kicsit már elegem volt az AMD politikáiból és akartam már egy kis változatosságot csak önmaga kedvéért is), mert tudtam, hogy a DAI-ba beletolok majd 100-150, akár 200-300 játékórát és akár hónapokon keresztül is csak ezzel az egy játékkal játszok majd, így míg nálam lesz a kártya, addig legalább a játékidő felét, vagy többet erre fordítom majd. Nem nyert, de mindegy, DX11-el is megvan a fix 60fps Vsync-el olyan minőségi beállításokon, ahol már csak nagyon minimális az eltérés felfelé lékedve, szóval baj sem lett ebből.
-
KKaresz45
senior tag
válasz
Parano1d #142 üzenetére
A PH teszttel nem az a baj hogy a Mantle-t nézik hanem az hogy 4K eredmények alapján hasonlítanak össze olyan kártyákat amikkel jellemzően nem 4K-ban fognak játszani, mert 30 alatti minimum FPS-eket produkálnak. Nézd meg a 390/390X tesztet, nem ritkák az egészen extrém, 10 körüli (Metro) vagy az alatti(!) (pl. GTA V) értékek 4K-ban. Ezekkel senki nem fog így játszani, mégis ezek alapján összesítettek.
A mantle nekem nem szúrja a szememet, nyugodtan teszteljenek vele, hiszen ha gyorsabb mint a DX11, akkor azt fogják használni az emberek és azt kell tesztelni amit használni fognak, nem azt amit nem.
Egyébként ebben az esetben a mantle lassabb, mint a DX11. Nézd meg a Thief diagramot a tesztben, full HD-ban a 980 elveri a 390X-et, és 4K-ban is csak 1 fps előnye van a 390X-nek ami kevesebb, mint más DX11-es játékoknál.
-
Parano1d
tag
Ez már csak csűréscsavarás. Nem a hűtésre gondoltam, hanem az órajelekre.
Nem mintha változna a teljesítményük attól, hogy 1000, vagy 1020Mhz-en ketyeg a mag. Még a több shaderrel rendelkező, magasabb órajelen (50Mhz) járó kártya is csak kb 5%-al gyorsabb. Ami javíts ki ha tévedek, de észrevehetetlen különbség. -
daveoff
veterán
Gondolom olvastad Szaby hsz-eit a Fury topikban, én azért nem biztos, hogy elvetném a 970-et sem, mint ahogy a vásárlók döntő többsége nem is teszi. Bizonyos okokból a 970 nekem sem szimpatikus, de teljesítményben, és árban nagyon rendben van, ami a lényeg. Nekem ez hitelesebb, mint a PH teszt, azzal, és olyan beállításokon tesztelt, amivel használjuk őket.
[link]
Ha a 970 a Fury-t szorongatja, akkor a 390/390X hol lehet valójában? Vagy a Fury egy szinten lenne a 390X-el? PH teszt szerint nagyon nem....szóval értitek.(#142) Parano1d: a legtöbb tesztben a 390X max a ref 980-at tudja szorongatni, és a valóság is ehhez lehet közel
-
daveoff
veterán
válasz
Parano1d #138 üzenetére
PH tesztet inkább hagyjuk, ahogy abban átlagolták az eredményeket, az kritikán aluli, enyhén szólva is megtévesztő az eredmény. ezzel nem a 980-at akarom védeni, félre értés ne essék, de szerintem sokaknak szúrja a szemét.
és igen, nincs nagy különbség, pont ezért én a 980 mellett tenném le a voksom, még akkor is, ha az lenne gyengébb egy leheletnyivel(de nem az). persze az ár sem utolsó szempont, ha 390X olcsóbb(de nem az), akkor az a logikusabb döntés.
-
Parano1d
tag
Amúgy kemény 4 napja volt a PH-n teszt a 390X/390-ről, átlagolva kb ugyanaz jött ki, hogy 390X gyorsabb a 980-nál, 390 pedig egy szinten van vele. DX11 játékoról van szó.
Nyilván alkalmazás/driver függő a dolog, de leszögezhetjük, hogy nagy különbség nincsen teljesítményben. -
daveoff
veterán
Látván a teszteket tényleg úgy néz ki, hogy a 390X-et sikerült felhozni 980 szintre, ez azért nem rossz. Én mondhatom, hogy jól ismerem a Hawaii-t, és a Maxwell-t is, de ha összegzünk mindent, és látjuk, hogy 1-2fps eltéréssel szinte azonos teljesítményt nyújt a két kártya, én szó nélkül a 980-at választanám. Lehet később változik még a véleményem, de most így gondolom.
-
Laja333
őstag
És biztos jó teszteket néztél? Szerintem eléggé szemlélteti a növekedést az, hogy a custom órajelen járó gtx 980 rendre kikap a 390x-től, sőt a sima 390től is. Pedig az csak egy átnevezés, nem?
A hírhedt 970 pedig nem hogy nem éri el a 290x-et, de lassan már egyel alacsonyabb ligában is fog játszani...
Igaz, a 980ti nagyon állja a sarat, de azt senki sem vitatja, hogy piszok jól eltalált az a kártya.De aki a mostani és ez előtti tesztek után 980 és ez alatti NV-s kártyát vesz, az nem kicsit öntökönrúgja magát, aztán még egyszer. Figyelembe véve, hogy telejesítményben dx11-ben is egy szinten vannak.
-
szacsee
nagyúr
+1
Minden új szabvány, technológia megjelenésekor ezt látom, de ahogy a jóslatok úgy a csodadriver sem akar bejönni.
Low level api mizéria elején 3 dolgot irosgattak.
1: 3-5 ezer rajzolási parancs helyett lesz 100 ezer.
2: csökken a késleltetés
3: fürgébb lesz mint a dx11-es kód 10-30 százalékkal.
Ezek amíg nem teljesülnek addig leszarom az amd innovatív ötleteit, ha ugyanúgy néz ki és ugyanolyan sebességgel fut nv-n is. A tesztek szerint eddig nem gyorsultak a radeonok dx12 alatt mint ahogy a pr beharangozta. Majd ha játékokban annyival gyorsabb lesz, akkor elgondolkodom rajta. Amúgy 7950-em van és úgy néz ki nv-re váltok.
Ez az egész ua. mint a krízis megjelenésekor a quad core optimalizáció.
Vettem egy quadot, más meg felhúzta az e8400-at és ugyanott volt, a gáz az hogy anno E8400-ról váltottam. -
Laja333
őstag
Ez még mindig nem kerek... Gondolok itt főleg arra, hogy 1280-ban a 290x ver mindent.
" In fact, AMD sent us a note that there is a new driver available specifically for this benchmark which should improve the scores on the Fury X, although it arrived too late for this pre-release look at Fable Legends "
-
janos666
nagyúr
tévhit, hogy a 144Hz-es monitort ki kell "hajtani"
Nem kötelező, de van igazságalapja.
Egy 60Hz-es LCD mehet úgy, hogy kap 60fps-t és 60Hz-en pulzál a háttérvilágítás (valódi black frame insertion), így gyakorlatilag tű éles és kellően folyamatos hatású lesz a mozgókép.
Ez inkább drágább HDTV-knél jellemző, ott is inkább a menük mélyére elásott üzemmód, de létezik PC monitoroknál is, akár olyanokon is, amik opcionálisan képesen 120-144Hz frissítési frekvenciákra is, a pulzálás csak választható alternatíva, ami magas valós frissítési frekvenciánál szükségtelenné válik, de olyankor kell a magas fps is.
Ha 120-160Hz-en hajtod, akkor nem kell pulzálni, de akkor oda kell neki adni a 100+ fps-t is, mert ha csak ~60fps-t kap, de nem pulzál hozzá 60Hz-en, akkor ismét el fog mosódni a mozgókép és nem fog elég folyamatosnak tűnni a mozgás.A fentiek miatt én nagyon 100+Hz ellenes vagyok, mert sokkal nehezebb stabilan >=100-140fps-el etetni egy monitort, mint fix 60-al, és a monitornak is nehezebb a dolga 144Hz-el, mint jól belőni egy 60Hz-es impulzus módot (komplikáltabbá válik már a VGA és monitor közti átvitel is, a belső feldolgozás is, stb, ha nyomjuk felfelé az Hz-et és fps-t).
Egyetlen gyakorlati probléma szerintem, hogy elszokott az emberek szeme a pulzálástól (CRT monitor/TV) és nem bírod őket rávenni, hogy nézzék 5 percig úgy, hogy fáj tőle a szemük, de pár perc vagy nap alatt megszokják. Általában pár nap múlva már nem is látják, ha nem erre koncentrálnak, pár hét múlva ha direkt látni akarják, akkor sem mindig sikerül. Az a pár perc kinyírni látszik a technológiát. Bár erre is van jó próbálkozás, mikor szabályozható különböző fokozatokban, hogy lassabban szokhass hozzá. De ennek is egy másik oldala, hogy mindehhez nem árt kicsit érteni is a dolgot, hogy miért jó ez valakinek, mert elsőre csak azt látják, hogy sötét és vibrál a kép, az elveszik, hogy "hé, 60Hz, 60fps és tű éles, folyamatos a mozgás".
-
arn
félisten
Anand [link]
-
Loha
veterán
válasz
velizare #129 üzenetére
Fury X-ből nem lehetett az, mivel abból nem létezik csak referencia, boltban sem fog senki OC-sat venni belőle, míg 980 Ti-ből meg főleg csak azt fognak, de SZVSZ teljesen fair az alábbi összehasonlítás is:
Gigabyte GTX 980 G1 Gaming vs.
Asus Strix R9 390X
Asus Strix R9 Fury -
Abu85
HÁZIGAZDA
Mindegyikben van profil, de a 15.201.1151-es csomag a legjobb, viszont a 1002B2 buildnél van egy újabb is. A felsoroltak közül egyik driver sem a legújabb, de az is igaz, hogy a legújabb driver csak egy napja érhető el, és elég nehéz elvárni a médiától, hogy hirtelen mérjen újra minden Radeont. Ezt lényegében senki sem csinálta meg.
(#95) NetTom: Akkor elképzelhető az is, bár ettől valszeg még Windows 10 only marad. Úgyis használ Typed UAV-t.
(#96) janos666: Még nincs Fermire DX12 driver. Azt sem tudni már, hogy mikor lesz. Legutóbb augusztusra volt ígérve.
-
Tomcat
őstag
Akkor ez az amit én valószínűsíthetően nem fogok tudni a videon túl élőben is megnézni, hiába lesz majd valamikor esetleg DX12 hardverem, ha nem fogom tudni futtatni DX11 módban W7 alatt...
-
daveoff
veterán
Hát a 60Hz már leáldozóban van, de nem 1 év lesz az átállás az biztos. Az összes megjelenő freesync/gsync monitor már 144/165Hz-es, szóval látszik milyen irányba tartunk. Illetve az is tévhit, hogy a 144Hz-es monitort ki kell "hajtani", ha még nem próbáltál, és van rá lehetőséged javaslom próbálj ki egyet. 144Hz-es monitoron a már 60fps sem ugyanaz, mint egy 60Hz-esen....
-
-
Joshi
titán
Pont az lenne a lényege a DX12-nek, hogy megoszlik a terhelés a cpu magok között. Így az AMD procik sok magján eloszlik a terhelés, ezáltal csökken az egyébként gyenge egyszálas terhelés. A grafikonon pont az látszik, hogy a Fury X nem használt 2 magnál többet ami érdekes.
-
-
Joshi
titán
"Pont az általad említett kártyák a bizonyítékok arra, hogy régebben pariban lévő nVidia és AMD kártyák közül az AMD-k jobban használhatóak a mai napig."
Persze javultak az fps értékek bizonyos játékoknál, de olyanoknál amivel már a kutya se játszik. A frissen megjelent játékokhoz mindig új kártya kell, én ezt akartam megfogalmazni. Az "új"-ra azt értettem hogy fullos grafikával megfelelő fps értékkel. Egyre népszerűbbek a 144Hz-es kijelzők, oda kell a kraft rendesen. Nyilván minden kártya tudja futtatni az adott játékot, csak az a nem mind1 hogy milyen felbontáson és milyen részletességgel. -
úgy látom, amd driveren még maradt hely az előrelépésnek. 2corenál többől nem profitál a fury x, mint "dx11 legacy" módban működne a driver.
-
Én az "AMD-s vagyok" csoport tagjaként azért hagy emeljem fel az újjam, és mutassak rá arra, hogy a GCN nem ma jött, és a "jövőtállósága" terén nem vagyok meggyőzve, holott 7950-esemet ezért vettem.
Hol tartunk ma? Ott, hogy a Kepler és a GCN 1.0 dettó Dx12 Dx_Level_11_1 szintű kártya.
Akkor mi a fészkes fenéért volt "időtálló" az AMD GCN Radeon 7950, ha a vele kb. egyidős nVidia Kepler GeForce 680 ugyanolyan szinten tudja támogatni a Dx12-őt? Még a Dx12 tesztek szerint is kb. egy szinten van vele ma is.
Akkor milyen jövőtállóságról beszélünk?
-
Jack@l
veterán
válasz
Malibutomi #109 üzenetére
Hurrá, akkor csak beéri a középkategóriás a csúcsot
-
-
Jack@l
veterán
Baj hogy nem referencia hátő van egy kártyán ami miatt feljebb boostol? Nem is lehet már referenciát kapni azokból...
De nem csak a 980ti-nél vannak tök més számok, mint az amd cherry picked diáinál, hanem a 980 is elég szépen felzárkózik a fury-kra. (gyanítom tuningal le is hagyná őket)
Most akkor hol az igazság a nagy hbm-es és deszarleszaznvidia dx12 alatt mesékből? -
MongolZ
addikt
Nem. Azt írtam, hogy nekünk, felhasználóknak ez jó a használtpiacon, mert az AMD kártyák egyébként is nyomott áruak, miközben általában erősebbek az ugyanolyan használtpiaci áru nV kártyáknál (kivételek persze bőven vannak).
Én arra gondolok, hogy az AMD erőltethetné, amit elkezdett:
Megmutatni a vásárlóknak, hogy nézzétek, mi adunk drivert az IGP-hez a x év múlva is, míg az Intelnél van olyan, hogy ki se jött a hardver, de már nem adnak hozzá drivert. Lehetne eröltetni tovább ezt a jövőálló dolgot, akár példával bemutatva a múltból (persze ez mindig necces téma, és gyanítom, a vásárlók többsége sz*rik rá).Az a baj, hogy ennek a levét mi, felhasználók isszuk meg, mert az 1 bites vásárló annyit lát, hogy MOST ez a kártya jobb. Az, hogy pl. 6 hónap múlva, vagy 3 év múlva nem kell majd kártyát cserélnie, mert az egyik még mindig elfogadható szinten teljesít, míg a másik már meg se moccan, rohadtul nem érdekli. Így a cégek is arra kényszerülnek, hogy "ma jó, de holnap már nem biztos, hogy elég" kártyát gyártsanak.
-
daveoff
veterán
Ezt azért Te sem gondolod komolyan, ugye? De ha tényleg így van, hogy azért vesznek sokan AMD-t, mert később jól fog teljesíteni, akkor elég sokan benyalták az AMD marketinget. Azzal, hogy Te veszel egy használt kártyát nem fogod az AMD piaci részesedését növelni, mert azt már megvette egyszer valaki. Szóval érted.
-
Raysen623
addikt
Ha szabad megjegyeznem egy dolgot: én mindig új VGA-t veszek, amikor veszek. Viszont sokáig használom őket, és utána ha lehet el is adom. Tehát pont a két példa közt vagyok valahol. Valóban tartós VGA-nak tartom a jelenlegi AMD kártyámat, míg ezt a jóval korábbi NV kártyámról sajnos nem mondhattam el (3 hónap után kuka). Azóta persze változott a helyzet és már mindkét oldal termékével ki lehetett bírni huzamosabb ideig, ami jórészt a DX11 hosszú és szándékosan elnyújtott életének volt betudható. Most jön egy új API, amivel majd kiderül a régi VGA-kra vonatkozóan is mennyire használhatóak. Okos vásárló pedig most kivár a tesztekig. Nagy meglepetéseket persze nem várok személy szerint.
-
MongolZ
addikt
válasz
Petykemano #100 üzenetére
Biztos, hogy a vásárlók nagy része azt gondolja, amit Te mondasz, viszont biztos, hogy a vevők jó része pont azért vesz AMD-t, mert tudja, jobban fog teljesíteni később. Ez főleg a használt terméket vásárlóknak jön jól (mint pl. én).
-
Petykemano
veterán
Pont azt mondja, h a kutyát nem érdekli (magától, v jó/rossz marketing hatására), h egy amd kártya, ami fénykorában 5-10%-kal ugyan lemaradt néhai vetélytársától, ám ma már 5-10%-ot ráver, amikor az újabb generációk generációnként 20-30%-kal gyorsabbak.
Egy amd kártya tulaj ennek persze biztos örül, h tovább jó a kártyája, de ez marketing mix az amdnek pont kevesebb eladást hoz, hiszen fénykorban nem veszik, mert drága, de nem a legjobb, később a tulajok meg nem vásárolnak újat, mert jó vásárt csináltak.
Egyébként tényleg különös, h a fiji egyáltalán nem hozza a következő generációs brutálerős kártya érzetét a testtekben. Többször felmerült, hogy a rop blokkok hiánya miatt. Azt nem értem, h ha a lapka már 1 éve kész lett volna, csak a hbm miatt csúszott a kiadás, akkor még igazán nem gondolhatták, hogy akkorra majd elterjed az async shader és majd jó lesz, Amikor még most se.
-
MongolZ
addikt
Köhöm.
Már szó volt róla.
"Please note that many of them are not stock-clocked reference cards but actual consumer products with faster clock speeds. For example, the GeForce GTX 980 Ti we tested is the Asus Strix model that won our recent roundup."(#92) Joshi: Pont az általad említett kártyák a bizonyítékok arra, hogy régebben pariban lévő nVidia és AMD kártyák közül az AMD-k jobban használhatóak a mai napig.
-
janos666
nagyúr
válasz
FollowTheORI #95 üzenetére
Ha az AMD is megcsinálta volna emulációkkal támolygatva a HD4/5 támogatást, ahogy az nVidia tette a Fermi-ig bezáróan, akkor most nem lenne erre szükség, mert ami még ezektől is régebbi és/vagy gyengébb, az gondolom már úgysem lehet életszerűen támogatott és/vagy használható minimum beállításokon se.
De hiába, a terrascale architectúra túlzottan jövőbiztos/időtálló ilyesmikhez.
-
-
Joshi
titán
Egyébként a GCN a legjobb példa arra, hogy nincs megállás. Érdekes módon már az 1.2-es verziónál járnak és bizonyos dolgok nem elérhetőek az 1.0-nál. Ha annyira időtálló akkor miért kellett fejleszteni?
ui.: mindig lesznek újítások, lehet hogy jönni fog a tökszőrszimulálás vagy valami hasonló nélkülözhetetlen effekt.
-
Jack@l
veterán
Akkor lehet techreporthoz meg befutott az új nvidia driver is...
http://techreport.com/review/29090/fable-legends-directx-12-performance-revealed/2UI: mégse, a régivel ment ilyen eredményeket a csúnyábbik
-
Joshi
titán
válasz
Malibutomi #90 üzenetére
Nincs semmi gond az AMD kártyáival, csak a hitegetéssel hogy ez majd milyen szuper kártya lesz a jövőben is. Dehogy lesz, ugyan úgy le kell cserélni mint eddig. Őszintén, kit érdekel hogy a GTX480/580 vagy a 6970/7970 kártya milyen? Senkit, aki még ilyen kártyát használ az úgy se fogja megvenni a legújabb architektúrákat, teljesen mind1 hogy miket írnak róla. Hirtelen mindenki jós lett vagy mi?
(#91) janos666 nincs kizárva.
-
Malibutomi
nagyúr
-
Joshi
titán
Számomra az a röhejes, amikor mindenki a jövőbiztos architektúráról beszél az AMD-nél. Soha a büdös életben nem volt még jövőbiztos vga meg nem is lesz. Olyan ütemben fejlődik a számítástechnika, hogy én azon csodálkozom hogy ezt még elhiszi valaki.
Nagyjából 2-3 évente muszáj lecserélni a vga-t, mert jön egy kedvenc játék ami fosul megy rajta. Pont a Microsoft fog egy jó DX-et készíteni mi? Azért járunk már a 12-es verzió számnál.
-
válasz
GeneraL_XTX #50 üzenetére
Akkor fuss neki pls mégegyszer, mert Abu hsz-e amire reagàltàl DX12-re vonatkozott
-
janos666
nagyúr
"Évek óta ezt játssza az AMD."
Én vásárlóként azt érzem, hogy velem évek óta azt játssza az AMD, hogy mire ténylegesen is kihasználna egy játék (vagy akár más program), a hardware megjelenéskor még a "nem túl távoli jövőbe" tervezett feature-t, addigra vagy:
A: lement egy generációváltás és én már VGA-t cseréltem (és amíg megvolt az N-edik generációs AMD kártyám, addig ugyan úgy lehetett volna N-edik generációs nVidia-m is [a teljes nálam töltött időt kiátlagolva még talán picit jobban is jártam volna azzal] és sejthető, hogy ugyan ez lesz igaz az N+1 generációra is, ha az a tervem, hogy minden lényegi/valódi generációváltást lekövetek én is)
B: még mindig nálam van az N-edig generációs AMD kártya (nem volt kedvem vagy pénzem lecserélni újabbra), de én mégsem tudok örülni annak, hogy tényleg jelentős előnybe került addigra a kortárs nVidia kártyával szemben, mert a kérdéses programokban és az érintett beállításokkal egyik N-edik generációs terméken sem fut élvezhető sebességgel a játék (nem érdekel, hogy 15 vagy 25 fps jön ki, ha mindkettő játszhatatlan... ui.: nekem a 45-60 a játszható, fix 60 az élvezhető, a 30 impulzus módú kijelzővel zavaróan kellemetlen, dupla éle lesz mindennek..)
A Fury pedig szerintem pont olyan termék, amit döntő többségben inkább olyanok vesznek, akik viszonylag sűrűn cserélgetik a VGA-jukat. Persze nem kidobják vagy falra akasztják, hanem többnyire eladják majd őket használtan, így működnek majd tovább valahol, de már eltérő igényű tulajoknál.
-
arn
félisten
hat ezert a grafikaert felesleges volt annyit kuzdeni az optimalizacioval.
-
egyedülülő
őstag
válasz
GeneraL_XTX #73 üzenetére
Nekem is volt 970 em és az bizony nem 980. Vettél egyet, örülsz neki, ilyenkor bizony ki kell állni a mundér becsületéért megértem ezt is.
-
petakpa1
őstag
Multi engine funkcio csak a dx12-t támogató vga-kon fog menni vagy regebbieken is. Pl. egy régebbi mondjuk Llano APU-ban lévő 6550d vga használható lesz majd egy újabb diszkrét kártyával együtt?
-
temerole
csendes tag
"Évek óta ezt játssza az AMD.....hát....nem igazán jön be ez a stratégia, miért nem veszik már észre, nem tudom miért erőltetik."
Azért erőltetik, mert akkor még vagy 20-25 évig DX11-nél rostokolnánk (thanks NV).
Ha belegondolsz, kb MINDIG az Ati/AMD volt előrébb technológiai fejlettségben.
(Előbb volt nekik dx10.1; 11; Mantle--> Vulkan API / Dx12; HBM memó; igaz, ezeket jó ideig nem használták a fejlesztők, hisz a konkurens gyártónak nem volt olyan terméke ami támogatná XY feature-t...) -
denetol
csendes tag
Keresek ,de sehol sem találok tesztet 1440p-ben.Csak én gondolom,hogy siralmas a 500-600 fontos árú kártyáknál 1080p-s teszt eredményein vitázni?Én 1440p-re vettem a 980ti,nem 1080,oda minek ilyen kari?Ott érdekelne,hogy megérte-e nvidia-t venni.4k-ra ahogy nézem kevés mind2.Az komoly viszont,hogy a 390x milyen teljesitményt nyújt az árához képest.Közben olvastam,hogy perpill nincs 1440p settings.Kár.
-
nanocry
tag
Abu, a HAVOK-al mi a helyzet mostanság? Nem akarnak komolyabban hozzányúlni esetleg az Intelnél? Szerintem hatalmas lehetőség rejlene benne, vagy csak nem akarnak vele bajlódni, vagy nincs meg a megfelelő szaktudásuk a fejlesztéséhez?
-
nanocry
tag
válasz
GeneraL_XTX #73 üzenetére
A gyártók és a fejlesztők egyenlőre "szerintem" nem nyúlnak mélyebben bele a kódba, hogy ne legyen túl nagy a difi, egyenlőre. Aztán amikor tényleg eljön a next-gen, mindent beledobnak az üstbe és tényleg mondhatni, hogy verseny lesz.
OFF: Az AMD meg már igazán előállhatna valami gameworks verő atombrutálan** effektekkel meg driverrel, mert szép és jó, hogy ők diktálják a technológiai tempót, de a nyers erő és tudás rohadtúl nem fogja eladni a kártyáit... Persze mindent nyílt forráskóddal a maximális hatékonyságot illetően, mert abban van jövő.
-
GeneraL_XTX
veterán
válasz
Malibutomi #63 üzenetére
Nem. Az itt megjelent teszt szerint a 390 ugyanolyan gyors, mint egy 980. Ez nem igaz. a 290-em tudta a 390 szintjét, a 970 tudja egy 980-as sebességét, és az utóbbi a legtöbb esetben érezhetően gyorsabb, mint az AMD.
-
Laja333
őstag
Abu, Fable-ben nincs PC oldali Async? Vagy csak most nincs?
-
nanocry
tag
Az nV emulációval, csak egy darabig tudja tartani a tempót az ÁMD-vel szemben, ha elszaporodnak a játékok a pascal előtt, akkor akiknek GenyaTX van teljesítmény szempontjából fűbeharap keményen... Idén kárdot már tuti nem veszek a köv-gent kivárom mindkettő részről. Aztán kiderül mit dob a gép.
-
nanocry
tag
Óó jee, a 770-4gigásomat adhatom, majd el lassan óccsó pézé, mert ló***** nem nagyon fog profitálni dx12 alatt, max emu-val, de hát az meg tré, na... Akinek kell majd olcsón, nyugodtan írhat rám...
-
Zorel
senior tag
Ready Driver DX12 alá? Eddig az volt a mondás, hogy a fejlesztőkön múlik minden és game ready driver-ek már nem lesznek...A másik meg, hogy elég erős marketing anyaga van az AMD-nek ahol az látszik, hogy a Ti és Fury X egy szint Fable-ben, pedig a teszt szerint nagyon nem. Nem hiszem, hogy driver gond lenne...ha igen akkor ismét sikerült az AMD-nek saját maga alatt vágni a fát, már ami a Fury-t illeti.
-
Petykemano
veterán
-
Malibutomi
nagyúr
válasz
GeneraL_XTX #45 üzenetére
Varj most azon vagy meglepodve hogy egy 980 szintre huzott 970 gyorsabb mint a 290.
Persze hogy gyorsabb. De a 390 alapon gyorsabb mint a 970, a 390x meg igen kb. 980 szint.Tesztek alapjan a 390x majd 20%-al gyorsabb mint a 290.
-
GodGamer5
addikt
Ezzzazzzz!!!!
Indulhat a móka!!!!
-
Outsiderman
tag
Az AMD megint esti mesét olvas a fantasztikus szuper rendszereikről, ami egy olyan API-t lovagol meg mindennél jobban ami még nem kiforrott. Mindezt egy olyan tesztprogrammal ami nem elérhető és szaki vagy újságírók által nem elvégezhető méréseket tartalmaz. Szarban a cég, kell a jó hír. Nesze semmi fogd meg jól.
-
[CS]Blade2
addikt
válasz
UnSkilleD #54 üzenetére
Kicsit? Addigra ezek a kártyák úgy lesznek fellelhetőek, mint pl. ma a 7950GT (jelentkezzen, aki ipont 7950GT-vel nyomja manapság a játékokat). Fent lesznek a falon, vagy az ajtót fogják, hogy a huzat ne csapja be.
2015.09.24. Tegye el valaki egy humorosba, és vegyük elő ezt a hsz-t, amikor megjön az első ilyen 90-99%-ban compute shader-es motor.
Bátrabbak megpróbálhatják 5 év hideg élelem mellett kivárni féllábon. -
dergander
addikt
Kezd látszani az AMD stratégiája,miszerint DX12be nagyon is sokat fog számítani a sok számlálóegység,amit az Nvidiánál lespóroltak.
-
szasanyi
félisten
A videó hibája ez folyamatos akadozás, vagy maga a teszt futott így? Mintha fogaskeréken gördülne a képfolyam... borzalmas.
-
válasz
GeneraL_XTX #45 üzenetére
DX12 alatt?
-
Abu85
HÁZIGAZDA
Nem kérdeztem meg, hogy a HEDT-vel mi van. Csak a sima Sandy-re kérdeztem rá az FX-re vonatkozóan. De egyébként mindkettőt el fogják verni az IGP-s procik, mert lesz az FL-ben heterogén multiadapter.
A Keplert az NVIDIA nagyon szopatja a GameWorksszel. A legfőbb cél amikor nem engedik a forrás módosítását az, hogy a fejlesztő ne tudja úgy optimalizálni a shadert, hogy a Kepler összes feldolgozója működjön. Ettől elveszti a magok 33%-át. Messze ez a legveszélyesebb a Kepler teljesítményére nézve.
Ha nem manipulálják a teljesítményt a GameWorksszel, akkor a Kepler elsődleges gondja DX12-ben a két DMA hiánya és a kevés regiszter lesz. Több olyan program készül, amelyek erősen építenek az aszinkron copy-ra, illetve ahogy nő a compute terhelés úgy nő a regiszterigény is. -
GeneraL_XTX
veterán
Mert nem is azok. Én nemrég váltottam húzott 290-ről (gyk 390) egy 970-re ami kb 980-as szintet hozza, és az nvidia érezhetően, szinte mindenben erősebb
Én nem tudom, Ti mivel meg hogyan teszteltek, csak azt tudom, hogy nem fedi a valóságot a mai, frisebb játékokban legalábbis biztosan nem.
-
-
Raysen623
addikt
Komolyan nem értem ezt a hozzáállást: csak akkor jó valami ha megalázza az ellenfelét? Az már nem elég ha teljesen jól fut vele minden?
Érdekes világban élnek egyesek...
(#41) daveoff: ja mert lemaradnak 10fps-el és csak 130fps-el fut a játék 140 helyett, akkor már dobjanak ki mindent az ablakon...
-
Abu85
HÁZIGAZDA
Állandóan megfigyelhető az AMD termékeinél, hogy túltervezik őket aszerint, hogy a fejlesztők mit mondanak nekik. A Hawaii is a GK110-zel csatázott amikor megjelent, és ma már bőven veri. A Tahiti a GK104-gyel csatázott és ma veri. A Fury esetében bizonyosan közrejátszott a tervezésben, hogy milyen útiterve van a top cégeknek. Lásd Oxide, akiknél a Nitrous első verziójában a compute:grafika pipeline arány 20:80. Ez hamarosan 50:50 lesz, és egy év múlva már jön a full compute verzió, amiben a pipeline-ok 99%-a compute. Aki Fury-t vesz az jövőre is használni fogja, tehát érdemes úgy tervezni a hardvert, hogy jövő ilyenkor is jó legyen. Évek óta ezt játssza az AMD.
(#38) con_di_B: Ezt megkérdeztem az MS-től. Az FX a valós nyolc mag miatt megveri a Sandy-t, de nem veri agyon.
-
daveoff
veterán
Aha, ezt én is észrevettem, meg szerintem mindenki, kérdés, hogy a 980 milyen kártya volt, 390X-ből ugye nincs ref, a 980 pedig sanszos, hogy az volt. De ha ezt számításba is vesszük, akkor is szépen teljesít a 390X, mondhatni ezerszer jobb vétel, mint bármelyik Fury, annyira közel van hozzájuk teljesítményben, és az ára is sokkal barátibb. Valamiért az új széria nem hozza azt amit kellene neki....
-
Azért azt is tegyük hozzá, hogy R9 390X bizony elveri a sima 980-at...
-
con_di_B
tag
"Sajnos" a Maxwell az egy meglehetosen jo es hatekony archtektura lett, de azert azt orom volna megnezni, hogy az elso GCN-ek (amik meg ma is elnek atnevezesekken) hogyan mosnak fol a padlot korabeli, Kepler alapu ellenfeleikkel.
Szerk: Bocs, Anandon volt 7970 vs 680, es nem volt alazas, szoval igy utolag gratula az NVIDIA-nak, az utokor sem igazolta a GCN-t kulonosebben (szigoruan grafikara)!
-
BloodDrunker
csendes tag
Amd felől megint megy a ködösítés vagy én nem értem ezt.
Eddig is 2x erősebb volt az amd APU-ja mint az intel IGP(nem az Iris Pro) ezt eddig is tudtuk
Itt még mindig nem derül ki,hogy Dvga-s rendszerben,hogyan teljesít az AMD.Nem lett volna sokkal egyszerűbb csinálni Fx+dvga//I5+dvga azonos felbontáson.
Ott ki is derült volna valami,de gondolom a Dx12 se hozta meg az Amd "világmegváltó" terveit(Az is lehet én értelmezem rosszul az egészet.)
-
-
freeapro
senior tag
Ha a processzoros táblázat IGP, akkor jól látom, hogy az AMD apu majdnem lenyomja a GTX 960 / R9 380 párost?
-
smkb
őstag
Nem látom a DX12 alatt kibuggyanó, mindent elsöprő AMD teljesítményt előtörni.... bár lehet az már az, hogy a Fury X egy AMD által kiadott teszt dián beérte a GTX980Ti-t 1080p-n
-
Pipó
őstag
Most akkor dx11-es kártyával, de win10 alól futni fog, vagy sem? Kell neki dx12-es kártya is?
-
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
-
Crytek
nagyúr
Ezen mi a meglepő ,mit kell csodálkozni? 5 éve egyfolytában ezt mondom nem hittétek el,most meg mindenki csodálkozik.
De ez nokedli még mert összevissza jön minden táp ,win10 holnap alaplap,cpu "valamikor" a héten. A ram-ra 2 hetet kell még várni. VGA még nem tudom hogy 980ti vagy Fury szóval vannak még kérdések.De igen lesz új gépem -
Valdez
őstag
Combosabb intel igpu-k persze nem szerepelnek a tesztben (Iris 6100-6200).
-
Abu85
HÁZIGAZDA
De ez egy módosított UE4 verzió. A Microsoft vette a forrást és átírta. Ebben a verzióban a DX11-et szimplán ki fogják venni a forráskódból is, ma még benne van, de csak tesztelési céllal. Publikus programba már nem kerül bele. Amikor kész lesz a munkával az MS, akkor fogják magukat és a módosításokat visszaírják a készülő UE főverzióba. Valószínűleg az már UE5 lesz.
Ez minden bizonnyal egy egyezmény is az Epic-kel, mivel nekik szükségük van egy olyan DX12-es leképzőre, ami a DX11-hez képest gyorsul. Az Epicé inkább lassul.Lesz egy rakás másik program, amiben marad DX11 is.
-
Jack@l
veterán
Pedig lehetne, ez csak egy kapcsoló exe indításkor bármelyik ue4-el készült játékban... (már ha direkt le nem tiltják valamiért...)
Így hogy lássa az ember a nagy beigért gyorsulást? Dx11 nem tesztelési céllal van benne, hanem külön ág. Ahogy amd-ék hakniztak a processzorhasználatos képekkel, úgy a köznép is tudna, látna, tapasztalna. Nem technikai oka van az biztos. -
-
jozsef8
aktív tag
A processzorterhelésen látszik, hogy a tényleges terhelés nem csökkent. Annyi változott, hogy a processzormagokon jobban eloszlik a terhelés. Ez az AMD-nek jól jöhet, mivel az intelnek gyorsabb az egy magra jutó teljesítménye. Jöjjenek a játékok, én várom őket. Váltani szerettem volna FX 8350-ről i7 4790k-ra, de először inkább megvárom a DX12-es játékokat és teszteket. Majd utána megnézem, megéri-e, 50-60 ezres felárat fizetnem. Ja és hozzá még egy új alaplap is kell.
-
Z_A_P
addikt
Fury X fej-fej mellett a korosodo 980Ti-vel?
Nem tul gyenge ez igy? -
Abu85
HÁZIGAZDA
válasz
GeneraL_XTX #4 üzenetére
Nem. Kérdeztem a Microsoftot, de még nem tudnak pontos dátumot mondani.
(#7) Jack@l: A publikus verziónak nem lesz DX11-es módja, ahogy magának a Fable Legendsnek sem.
A Microsoft nem a 4.9-es UE4-et használja, hanem egy saját verziót. Az UE4-nek lesz egy Epic által fejlesztett DX12 leképzője, és egy Microsoft által fejlesztett. Utóbbi később felváltja azt a leképzőt, amit az Epic írt, mert az Epicé inkább lassulást okoz a DX11 módhoz képest, így nem igazán használható. -
Jack@l
veterán
Aztán ki ne derüljön hogy ez is rosszabbul fut a dx11-nél
Imádom ezeket az előzetes fényezős amd-s diákat, valahogy sehogyse sikerül eltalálni a valóságot.
Érdekes hogy a a köznépnek nem adják ki a demót, miközben az ue4 meg már nem bétás amivel készítik a dx12-es binárist. -
Nxn908xxx
őstag
Mennyit profitálnak majd ebből a 8 magos FX-ek?
-
GeneraL_XTX
veterán
Arra az egy kérdésre nem kaptam választ az írásból hogy mégis mikor jön? Vagy még nem tudni pontos dátumot?
-
Crytek
nagyúr
Pont a héten jön az i5 6600K-m ahogy nézem hiba volt kuka
-
Raysen623
addikt
Akkor kezdődjék hát...
Nagyon várom a Legends tesztprogit is.
Új hozzászólás Aktív témák
- Microsoft Excel topic
- Bemutatkozott a Poco X7 és X7 Pro
- Bevonják az AI-t az atomreaktorok építésébe
- PlayStation 5
- Steam topic
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Netfone
- EA Sports WRC '23
- Továbbfejlődött a Keychron egéralternatívája a Logitech MX Masterre
- Szerkesztett és makrofotók mobillal
- További aktív témák...
- Bomba ár! Lenovo ThinkPad X260 - i5-6G I 8GB I 256GB SSD I 12,5" HD I HDMI I CAM I W10 I Gari!
- Lenovo ThinkPad L15 Gen 2 - 15.6" FullHD IPS - i5-1135G7 - 8GB - 256GB SSD - Win11 - MAGYAR
- AKCIÓ! Apple iPad Pro 11 2024 1TB WiFi + Cellular tablet garanciával hibátlan működéssel
- Csere-Beszámítás! Ryzen 9 9950X3D Processzor! 16Mag-32Szál!
- LG 45GS95QE - 45" Ívelt OLED / 2K WQHD / 240Hz 0.03ms / NVIDIA G-Sync / FreeSync Premium / HDMI 2.1
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest