Új hozzászólás Aktív témák
-
janos666
nagyúr
Mit vártál? Hogy ha DX11-ben 10%-al gyorsabb a hasonlóan pozicionált Geforce, akkor DX12-ben nem az lesz, hogy a Radeon 10%-ot, a Geforce 5%-ot gyorsul, hanem a Geforce egyenesen lassul (ami egyértelműen programozói hiba lenne, ha ugyan azt a képminőséget rosszabb teljesítmény mellett érik el adott hardware-en), vagy hogy a Radeon 25%-ot is gyorsul olyan szituációkban, ahol eddig nem a CPU limitált, hanem a GPU? (A példáknál ne a konkrét százalékokon ragadjunk le, hanem az arányokon, de azokat is próbáltam -szerintem- reálisra venni.)
-
DoxaM
aktív tag
hát ez elég gyászos....dx12 ugyanúgy "sehol" sincs a nagy dx12 hype-hoz képest, ami volt, h majd a radeon megmutassa! tényleg vicc a köbön, pedig bíztam benne
...legalábbis az fury esetében....jóval később jött ki, szénné hypeolták és ENNYI??? nem mondom azt, h jó lenne a ha megszűnnének..bár túl sok "ártoríztó" hatásuk szerintem így sincs már (talán egy pici), de az nv annyiért adja kis túlzással a kártyáit, amennyiért akarja (hisz eleve ő jön ki hamarabb a modellekkel) meg ez, hogy előremutató, sehol sem előremutatók ezek.
nem is értem am az "amd" taktikáját...."előremutató" kártya és 4k-ban játszhatatlan a játék vele, hol előremutató az? olyan technológiát (effektek) meg nem tud, amitől leesik az állad és a konkurencia nem tudja....most ez kicsit idegesít am, mármint ez a hype és ami lett végül, nem jó hozzáállás szvsz ez a mókolás (bár ezt jól tükrözi a piaci részesedésük is)....ami kevésbé idegesít, h a 7970 érdekesen jól szerepelt
mire a 144es 4k-s monitorok 50ezerért pörögnek majd, addigra már ezeknek a dolgoknak híre hamva se lesz (reméljük az "amd"nek még igen
) ....szal, jobban örülnék, hogy ha az "amd"sek a jelenre koncentrálnának kevesebb hype-al és jó driverekkel, akkor szerintem lenne esélyük.....de így ez most fekete pont erősen újra (átnevezgetések után) és a lejtmenetet látom csak
-
KKaresz45
senior tag
válasz
Parano1d #152 üzenetére
Szerintem nem játéktípus függő hogy milyen fps-sel játszható egy játék. Minden játszható alacsonyabb fps-sel is, de ha megnézel egy játékot 30 fps-sel meg 60-nal akkor látható lesz a különbség, és ha kiadsz egy videokártyára 100+ ezret meg veszel egy 4K kijelzőt, akkor valószínűleg nem az akadozást akarod nézni. Millió szemléltetés van erről a neten, csak egy példa:
Ennek ellenére én nem gondolom hogy minimum 60 fps kell a tökéletes játékhoz, szerintem jót lehet játszani az alatt is (például ha a minimum 40, atlag 45-50 megvan). Főleg hogy már vannak olyan technológiák amikkel javítani lehet az érzésen (g-sync, freesync). De azért a minimum ne essen már be 30 alá, az már olyan zavaró fps drop, hogy a szemed is észreveszi. Igazad van abban hogy a Metro meg a GTA V extrém példák voltak, de a tesztben szereplő összes játéknál 30 alatt volt a minimum 4K-ban, ezért írtam azt, hogy én biztosan nem használnám így, és másnak sem ajánlanám.
Az is igaz hogy a tesztben mindent maxra állítottak, nem tudom hogy mennyit lehet nyerni a beállítások variálásával. Nyilván nehéz olyan tesztet csinálni ami mindenkinek jó. Itt igazából a Full HD meg a 4K közötti felbontások lennének az érdekesek, és gondolom hogy az volt az alapötlet hogy lemérjük mind a kettőt és feltételezzük hogy a köztes felbontásokban arányosan skálázódik.
-
janos666
nagyúr
válasz
Parano1d #156 üzenetére
Ez volt a legelső felvetésem, hogy ha minden más állandó, csak a felbontást növeled, akkor megvalósul az "optikai SSAA", csak aztén elkanyarodtunk.
A "HD élmény" egyik része házimozi és TV-film/sorozat esetén is (akár TV-vel, akár projektorral), hogy minél jobban ki legyen töltve a perifériás látómeződ is. Ez ugyan úgy skálázódik tovább HD-ről UHD-re, ahogy annak idején SD-ről HD-re. Tudatos, megfontolt, tervezett elhatározás az, hogy egyre jobban ki legyen töltve a periféria, ezzel is javítva az összehatást. A nagyobb felbontás lehetővé teszi, hogy közelebb ülj és/vagy növeld a kép méretét, ezzel jobban kitöltsd a látómeződ, jobban a vetített világ részének érezhesd magad.
Erre egy másik példa az Eyefinity játékos felhasználásra, mikor csak azért tesztnek le egyesek még pluszban két ugyan olyan szélesvásznú monitort a mellé, amit ténylegesen néznek, hogy jobban kitöltse a látómezőjüket.
Bár személy szerint nekem nem tetszik ez a felállás, mert ilyen formában túl kompromisszumos a kávák miatt és abszolút nem költséghatékony amiatt, hogy gyakorlatilag háromszor annyit kell költened monitorra (de ha pl. IPS helyett TN panellel is beéred a két szélre, akkor is legalább kétszer annyi lesz a szumma) és durván háromszor annyit VGA-ra. De van olyan "hülye" (a lenti klasszifikálásod követve), akinek így is megéri.
Szerintem ettől jobb és olcsóbb közelebb ülni egy 4k-s kijelzőhöz 2k-s helyett.
De persze te tudod. Szerintem abszolút jogos az "optikai SSAA" jellegű 4k használat is, jobb mint a 4k->2k resample szoftveres SSAA. Ezt sohasem tagadtam. Ugyanakkor részben pazarlás, ha pl. MSAA-val egyszerre lehetne AA és még perifériakitöltés ("közelebb ülés") is.Lehet-e akkor érelme MSAA-nak 4k-ban?
Szerintem igen. Abszolút csak attól függ, hogy hogyan és mire használod a komplett rendszer. -
Parano1d
tag
válasz
janos666 #155 üzenetére
Most mi nonszensz azon amit írtam?
Közel=30/40/50cm, nem definiáltam, de nyilvánvaló mire gondoltam (perifériás látásból kiesik a képernyő nagy része...) és ezért nincs értelme."Ez pusztán attól függ, hogy milyen messziről nézed és mekkora a képernyő."
"pontosan ugyan annyi értelme lesz az élsimításnak 1k-n, 2k-n, 4k-n és 8k-n is"
Hogy a "képleteddel" válaszoljak, nagy átmérőjű megjelenítőhöz egyre közelebb kell ülni, hogy meglásd a különbséget. Szóval igencsak függ a felbontástól is, hogy van-e értelme az élsimításnak.(egyre kisseb az a tartomány ahol már látod a különbséget, és még látod az egész képernyőt) és még ebben a tartományban is kevésbé észrevehető a különbség.
De biztos mind1 a felbontás, ha te azt mondod. Én mentem aludni a részemről jó éjt.
-
janos666
nagyúr
válasz
Parano1d #154 üzenetére
"Lehet közelről nézni egy 65"-os monitort is, csak nincs sok értelme véleményem szerint."
Ha így definiálsz egy fix képátlót (és feltesszük, hogy állandó a képarány is), akkor pontosan attól függ az, hogy mi számít ideális, távoli, vagy közeli nézési távolságnak, hogy pixelszámban mekkora a felbontása. Minél több rajta a pixel, annál közelebbről kell nézned, hogy ilyen szempontból ideális legyen (hogy tényleg érzékeld is azt az információt, amit az adott felbontás hordoz, ne vesszen el belőle számottevő mennyiség), illetve ménél kevesebb a pixel, annál távolabbról (hogy ne kezd el magukat a pixeleket látni rácsháló szerűen és vesszen el túl sok minden a periféria legszélén vagy szó szerint a látómezőn kívül).
Ez szerintem egy nagyon egyértelmű képlet. Három változód van, amikből mind viszonylag szűk tartományban jelennek meg (néhány extrém esetet kivéve az átlaghoz képest durván 0.5x és 2.0x skálán: 1000 és 4000 oszlopnyi pixel, 24-65 colos képátló, 1-4m nézési táv... az alapeset szerintem 2k-s ~40" ~2m-ről, ami egy kis-közepes méretű lakás nappalijában egy TV egy játékkonzollal, kis-közepes pénztárcájú és hobby-játékos vásárlót feltételezve, akiknek nem kellenek nagy tepsik a falra, csak ami befér a régi szekrénysorba...).
Amit most ezen túl és eredetileg írsz, az "csak mert én épp úgy csinálnám hasra ütésből, gondolkodás nélkül, mert izé..." nonszensz. Azzal nem lehet vitatkozni.
-
Parano1d
tag
válasz
janos666 #153 üzenetére
Na látod ezért nem tudnak olyan videokártya tesztet csinálni, ami mindenki igényeit kielégíti.
Ha bármit megmagyaráz valaki, akkor mások megmagyarázzák a "bármi" ellentétét
A hozzászólás első felével kapcsolatban még annyit, hogy 4k-s megjelenítőnél kis méretben nem szükséges élsimítás, nagy méretben pedig úgysem közelről nézed alapesetet vettem számításba.
Lehet közelről nézni egy 65"-os monitort is, csak nincs sok értelme véleményem szerint.
(tudom vannak olyanok is, akiknek még telón is kevés a FHD, azok nyugodtan költsenek vagyonokat a számítógépükre is, engem nem fognak tudni meggyőzni, hogy van értelme) -
janos666
nagyúr
válasz
Parano1d #152 üzenetére
"Minek 4k-ban pl élsimítás? Teljessen ésszerűtlen dolog."
Ez pusztán attól függ, hogy milyen messziről nézed és mekkora a képernyő.
Ha X szélességű 2k-s képernyőtől Y lenne az ideális távolság (ahol épp se több, se kevesebb a látásod hatékony felbontóképessége), akkor ha X és Y körülbelül azonos marad, de 2k-ról 4k-ra lépsz, akkor lényegében "optikai SSAA lesz érvényben".
Ha X és Y viszonya átalakul úgy, hogy 4k-ra is az teljesül, mint az alapeset (tehát a felbontás növekedéssel arányosan közelebb ülsz és/vagy nagyobb képernyőd lesz), akkor pontosan ugyan annyi értelme lesz az élsimításnak 1k-n, 2k-n, 4k-n és 8k-n is (persze egy olyan tartományban, ami fizikailag és praktikusan lehetséges)."pl egy RTS-ben 30 fps még bőven játszható kategória."
Ezért szeretem én inkább, ha az "élvezhető" kifejezést használjuk. Van, aki bármilyen játékstílust képes élvezni 30fps-el, de van akit egy RTS-nél is idegesít, ha nincs >=45fps, de inkább fix 60.
De ez is függ a megjelenítési technológiától is:
- vannak kijelzők (pulzáló háttér-világítású LCD, PDP, pulzálóra belőtt OLED, stb), amik ideálisan fix 60fps-re, de rosszabbak 30-ra, mint egy klasszikus (folyamatosan világító háttér-fényű) 60Hz-es LCD
- vannak kijelzők, amik ideálisak 100-140 közti fps-re (folyamatos világítással, de sok valósi frissítéssel), de ugyan olyan rosszak 80-100 alatt (pl. ~60-al, vagy csak kicsit többel), mint a klasszikus 60Hz-es LCD-k (mert lényegében ilyenkor pont ugyan úgy működnek) -
Parano1d
tag
válasz
KKaresz45 #149 üzenetére
Ennyi rővel azt is kifogásolni lehetne, hogy 60+ fps-nek sincsen jelentősége. ha úgysem veszed észre a különbséget. aztán még játékstílus függő is a dolog, mert pl egy RTS-ben 30 fps még bőven játszható kategória.
Amúgy csak a gépgyilkosabb játékok nyúvasztják meg ezeket a kártyákat, a játékok 90%-a simán megy rajtuk akár 4k-ban is. A GTA V is, csak ésszerű grafikai beállításokat kell használni.
Minek 4k-ban pl élsimítás? Teljessen ésszerűtlen dolog.
Ezek alapján bármelyik tesztbe bele lehet kötni. Nem mintha nem fogadnám el az érveidet, de FHD felbontáshoz meg felesleges egy ilyen kategóriájú kari, egy R9 380/GTX960 bőven elég (még sok is) -
janos666
nagyúr
válasz
KKaresz45 #149 üzenetére
Részben egyetértek.
1: Mantle:
Szerintem sem elvetendő dolog bemutatni és valamilyen módon figyelembe venni a Mantle (és hasonló gyártóspecifikus dolgokat, pl. ide tartozhat még a CUDA/APEX/PhysX is) eredményeket, hisz a végfelhasználók számára is elérhető, így feltehetően ők is használni fogják otthon, ha jobb eredményt szül.
Egy átlagolásnál viszont nagyon kényes kérdéseket szül, hisz korlátozott az elterjedése. Valami módon meg kéne saccolni, hogy egy véletlenszerű felhasználó összesen hány órát fog DX11 és hányat Mantle támogatású játékokkal játszani és eszerint súlyozni a végeredményt.
Szélsőséges példaként, ha egy tesztben a Mantle 5x gyorsabb és csak 4db DX11-es játékot teszünk mellé, az nyilván rontja az átlag reprezentativitását még akkor is, ha valaki épp azzal az egy Mantle-ös játékkal is fog játszani X órát, de közben 5X-et is más játékokkal, ahol nincs is Mantle. De lehet, hogy 150 órát fog valaki játszani egy szál Mantle-ös játékkal és 50-et 6 másik DX11-essel. Nem egészen mindegy és ezt nagyon nehéz megsaccolni.
2: Beállítások
Ezzel is egyetértek, hogy végfelhasználóként számomra is abszolút irreleváns, hogy melyik kártya mennyivel gyorsabb olyan szituációkban, ahol egyik sem használható.
Erre egy szélsőséges elvi példában, ha egy FuryX 20fps-t dob ott 4k-ban, ahol a 980Ti 10fps-t, de 2k-ban a 980Ti már 60-at, míg a FuryX csak 50-et, akkor teljesen egyértelműen jobban járok a 980Ti-vel, hisz 2k-ban fogok játszani, nem 4k-ban diát vetíteni.
Ugyanakkor érthető az a tesztelési metodika is, hogy megpróbálják minél inkább a VGA-ra izolálni az szák keresztmetszetet, tehát olyan beállításokat használni, ahol minden GPU a lehető legjobban le van terhelve, a gép többi részegysége (CPU, a CPU-hoz tartozó RAM, a PCI-E vezérlő és busz, stb, stb mind-mind a lehető legkevésbé vannak kihajtva, hogy) minél kevésbé szólhassanak bele egy olyan tesztbe, ami alapvetően a VGA-kat szeretné összehasonlítani.
Sőt, még akár egy olyan feltevéssel is élhetnénk, hogy a 4k eredmény reprezentatívabb lehet a ma még nem elérhető, későbbi, feltehetően GPU-intenzívebb játékokra nézve (főleg ilyen drasztikusabb változások korában, mint most az új API-k). Persze ez megint csak egy hihetetlenül bizonytalan feltevés, "jóslás", illetve a jelenbeni potenciális vásárlóra nem feltétlenül reprezentatív egy jelenben extrapolált jövőbeni retro-teszt, ha az is olyan eredményeket fog dobni, amik nem használhatóak (pl. mint mikor 2015-ben leteszteljük, hogy a 2011-ben kapható kártyák közül melyik gyorsabb a 2014-es játékokban -> érdekes, de nem sok értelme van, főleg ha minden ilyen játék játszatatlan sebességgel vagy más drasztikus kompromisszumokkal futtatható [pl. bűn ronda minimumra állítva, ahol elég gyorsan fut, mert nem erre van optimalizálva, hogy 3-4 éves kártyákon fusson jól]).
Szóval, szerintem az a legjobb, ha mutatnak mindenféle eredményt, de a végső konklúziót abból vonják le, hogy 30+, inkább 60fps-hez közeli tartományokban melyik kártya volt gyorsabb, és itt esetleg zárójelben melléfűzni, hogy ha valaki sokat tervez Mantle-ös címekkel játszani, akkor neki esetleg más a javaslat.
Én egyébként DX11-el játszom a DAI-t, mert az én gépemen jobban fut azzal, mint Mantle-el. Na bumm... annak idején ezért vettem Radeon-t Geforce helyett (semmi komoly fanatizmus és pártváltás, csak épp akkor kicsit már elegem volt az AMD politikáiból és akartam már egy kis változatosságot csak önmaga kedvéért is), mert tudtam, hogy a DAI-ba beletolok majd 100-150, akár 200-300 játékórát és akár hónapokon keresztül is csak ezzel az egy játékkal játszok majd, így míg nálam lesz a kártya, addig legalább a játékidő felét, vagy többet erre fordítom majd. Nem nyert, de mindegy, DX11-el is megvan a fix 60fps Vsync-el olyan minőségi beállításokon, ahol már csak nagyon minimális az eltérés felfelé lékedve, szóval baj sem lett ebből.
-
KKaresz45
senior tag
válasz
Parano1d #142 üzenetére
A PH teszttel nem az a baj hogy a Mantle-t nézik hanem az hogy 4K eredmények alapján hasonlítanak össze olyan kártyákat amikkel jellemzően nem 4K-ban fognak játszani, mert 30 alatti minimum FPS-eket produkálnak. Nézd meg a 390/390X tesztet, nem ritkák az egészen extrém, 10 körüli (Metro) vagy az alatti(!) (pl. GTA V) értékek 4K-ban. Ezekkel senki nem fog így játszani, mégis ezek alapján összesítettek.
A mantle nekem nem szúrja a szememet, nyugodtan teszteljenek vele, hiszen ha gyorsabb mint a DX11, akkor azt fogják használni az emberek és azt kell tesztelni amit használni fognak, nem azt amit nem.
Egyébként ebben az esetben a mantle lassabb, mint a DX11. Nézd meg a Thief diagramot a tesztben, full HD-ban a 980 elveri a 390X-et, és 4K-ban is csak 1 fps előnye van a 390X-nek ami kevesebb, mint más DX11-es játékoknál.
-
Parano1d
tag
Ez már csak csűréscsavarás. Nem a hűtésre gondoltam, hanem az órajelekre.
Nem mintha változna a teljesítményük attól, hogy 1000, vagy 1020Mhz-en ketyeg a mag. Még a több shaderrel rendelkező, magasabb órajelen (50Mhz) járó kártya is csak kb 5%-al gyorsabb. Ami javíts ki ha tévedek, de észrevehetetlen különbség. -
daveoff
veterán
Gondolom olvastad Szaby hsz-eit a Fury topikban, én azért nem biztos, hogy elvetném a 970-et sem, mint ahogy a vásárlók döntő többsége nem is teszi. Bizonyos okokból a 970 nekem sem szimpatikus, de teljesítményben, és árban nagyon rendben van, ami a lényeg. Nekem ez hitelesebb, mint a PH teszt, azzal, és olyan beállításokon tesztelt, amivel használjuk őket.
[link]
Ha a 970 a Fury-t szorongatja, akkor a 390/390X hol lehet valójában? Vagy a Fury egy szinten lenne a 390X-el? PH teszt szerint nagyon nem....szóval értitek.(#142) Parano1d: a legtöbb tesztben a 390X max a ref 980-at tudja szorongatni, és a valóság is ehhez lehet közel
-
daveoff
veterán
válasz
Parano1d #138 üzenetére
PH tesztet inkább hagyjuk, ahogy abban átlagolták az eredményeket, az kritikán aluli, enyhén szólva is megtévesztő az eredmény. ezzel nem a 980-at akarom védeni, félre értés ne essék, de szerintem sokaknak szúrja a szemét.
és igen, nincs nagy különbség, pont ezért én a 980 mellett tenném le a voksom, még akkor is, ha az lenne gyengébb egy leheletnyivel(de nem az). persze az ár sem utolsó szempont, ha 390X olcsóbb(de nem az), akkor az a logikusabb döntés.
-
Parano1d
tag
Amúgy kemény 4 napja volt a PH-n teszt a 390X/390-ről, átlagolva kb ugyanaz jött ki, hogy 390X gyorsabb a 980-nál, 390 pedig egy szinten van vele. DX11 játékoról van szó.
Nyilván alkalmazás/driver függő a dolog, de leszögezhetjük, hogy nagy különbség nincsen teljesítményben. -
daveoff
veterán
Látván a teszteket tényleg úgy néz ki, hogy a 390X-et sikerült felhozni 980 szintre, ez azért nem rossz. Én mondhatom, hogy jól ismerem a Hawaii-t, és a Maxwell-t is, de ha összegzünk mindent, és látjuk, hogy 1-2fps eltéréssel szinte azonos teljesítményt nyújt a két kártya, én szó nélkül a 980-at választanám. Lehet később változik még a véleményem, de most így gondolom.
-
Laja333
őstag
És biztos jó teszteket néztél? Szerintem eléggé szemlélteti a növekedést az, hogy a custom órajelen járó gtx 980 rendre kikap a 390x-től, sőt a sima 390től is. Pedig az csak egy átnevezés, nem?
A hírhedt 970 pedig nem hogy nem éri el a 290x-et, de lassan már egyel alacsonyabb ligában is fog játszani...
Igaz, a 980ti nagyon állja a sarat, de azt senki sem vitatja, hogy piszok jól eltalált az a kártya.De aki a mostani és ez előtti tesztek után 980 és ez alatti NV-s kártyát vesz, az nem kicsit öntökönrúgja magát, aztán még egyszer. Figyelembe véve, hogy telejesítményben dx11-ben is egy szinten vannak.
-
szacsee
nagyúr
+1
Minden új szabvány, technológia megjelenésekor ezt látom, de ahogy a jóslatok úgy a csodadriver sem akar bejönni.
Low level api mizéria elején 3 dolgot irosgattak.
1: 3-5 ezer rajzolási parancs helyett lesz 100 ezer.
2: csökken a késleltetés
3: fürgébb lesz mint a dx11-es kód 10-30 százalékkal.
Ezek amíg nem teljesülnek addig leszarom az amd innovatív ötleteit, ha ugyanúgy néz ki és ugyanolyan sebességgel fut nv-n is. A tesztek szerint eddig nem gyorsultak a radeonok dx12 alatt mint ahogy a pr beharangozta. Majd ha játékokban annyival gyorsabb lesz, akkor elgondolkodom rajta. Amúgy 7950-em van és úgy néz ki nv-re váltok.
Ez az egész ua. mint a krízis megjelenésekor a quad core optimalizáció.
Vettem egy quadot, más meg felhúzta az e8400-at és ugyanott volt, a gáz az hogy anno E8400-ról váltottam. -
Laja333
őstag
Ez még mindig nem kerek... Gondolok itt főleg arra, hogy 1280-ban a 290x ver mindent.
" In fact, AMD sent us a note that there is a new driver available specifically for this benchmark which should improve the scores on the Fury X, although it arrived too late for this pre-release look at Fable Legends "
-
janos666
nagyúr
tévhit, hogy a 144Hz-es monitort ki kell "hajtani"
Nem kötelező, de van igazságalapja.
Egy 60Hz-es LCD mehet úgy, hogy kap 60fps-t és 60Hz-en pulzál a háttérvilágítás (valódi black frame insertion), így gyakorlatilag tű éles és kellően folyamatos hatású lesz a mozgókép.
Ez inkább drágább HDTV-knél jellemző, ott is inkább a menük mélyére elásott üzemmód, de létezik PC monitoroknál is, akár olyanokon is, amik opcionálisan képesen 120-144Hz frissítési frekvenciákra is, a pulzálás csak választható alternatíva, ami magas valós frissítési frekvenciánál szükségtelenné válik, de olyankor kell a magas fps is.
Ha 120-160Hz-en hajtod, akkor nem kell pulzálni, de akkor oda kell neki adni a 100+ fps-t is, mert ha csak ~60fps-t kap, de nem pulzál hozzá 60Hz-en, akkor ismét el fog mosódni a mozgókép és nem fog elég folyamatosnak tűnni a mozgás.A fentiek miatt én nagyon 100+Hz ellenes vagyok, mert sokkal nehezebb stabilan >=100-140fps-el etetni egy monitort, mint fix 60-al, és a monitornak is nehezebb a dolga 144Hz-el, mint jól belőni egy 60Hz-es impulzus módot (komplikáltabbá válik már a VGA és monitor közti átvitel is, a belső feldolgozás is, stb, ha nyomjuk felfelé az Hz-et és fps-t).
Egyetlen gyakorlati probléma szerintem, hogy elszokott az emberek szeme a pulzálástól (CRT monitor/TV) és nem bírod őket rávenni, hogy nézzék 5 percig úgy, hogy fáj tőle a szemük, de pár perc vagy nap alatt megszokják. Általában pár nap múlva már nem is látják, ha nem erre koncentrálnak, pár hét múlva ha direkt látni akarják, akkor sem mindig sikerül. Az a pár perc kinyírni látszik a technológiát. Bár erre is van jó próbálkozás, mikor szabályozható különböző fokozatokban, hogy lassabban szokhass hozzá. De ennek is egy másik oldala, hogy mindehhez nem árt kicsit érteni is a dolgot, hogy miért jó ez valakinek, mert elsőre csak azt látják, hogy sötét és vibrál a kép, az elveszik, hogy "hé, 60Hz, 60fps és tű éles, folyamatos a mozgás".
-
arn
félisten
Anand [link]
-
Loha
veterán
válasz
velizare #129 üzenetére
Fury X-ből nem lehetett az, mivel abból nem létezik csak referencia, boltban sem fog senki OC-sat venni belőle, míg 980 Ti-ből meg főleg csak azt fognak, de SZVSZ teljesen fair az alábbi összehasonlítás is:
Gigabyte GTX 980 G1 Gaming vs.
Asus Strix R9 390X
Asus Strix R9 Fury -
Abu85
HÁZIGAZDA
Mindegyikben van profil, de a 15.201.1151-es csomag a legjobb, viszont a 1002B2 buildnél van egy újabb is. A felsoroltak közül egyik driver sem a legújabb, de az is igaz, hogy a legújabb driver csak egy napja érhető el, és elég nehéz elvárni a médiától, hogy hirtelen mérjen újra minden Radeont. Ezt lényegében senki sem csinálta meg.
(#95) NetTom: Akkor elképzelhető az is, bár ettől valszeg még Windows 10 only marad. Úgyis használ Typed UAV-t.
(#96) janos666: Még nincs Fermire DX12 driver. Azt sem tudni már, hogy mikor lesz. Legutóbb augusztusra volt ígérve.
-
Tomcat
őstag
Akkor ez az amit én valószínűsíthetően nem fogok tudni a videon túl élőben is megnézni, hiába lesz majd valamikor esetleg DX12 hardverem, ha nem fogom tudni futtatni DX11 módban W7 alatt...
-
daveoff
veterán
Hát a 60Hz már leáldozóban van, de nem 1 év lesz az átállás az biztos. Az összes megjelenő freesync/gsync monitor már 144/165Hz-es, szóval látszik milyen irányba tartunk. Illetve az is tévhit, hogy a 144Hz-es monitort ki kell "hajtani", ha még nem próbáltál, és van rá lehetőséged javaslom próbálj ki egyet. 144Hz-es monitoron a már 60fps sem ugyanaz, mint egy 60Hz-esen....
-
-
Joshi
titán
Pont az lenne a lényege a DX12-nek, hogy megoszlik a terhelés a cpu magok között. Így az AMD procik sok magján eloszlik a terhelés, ezáltal csökken az egyébként gyenge egyszálas terhelés. A grafikonon pont az látszik, hogy a Fury X nem használt 2 magnál többet ami érdekes.
-
-
Joshi
titán
"Pont az általad említett kártyák a bizonyítékok arra, hogy régebben pariban lévő nVidia és AMD kártyák közül az AMD-k jobban használhatóak a mai napig."
Persze javultak az fps értékek bizonyos játékoknál, de olyanoknál amivel már a kutya se játszik. A frissen megjelent játékokhoz mindig új kártya kell, én ezt akartam megfogalmazni. Az "új"-ra azt értettem hogy fullos grafikával megfelelő fps értékkel. Egyre népszerűbbek a 144Hz-es kijelzők, oda kell a kraft rendesen. Nyilván minden kártya tudja futtatni az adott játékot, csak az a nem mind1 hogy milyen felbontáson és milyen részletességgel. -
úgy látom, amd driveren még maradt hely az előrelépésnek. 2corenál többől nem profitál a fury x, mint "dx11 legacy" módban működne a driver.
-
Én az "AMD-s vagyok" csoport tagjaként azért hagy emeljem fel az újjam, és mutassak rá arra, hogy a GCN nem ma jött, és a "jövőtállósága" terén nem vagyok meggyőzve, holott 7950-esemet ezért vettem.
Hol tartunk ma? Ott, hogy a Kepler és a GCN 1.0 dettó Dx12 Dx_Level_11_1 szintű kártya.
Akkor mi a fészkes fenéért volt "időtálló" az AMD GCN Radeon 7950, ha a vele kb. egyidős nVidia Kepler GeForce 680 ugyanolyan szinten tudja támogatni a Dx12-őt? Még a Dx12 tesztek szerint is kb. egy szinten van vele ma is.
Akkor milyen jövőtállóságról beszélünk?
-
Jack@l
veterán
válasz
Malibutomi #109 üzenetére
Hurrá, akkor csak beéri a középkategóriás a csúcsot
-
-
Jack@l
veterán
Baj hogy nem referencia hátő van egy kártyán ami miatt feljebb boostol? Nem is lehet már referenciát kapni azokból...
De nem csak a 980ti-nél vannak tök més számok, mint az amd cherry picked diáinál, hanem a 980 is elég szépen felzárkózik a fury-kra. (gyanítom tuningal le is hagyná őket)
Most akkor hol az igazság a nagy hbm-es és deszarleszaznvidia dx12 alatt mesékből? -
MongolZ
addikt
Nem. Azt írtam, hogy nekünk, felhasználóknak ez jó a használtpiacon, mert az AMD kártyák egyébként is nyomott áruak, miközben általában erősebbek az ugyanolyan használtpiaci áru nV kártyáknál (kivételek persze bőven vannak).
Én arra gondolok, hogy az AMD erőltethetné, amit elkezdett:
Megmutatni a vásárlóknak, hogy nézzétek, mi adunk drivert az IGP-hez a x év múlva is, míg az Intelnél van olyan, hogy ki se jött a hardver, de már nem adnak hozzá drivert. Lehetne eröltetni tovább ezt a jövőálló dolgot, akár példával bemutatva a múltból (persze ez mindig necces téma, és gyanítom, a vásárlók többsége sz*rik rá).Az a baj, hogy ennek a levét mi, felhasználók isszuk meg, mert az 1 bites vásárló annyit lát, hogy MOST ez a kártya jobb. Az, hogy pl. 6 hónap múlva, vagy 3 év múlva nem kell majd kártyát cserélnie, mert az egyik még mindig elfogadható szinten teljesít, míg a másik már meg se moccan, rohadtul nem érdekli. Így a cégek is arra kényszerülnek, hogy "ma jó, de holnap már nem biztos, hogy elég" kártyát gyártsanak.
-
daveoff
veterán
Ezt azért Te sem gondolod komolyan, ugye? De ha tényleg így van, hogy azért vesznek sokan AMD-t, mert később jól fog teljesíteni, akkor elég sokan benyalták az AMD marketinget. Azzal, hogy Te veszel egy használt kártyát nem fogod az AMD piaci részesedését növelni, mert azt már megvette egyszer valaki. Szóval érted.
-
Raysen623
addikt
Ha szabad megjegyeznem egy dolgot: én mindig új VGA-t veszek, amikor veszek. Viszont sokáig használom őket, és utána ha lehet el is adom. Tehát pont a két példa közt vagyok valahol. Valóban tartós VGA-nak tartom a jelenlegi AMD kártyámat, míg ezt a jóval korábbi NV kártyámról sajnos nem mondhattam el (3 hónap után kuka). Azóta persze változott a helyzet és már mindkét oldal termékével ki lehetett bírni huzamosabb ideig, ami jórészt a DX11 hosszú és szándékosan elnyújtott életének volt betudható. Most jön egy új API, amivel majd kiderül a régi VGA-kra vonatkozóan is mennyire használhatóak. Okos vásárló pedig most kivár a tesztekig. Nagy meglepetéseket persze nem várok személy szerint.
-
MongolZ
addikt
válasz
Petykemano #100 üzenetére
Biztos, hogy a vásárlók nagy része azt gondolja, amit Te mondasz, viszont biztos, hogy a vevők jó része pont azért vesz AMD-t, mert tudja, jobban fog teljesíteni később. Ez főleg a használt terméket vásárlóknak jön jól (mint pl. én).
Új hozzászólás Aktív témák
- ÁRGARANCIA!Épített KomPhone i3 10105F 8/16/32GB RAM RX 6500 XT 4GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! iPhone 14/iPhone 14 Plus/iPhone 14 Pro/iPhone 14 Pro Max
- Bomba ár! Dell Latitude E6510 - i5-560M I 4GB I 250GB I DVD I 15,6" HD+ I Garancia!
- Bomba ár! Lenovo ThinkPad P43s - i7-8G I 8GB I 256GB SSD I Nvidia I 14" FHD I Cam I W10 I Garancia!
- DELL PowerEdge R630 rack szerver - 2xE5-2650v3 (20 mag / 40 szál, 2.3/3.0GHz), 32GB RAM, 55992Ft+ÁFA
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: PC Trade Systems Kft.
Város: Szeged