Új hozzászólás Aktív témák
-
Csak részben kapcsolódik a topikhoz, de megnéztem, mit tud egy IGP egy belépőszintű VGA ellen. Muris...
-
válasz
#85552128
#23263
üzenetére
Sokat nem, de 5%-ot esetleg pont igen. Meg a +2GB RAM-ról se feledkezzünk meg.
Mindegyik kártyához oda van írva a friss driver, de a TPU (meg sok más site is) jellemzően lódít egy kicsit - nem mérnek újra mindent minden kártyával. Az újabb driver az újabb játékoknál simán számíthat.
A 270 az nem a 7850, sokkal inkább a 7870 alacsonyabb core és magasabb memória órajellel.És hidd el, pontosan tudom, milyen a 460 DX11 alatt

-
-
válasz
#85552128
#23064
üzenetére
4-5 éve akkor nyergeltünk át a "c" technológiára való várakozásra, amikor "b" leszerepelt, vagy legalábbis nem váltotta be a nagy reményeket. Most már akkor "c" technológiára várunk, amikor "a" még kifutó fázisban sincs, és "b" gyakorlatilag meg sem jelent. Hja kérem, gyorsul a fejlődés
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
válasz
Laja333
#23014
üzenetére
Így van, és nyilván nem azért, mert az Arkham Knighttal vetekedő minőségben jött ki, és a sok technológiai recska mellé beépítettek egy "keresztülfejelem a monitort" kategóriás effektet tettek a motor alapjává, amit vagy bekapcsolva hagysz, vagy az FPS meglátogatja a pincét. Namost miután ez volt az egyik első (első?) DX12-only játék, nyilván a technológiára is rányomta a bélyegét.
Szóval szerintem pont fordítva van - nem azért szidják a QB-et, mert DX12, hanem azért szidják a DX12-t, mert QB. -
válasz
Laja333
#22720
üzenetére
Mondanám, hogy de, csak egy kicsit túlzottnak érzem, hogy ennyire tényként kezelitek ezeket a számokat. De ja, valahol a Fury X környékén várhatók a kisebb cucc specei.
(#22718) stratova: lehet számítani a 6SE-re, az persze érdekes kérdés, hogy a kisebbik chipbe is beletesznek-e 6-ot. Én inkább a "nem"-re tippelnék.
-
válasz
proci985
#22716
üzenetére
A Crysis 3 eléggé backend-heavy még MSAA nélkül is, az újabb játékokra ez egy kicsit kevésbé jellemző, szóval azért ez félre tud vinni.
FE / FE: sure, de a Titan XP-ből nincs custom. A hardware.fr tesztben a Titan XP OC és az 1080 AMP Xtreme összevetés egész reálisnak tűnt, mindegyiknél +13-15% a valós core clock a boost1-hez képest.
4096 ALU-val és minden bizonnyal 64 ROP-pal 1200-as órajel mellett kb. az 1080-at lehet utolérni, de még az is necces. Ha HBM lesz mellette, akkor jobban fest a dolog, és akkor a core clock emelés is hatékonyabb lehet. Szóval 1500-zal már elérhető (lenne) a T-XP is.
-
válasz
olymind1
#22641
üzenetére
Új architektúrát nem lehet "gyorsan" kiadni, mert a tervezőasztaltól a megjelenésig jellemzően évek telnek el. Gondolom, a Pascal esetében ez kevesebb lehetett, de nem lehet nagyon kevés, mert egyszerű processz shrinknél azért többről van szó.
Szerintem inkább az történhetett, hogy amikor látták, hogy a Volta odébb fog ballagni 2017-re (akár azért, mert megcsúsztak, akár azért, mert szerettek volna több inputot belevinni a DX12-vel kapcsolatban, és késleltették a feature tervezés lezárását), akkor döntöttek úgy, hogy jöjjön a Pascal 16nm-en. Egyrészt így ki tudják próbálni az új node-ot, másrészt addig is van új termék, amiből jön az árbevétel. A 2016. közepi Pascal launch-csal most abban a helyzetben vannak, hogy 2017. 2. felében bármikor hozhatják az új szériát, csak a konkurenciára kell figyelni.(#22643) schawo: ejj, de ismerős gondolatmenet
Mondjuk az 1-2 ezer bukóra kíváncsi leszek, az szerintem kicsit optimista. -
válasz
lezso6
#22607
üzenetére
Egyáltalán nem szükséges gyártóspecifikusan optimalizálni. Ettől szabvány.
A szabvány azt garantálja, hogy működni fog, azt nem, hogy gyors lesz. Mivel a DX12 elvileg hardverközelibb, a jó teljesítmény érdekében jobban figyelembe kell venni az egyes architektúrák sajátosságait. Eddig ezzel foglalkozott a driver, és bizonyos esetekben most is tud (shader-csere, ütemezési finomságok, etc.), de mások (pl. memória-stratágia) ki vannak csavarva a kezéből, és azt az alkalmazásnak kell tudnia.
-
válasz
szmörlock007
#22495
üzenetére
A grafikonon mindkét színű ár netto.
-
válasz
Malibutomi
#22464
üzenetére
Ne felejtsük az OGL-t. Régen minden jobb volt

-
válasz
#Morcosmedve
#22367
üzenetére
Á, értem. Akkor csak jelzem, hogy az a smiley kb. azt jelenti, hogy "mit beszélsz? ne má'!"

-
válasz
#Morcosmedve
#22358
üzenetére
Igen, de miért forgatod a szemeidet?

-
válasz
Petykemano
#22350
üzenetére
Amit abu technohalandzsázik fényezve az AMD frekvencia-feszültség stabilizációs és modulációs képeségeit, valójában nem mást jelent, mint azt, hogy az nvidia chipek valójában sokkal jobbak, csak a variancia miatt kénytelenek a leggyengébbhez készíteni a specifikációt.
... sokkal jobbak, és ezért úgy tudják belőni a teljesítményt és a fogyasztást is, ahogy a legcélszerűbb a piaci érdekek szempontjából. Vajon miért lehet az, hogy az 1070-es és az 1080-as FE-k 1700-1750 körül boostolnak, az 1060-ak pedig bőven 1800 fölé? Szerencséjük volt az 1060-nal, nem?
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#22356) FLATRONW: na ez jó hír, a Wattmannal nem volt éppen öröm monitorozni...
-
Szóval akkor most írsz valamit, utána leírod, hogy én mit válaszoltam volna rá? Te vagy a 3. egy héten belül, aki ennyire önálló - ez valami új divat itt?

Nem tudom, milyen teoretikus lapkáról van szó, az a hsz, amire válaszoltam, azt taglalta, hogy az AMD mennyivel ügyesebb mindenkinél a variancia kezelésében. Ami lehet, hogy elméleti szinten, algoritmusok tekintetében tényleg így is van, de a gyakorlatban annyira nem fordul jól le, hogy az valami csuda. Felhozod pozitív példaként a Polarist, aminek annyira kontrollálhatatlan a fogyasztása, hogy állítólag még az AMD is csodálkozott, hogy túllépi a PCIE-szabványt, és akkor utána mást trollozol le? Ejnye-bejnye

-
-
Ez így nagyon pongyola. Ez az elemzés az adott negyedév eladásait nézi (azt most hirtelen nem vágom, hogy unit vagy USD alapon, mert az sem mindegy), ráadásul nem is csak a dGPU-kra. Az nVidia nem vesztett 28%-ot, hanem az eladásai csökkentek ennyivel Q/Q. Ez a Q2-ben történtek alapján nem olyan nagy meglepetés - ezzel szemben az, hogy az AMD növelni tudta a sales-t, már sokkal inkább, úgy tűnik, valamit elkezdtek jobban csinálni a piacon. Nagyon kíváncsi leszek a Q3-ra.
-
válasz
Habugi
#22013
üzenetére
Persze, ahogy a Fury Nano is mutatta, a Radeonoknál a legnagyobb gond, hogy határközeli a gyári frekvencia, és olyankor a fogyasztás nem optimális. Lehet, hogy van pár példány, ami sokkal kevesebb feszültséggel is elmegy, de nyilván ha ez általános lenne, akkor így lennének feszelve a gyári kártyák is. Amíg a gyári SKU-k ilyenek, addig azt kell összehasonlítási alapként használni.
-
válasz
Venyera7
#22007
üzenetére
Állati jó gumicsont ez a perf / Watt javulás, mert attól függően, hogy milyen alapon nézed, teljesen más jön ki.
Ha azt nézzük, hogy kb. azonos fogyasztás mellett hogyan javult a teljesítmény:
GTX 960 -> GTX 1060: +75%
R9 380X -> RX 480: +47%Ha azt nézzük, hogy kb. azonos teljesítmény mellett hogyan javult a fogyasztás:
GTX 980 -> GTX 1060: +39%
R9 390 -> RX 480: +52%Az első megközelítésben az nVidia jobb, sokkal, a másodikban az AMD, szemmel láthatóan. Melyik a helyes? Természetesen mindkettő

Az eltérésnek pedig az az oka, hogy a Maxwell 2 / Pascal architektúra láthatóan nem skálázódok jól a 150W-os fogyasztási szint alá. Ebből tegyen valaki igazságot. (súgok: aki azt állítja, hogy tud, az füllent
) -
válasz
#65755648
#21950
üzenetére
Még 1x leírom, mert úgy látszik nem voltam elég világos: SENKIT NEM ÉRDEKEL, hogy maga a skálázás önmagában mennyivel gyorsabb vagy lassabb egyik vagy másik kártyán.
Nem, tényleg nem voltál elég világos, ugyanis egy olyan vitába kapcsolódtál be, ami kifejezetten a skálázási algoritmusról szólt. Visszatértünk az elejére - olvasd el, amire válaszolsz.
A többivel kapcsolatban meg - abszolút nem volt elfogadható, amit előadtál, mégis mire számítottál válaszként? Ha ennyire érzékeny vagy, akkor esetleg jobb lenne nem kötekedni. Ha kultúrált stílusban adtad volna elő a kételyeidet, és nem építesz fantazmagóriákat azzal kapcsolatban, hogy mit miért csinálok, akkor én sem javasoltam volna, hogy menj orvoshoz

Részemről is befejezve a dolog, nem volt egy túlzottan építő vita, viszont annál több benne a tanulság...
-
válasz
#35434496
#21915
üzenetére
Jók a felvetései, de nem elég alapos. A 290X pozícionálását rosszul látja, és a vele kapcsolatos percepciót (gyors, de igénytelen a hűtése, ehhez képest drága) nem veszi figyelembe, ami szerintem sokat nyomott a latban. A Maxwelltől meg úgy van, ahogy írja, abban sok meglepő nincs. Szerintem Jensen éjszakákon át hánykolódott, amikor arra gondolt, hogy a 970-en darabonként 70 USD-t buknak
, de láthatóan hosszabb távon bejött a dolog. -
válasz
#65755648
#21910
üzenetére
Nohát, megvádolsz mindenfélével, utána pedig elképeszt a válasz? Szerintem olvasd végig, miket vágtál a fejemhez, utána pedig hívjál bátran moderátort.
Face-to-face sokkal kevésbé lettem volna türelmes, a 21853-hoz hasonlók után elküldtelek volna valami erősen deklaratív helyre, olyan szavakkal, amiket itt moderálnak
A dolgok értelmesebb végével foglalkozva:
#2: szó nem volt csalásról, azt mondtam, hogy a teszt nem jó. Ha nincs CPU-limit, akkor a mérés rossz, ha pedig van CPU-limit, akkor nem alkalmas arra a mérés, amire a srác használta. Most minden bántó szándék nélkül - komolyan nem érted, mi a gondom a teszttel?
#3: ha visszaszerelem a 950-et, akkor küldök képet.
B1: fél éve mondogatom, hogy ha az AMD előáll valami értelmes megoldással, akkor teszek velük egy újabb próbát. A 460 erősen határesetes ilyen szempontból, de miután az nVidia b***ik csökkenteni a GM206-os kártyák árát, jelen tekintetében sem rosszabb vétel, mint a 950 vagy a 960. Az pedig megintcsak tudott dolog (és szoktam is mondani / írni), hogy 2 év távlatban az AMD kártyák 10-15%-kal erősődnek az induláskori helyzethez képest (a Kepler esetén több volt, de az több szempontból speciális helyzet volt, egyelőre nem tekinteném trendnek), tehát ha a jelenben hasonló értékű a két megoldás, akkor másodlagos szempontként figyelembe veszem, hogy mi várható a következő években. -
válasz
#65755648
#21902
üzenetére
Keleten a helyzet változatlan - nem olvasod el, amit írok, helyette kitalálsz dolgokat, azokból következtetéseket vonsz le, és aztán hőbörögsz.
#1: paranoia...
#2: ha CPU-limit volt fullHD-ben, akkor mennyire lesz releváns az egész teszt eredménye? ha még nagyobb a CPU-limit, akkor még jobb az AMD, mert még kevesebb FPS-t veszít a VSR-rel? tényleg ennyire nem érted, amiről beszélsz?
#3: fullHD monitorom van, ami elbírja a WQHD input paramétereket, így lehet vele WQHD-ben sebességet tesztelni. a többi mondásod innentől hülyeség.
#4: tök felesleges...
#5: nem, időpocsékolás tömörített videokat nézegetni, amikor látom a képet a monitoron. és valóban, az AMD sem elmosott.
B1: nem tudom, miért gyanús, talán kérdezz meg egy orvost. azért vettem a 460-at, mert szeretnék egy olcsó, normális kártyát a következő 3 évre. azt a sok marhaságot, amit hozzáköltöttél, szintén mutasd meg a dokinak.
B2: ld. #3Konklúzió: szerintem igazából Te b***akodni akarsz itt, semmi mást.
-
válasz
#65755648
#21853
üzenetére
Azzal sok mindent nem lehet kezdeni, hogy nem azt olvasod, amit írok, hanem beleképzelsz minden marhaságot, és aztán azokon hőbörögsz. Amúgy ezt az utóbbi időben egyre többen csináljátok, lassan kész szociológiai tanulmány lesz ez a fórum

Utolsó kísérlet, ha ezt sem sikerül értelmezni, akkor oh well.
1. Egészen eddig az algoritmusról volt szó, Te keverted bele, hogy melyik kártya mit tud. Tekintettel arra, hogy az AMD kártyák jellemzően kevesebb FPS-t vesztenek a felbontás növelésével, nyilvánvaló, hogy magára a funkcióra jobbak, mint az nV-k. Ezen érdemes volt duzzogni, nem?
2. Semmi olyat nem írtam, hogy a 78% extra pixel 78% extra teljesítményt igényel. A fullHD -> WQHD váltás jellemzően 40-60%-kal növeli meg a frametime-ot. Ebből nyilván 1-1 játék kilóghat valamennyire, de a 10% az orbitális baromság (esetleg CPU-limit), és ha képes vagy reálisnak elfogadni, akkor dilettáns vagy. Sorry.
3. Arra persze lehet utalgatni, hogy elb***tam a mérést, csak nem feltétlen okos dolog. Igen, ellenőriztem minden lehetséges módon, hogy jók-e a mérések. Jók. Lehetne több játékkal tesztelni? Persze. Pl. Te is megteheted.
4. Arra hivatkozol, hogy a DSR sebességhátrányát elnyomják más szűk keresztmetszetek - magyarul tényleg nem tudod, hogy működik.
5. Én is a saját szememnek hiszek, sőt, mi több, én csak arról nyilatkozom, amit látok vele. Mivel nVidia kártyán néztem a DSR-t, arról tudok nyilatkozni, AMD-ről egyelőre nem. Ha nem hiszed, hát nem hiszed.Zárásként: akkora elvakult nVidia fan vagyok, hogy ezt a hsz-t egy RX 460-on írom - most vettem át 2 órája. Lehet, el kellene gondolkodnod (meg a másik két derék kollégának is, aki az elvakultságomat feszegeti), hogy nem nekem vette el a márkaőrület az eszemet...
-
válasz
#65755648
#21834
üzenetére
Case closed, my ass

Egyrészt, most komolyan azt várod, hogy az eddig szentnek és alapigazságnak tekintett CB teszt konklúzióját az AC-ről bíráljam felül, mert szerinted az AMD-t kell élesebbnek látni? Töltögessen ezért videokat a rosseb, inkább futtatok egy játékot, azon is elég jól látom, hogy a homályosítás nem észrevehető.
Másodszor, a második idézett teszt az valami zseniális. Nem kellett volna legalább egy picit gondolkodni rajta, mielőtt bedobod azzal, hogy a VSR sokkal gyorsabb? Belegondoltál egyáltalán, mit mér az a teszt? Elárulom: azt, hogy melyik kártya mennyi sebességet veszít, ha felkapcsolunk 1080p-ről 1440p-re vagy 1800p-re. Ráadásul azt is rosszul, mert no way, hogy a Far Cry 4-ben vagy a BF4-ben 10-15% FPS-t vesztünk a +78% pixellel.
Megmondom, hogy kell megmérni, hogy mennyire gyors vagy lassú a DSR vagy a VSR: kell egyet mérni natív WQHD-ben, aztán kell egyet mérni fullHD-ből 1.78x-osra felskálázva. Én ezt meg is csináltam a GRID Autosporttal az elmélet szajkózása helyett:
fullHD: 63.55 FPS
WQHD: 45.22 FPS
fullHD + DSR 1.78x: 44.71 FPSSzóóóóóval, az nVidia DSR-je kőkemény 1%-ot ront az FPS-eken. Az AMD-é mennyivel gyorsabb? 5x? 10x?
And who the fuck cares?Összegezve: a képminőség között elvileg van különbség, csak a gyakorlatban ez leginkább akkor látszik, ha az ember ezt szeretné látni. A sebességben is lehet különbség, az AMD algoritmusa nem tudjuk, mennyivel gyorsabb, de akár 1%-kal is javíthatja a framerate-et az nVidiához képest.
Újabb kiütéses győzelem a piros oldalnak. Case closed, ahogy mondod...
-
válasz
lezso6
#21804
üzenetére
Igen, én is tisztában vagyok ezzel, nem is én hivatkoztam arra, hogy az AMD jobb, mert hardveres

Jó a Lanczos-algoritmus, csak szerintem felesleges ekkora feneket keríteni neki, mert a gyakorlatban alig van különbség a fullscreen képek között.
(#21803) Abu85: ahogy lezso képein is látható, mindegyik algoritmusnak van előnye és hátránya. Az idézgetett teszt szerint pedig elhanyagolható a különbség a kettő között egy játékban. Szóval ez egy újabb olyan eset, amikor az AMD elméletben jobb, a gyakorlatban meg WTFC.
(#21802) gyiku: hát igen, a sok lelki szegény meg veszi az nVidiát. Viszont legalább boldogok (vagyunk)

-
... és már ismét csúsztatás-országban vagyunk
Minden tesztben az AMD a jobb, ami konkrétan azt jelenti, hogy két tesztben nagyítóval kell keresni az eltéréseket, a harmadikban pedig az AMD jobban kezeli az aliasingot, viszont az nVidia ad élesebb képet. Hát ez meg hogy lehetséges? 
És miért is annyira jó, hogy az AMD a monitor hw-skálázóját használja? Annál nem lehet jobbat írni szoftveresen? Különösen, ha nem egy sokszázezres monitorról van szó? Ejjjj...Szóval megint ott tartunk, hogy az AMD jobb, mert AMD. Ezt eddig is tudtuk

-
Egyrészt ez marhaság, én használtam egy csomószor a DSR-t, és ehhez még csak nem is közelít az eredménye. Még mindig egyrészt, az elmosást ki lehet kapcsolni. Azon persze meg sem vagyok lepve, hogy az AMD megoldása szokás szerint jobb - legalábbis elméletben

Másrészt, a HUD valóban lehet probléma, bár látni kellene hozzá, hogy véleményt tudjak mondani róla (én már csak ilyen földhözragadt vagyok
).
Harmadrészt - miért nem? Mondjuk személy szerint leszarom a DX12-t, de hogyan tudunk ilyet kijelenteni a még meg sem jelent DX12 rendererről?(#21787) proci985: ohshit...
-
válasz
proci985
#21776
üzenetére
Azt próbáltad, hogy fizikailag is kiveszed az egyik kártyát? PC magic, tudod...
(#21777) Pug: valószínűleg nem vagy többségben ezzel a véleménnyel
Nekem pl. még egy FXAA-val sincs semmi bajom, de ez a temporal AA iszonyúan rombolja a részletességet, annyira homályos.
A 2xMSAA nagyon sok esetben gyenge megoldás. Persze azt is értem, hogy azért ezt nézték, mert a 4x kb. felezi a teljesítményt - ennyivel nVidián be lehet próbálni a DSR-t is, meg mintha AMD-n is lenne már erre megoldás. -
Alaposabb elemzés a Deus Ex-ről. Ezek a mérések nagyon ALU-intenzívnek mutatják a játékot, máshol 70% volt a különbség az 1060 és az 1080 között, itt meg majdnem 90. Temporal AA meg mehet a kukába

-
válasz
huskydog17
#21697
üzenetére
Igen, a CB képein a Med és a Hi között van nagy ugrás. A korábban idézett youtube tesztben meg a Low és a Med között volt. A káosz fokozódik. Már megint oda fogunk jutni, hogy a játék megjelenése után fél évvel elgondolkodik az ember, hogy most már esetleg érdemes megvenni

-
válasz
Locutus
#21684
üzenetére
Most látom, de lehet, hogy 5-10 év múlva már beépített FXAA-val fogok rendelkezni

(#21692) NetTom: és akkor megint - pls olvasd el, amit írtam. Nem azt írtam, hogy nem látom a különbséget, hanem azt, hogy nincs sok. Mozgás közben pláne.
A mostani vas januárig garanciális, úgyhogy ősszel csereérett lesz. Egyedül azért gondolkodom a megtartásán, mert jó minőségű kártya, garancia nélkül is eladható lesz.
Nem a rákölthető pénz a gond, hanem az, hogy hardver terén sóher vagyok
(#21693) gollo91: ha valaha lesz jó áron 470, az akkor is 20-25e plusz. Kétségeim támadtak, hogy mennyi értelme van.
-
válasz
FollowTheORI
#21675
üzenetére
Pedig csak el kellett volna rendesen olvasni, amit írtam
Segítek: a kulcs a "kvázi-láthatatlan eredményű effektek". Miután a játék medium beállításon majdnem ugyanúgy néz ki, mint Ultrán, még annak sem látom értelmét, hogy a High szintre lőjek hardvert.(#21674) imi123: ez is egy opció - ráadásul ilyenkor AA sem kell

-
Minél többet olvasok erről a Deus Ex-ről (a kaotikus teszteredményekkel és a kvázi-láthatatlan eredményű effektekkel), annál inkább érik bennem az elhatározás, hogy beérem egy RX460-nal, vagy marad az átmenetinek szánt 950. Most én vagyok a hülye?

-
válasz
Venyera7
#21620
üzenetére
Persze, persze, fülébe v***l, szájába sz***k, stb. Leszámítva persze azt, hogy nem DX12-ben általában, hanem egy bizonyos DX12-es játékban, sőt, nem is egy bizonyos játékban, hanem egy bizonyos játék egy bizonyos oldal általi mérésében, amivel amúgy egyetlen másik oldal mérései sincsenek köszönő viszonyban sem. Micsoda fatális véletlen, hogy pont ezt sikerült kiválasztani...
![;]](//cdn.rios.hu/dl/s/v1.gif)
Szóval abba kéne hagyni ezeket a nagyotmondásokat. A 460 4GB átlagosan a 950 szintjén mozog, a régebbi játékokban kicsit lassabb, az újakban kicsit gyorsabb. Legalábbis azokkal a beállításokkal, amikkel a tesztoldalak a high-end kártyákat mérik, és mindkét kártya használhatatlan FPS-eket produkál az esetek felében. Hogy a kártyákhoz passzoló beállításokkal mi lenne a helyzet, azt egyelőre jótékony homály fedi. Nagyon várom a hardware.fr tesztjét, mert náluk a 950 tesztben is 40-60 közötti FPS-ek voltak.
-
válasz
Venyera7
#21604
üzenetére
Úgy érted, hogy veszek egy 460-ast és akkor több lesz az FPS? Az egy nagyon vicces gondolat, különösen, ha egy 2GB-os tápcsati nélküli verziót veszek. Aztán majd pislogok, hogy hová tűnt a sebesség 20%-a

Ahogy elnézem a 460-as tesztek szórását, ebből a kártyából csak olyat szabad megvenni, amiről látott az ember tesztet. A 2GB-osokkal eleve van valami gond, és az is látszik, hogy extra táp nélkül közel sem tudják tartani a boost órajelet. Szóval érdemes a 460 ajánlgatással óvatosan bánni...
... meg amúgy is inkább a 470 felé hajlok

-
válasz
Venyera7
#21506
üzenetére
Igen, az ilyen csodafegyvereknek a közös jellemzője, hogy Abu bedobja őket a köztudatba, néhány lelkes apostol teleszemeteli vele a VGA-s topikok nagy részét, aztán amikor kiderül a frankó, akkor már a következő csodafegyverről fantáziálnak az érintettek. Így egyensúlyoz már 8 éve az nVidia a kihalás szélén

-
A high end (felsőkategória) az 1070 és az 1080. Efölé luxus / csúcs / whatever kategóriaként jön a Titan X meg az esetleges 1080Ti. Az nVidiánál majdnem minden szériában volt ilyen kiemelt kártya, csak korábban inkább a két GPU-sok vitték ezt a szerepet, mostanra viszont addig shiftelgették a chipeket, amíg egy nagy chipért is el tudnak kérni botrányosan sok pénzt.
-
válasz
lezso6
#21053
üzenetére
Azt majd Ti eldöntitek, hogy pontosan kinek akartok megfelelni - nekem van egy véleményem, azt elmondom, aztán ha másképp lesz, akkor követelőzni meg nem fogok (eddig sem tettem). Ha tényleg száműzitek a DX11-et, akkor is el fogom olvasni a cikkeket, mert engem történetesen érdekel a technoblabla is, csak nem akkor, amikor a vásárlós sapka van a fejemen. Viszont akinek csak vásárlós sapkája van, az nem feltétlen lesz boldog ekkora előretekintéstől. De, ahogy fentebb írtam, Ti döntésetek.
(#21055) rupsz: én továbbra sem hiszem, hogy mostantól csak DX12-ben és Vulkanban van élet AAA fronton. Ill. számítok olyan DX12-es rendererekre, amik gyakorlatilag DX11-es elveken vannak megírva, csak kapnak valami wrappert, hogy elmondhassák, hogy DX12-es, ill. jobb esetben adhassanak a CPU-limitnek. Ettől még lehetnek bennük állat jó effektek.
Nem is mindegyik DX12/Vulkan lesz erdekes technologia szemnpontjabol, azt nem is kell bevalogatni a listaba
Ha év végére ki akarják rakni a DX11-et, akkor pedig muszáj lesz mindet
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
válasz
#45997568
#21041
üzenetére
Amit leírtál, annak pont az lesz az eredménye, hogy a tesztek is átmennek technoblablába, és az oldalnak még kevesebb kapcsolata lesz a realitással. Igen, szükség van egy tesztben modern, előremutató játékokra, viszont:
- Továbbra sem minden játék lesz DX12 / Vulkan, és nem ettől előremutató valami
- A DX12 / Vulkan játékok közül sem lesz mindegyik műszakilag érdekes
- Az új kártyáknál, különösen az új uarch-ok esetén igencsak nem mindegy, hogy a korábbi évek VGA-zabálói hogyan mennek. A highendben talán kevésbé igazlmas ez, de a midrange-ben nagyon is.Szóval, a kulcsszó az egyensúly. Persze, hogy be kell tenni a Deus Ex-et meg a BF1-et, de nem kell feltétlen minden új low-level címet beválogatni, és különösen nem kell elvi megfontolásokból száműzni a DX11-et.
-
A TXAA és társai a lehetőségek szar kihasználása. Én konkrétan egyetlen olyan review-t nem láttam, ahol pozitív értékelést kapott volna. QB ua. Lehet, hogy a cél a filmes hatás, de még jobb lenne, ha az lenne a cél, hogy tetsszen az embereknek. Veszek qrvadrága VGA-t azért, hogy rondább legyen a játék - a hülyének is megéri
Ráadásul míg a TXAA kikapcsolható, a QB baromsága tudtommal nem.Még egyszer - a CPU-limit megoldásához nem kell low-level API. A DX11-ben a vonatkozó részt ki kellett volna cserélni, igen.
A fejlesztők mérései sokat nem érnek, mert érdekeltek abban, hogy valamilyennek mutassák. Független, in-game méréseket szeretnék látni, ilyenel csak az AotS kapcsán találkoztam.
Azzal amúgy nincs gondom, ha csak a GCN profitál belőle, mert ha ilyet tud az arch, és a fejlesztők beleteszik a munkát, akkor persze, hogy legyen gyorsabb. Ha tényleg érdemlegesen gyorsabb.Alternatív fordítókat írni és karbantartani persze, hogy teher. Nem is mindig éri meg - persze erre csak akkor jön rá az ember, amikor már belement a hegység méretű munka.
-
Nem, a kulcskérdés az az, hogy a problémákat úgy oldjuk meg, hogy a megoldás által generált új problémák ne legyenek nagyobbak az eredetinél. Az nVidia is befürdott a TXAA-val (megérdemelten), és a Quantum Break "hangzatos f***ság" fantázianevű temporális projekcója is mellé való a szemetesbe.
Mással vitatkozol, mint amit állítottam
A CPU-limit kinyírása tényleg fontos, de nem kell hozzá low-level API. Ennyit mondtam, ezen szerintem sok rugóznivaló nincs.Az aszinkron compute-tól eddig hatalmas eredményeket nem láttam. Emellett az AMD a Polarisról mondta is, hogy ment bele olyan okosság, ami az a-c számára előnyös szituációk számát csökkenti, az nVidia eleve azt kommunikálja, hogy szerintük nem kell (jah, tudjuk, hogy miért, de nem tolják a szekeret), fejlesztők meg többen nyafogtak, hogy munkaigényes és ha kicsit elszúrnak valamit, akkor nemhogy nem gyorsul, de lassul a kód. Izolált eredményeket kéne látni 6-8 játékban, bármelyik AMD kártyával - az AotS-en kłvül hol van jelentős értéke?
Amit a Doomról írsz, azt nem fogom. Az én fejemben úgy él a dolog, hogy a shader intrinsics (hívjuk így) használata külön kódutat jelent a két gyártóra. Nem?
-
Tegyük fel, hogy amit leírtál, az az első betűtől az utolsóig 100%-ig megállja a helyét. Akkor ebből két dolog következik:
- A játék alatt futó motor technológiai érettségének csak erősen limitált hatása van a játék által nyújtott vizuális élményre - a felhasználói visszajelzések alapján néhány egyszerű dologra odafigyelve sokkal jobb lehetett volna
- Annyira technológiai szemmel nézed a játékokat, hogy egy átlagos játékos nagyon keveset tud profitálni a véleményedből - agyba-főbe dícsérsz egy olyan játékot, ami rendelkezik igencsak zavaró vizuális problémákkalIgazából az a gond a low-level API-kkal is, hogy jelenleg 80%-ban a technofétis szintjén vannak - szívesen elhiszem, hogy nyálcsorgatóan szép programozói megoldásokat lehet bennük csinálni, de egyelőre a gyakorlati hasznuk kimerül a CPU-limit kitolásában (amihez igazából nem kellene low-level API), valamint egy igen limitált aszinkron compute-ban, aminek még erősen (sőt egyre erősebben) kérdéses a jövője. Intel + nVidia userek számára még ez a kettő is alig-alig jelent valamit
És akkor ott a Doom, ami lehet, hogy az első lépés egy igencsak durva szegmentálódás felé. Ami nem baj, csak éppen minimális köze van a low-level fantáziálásokhoz.Szóval nagyon érdekes lesz ez a Deus Ex

-
válasz
Petykemano
#20999
üzenetére
Szerintem már most is ez a helyzet

-
válasz
lowzor
#20937
üzenetére
No igen, helyben vagyunk - tuning. Anno jópár lelkes versenyző volt, aki olyanokat írogatott, hogy a 7950 vagy a 7850 esetében garantált az 1150-1200 MHz-es órajel. Csakhogy nem az. A gyártó által értelemszerűen nem garantált, de a fórumokon is elő-előkerültek elkeseredett tulajok, akik megragadtak 1GHz alatt. Meg ugye felhúzva 1100 fölé rögtön nem voltak valami fényesek az operatív paraméterek sem.
Szóval, abszolút megértem, hogy akik olcsón jutottak 7950-hez, azok szerették, de ettől még a Tahiti nem lesz egy szuper GPU. Az indulása pedig kifejezetten fájdalmas volt árazás terén. -
válasz
füles_
#20929
üzenetére
Attól nem lesz jó egy GPU, hogy folyamatosan csökkented az árát meg közben átnevezed, ill. a leírtak egy kicsit kisebben elmondhatók a 270X-ről is.
A Doom Vulcan összevetésnek megintcsak semmi köze a GPU milyenségéhez, AMD-specifikus optimalizációk vannak benne, nem az uarch jóságát tükrözik.
Ezzel együtt igaz, hogy a Tahiti sokkal szebben öregedett, mint a GK104, bár a kimaxolástól már igencsak messze van még fullHD-ben is. Csak miért fontos ez? Szerintem egy ilyen gyorsan mozgó piacon egy terméknek az életciklusa első, max. első két évében kell megmutatnia, mit tud. Az, hogy a 280X és a 270X milyen szépen elzakatol a mai napig, biztosan megdobogtatja a fanok szívét, de a gyakorlati jelentősége elég kevés.(#20928) sixpak: 450 USD-vel indult a 7950, és az elején a sebessége is csapnivaló volt. Valamit elb***tak a driverben. Ill. nem, az összes review site-on user error volt
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
-
válasz
Venyera7
#20902
üzenetére
Erre szoktam azt mondani, hogy amikor majd a DX12 teljesítmény lesz érdekes, akkor olyan kártyát veszek, ami jobb DX12-ben. Csak azért nem veszek valamit, mert "majd" valami érdekes lesz, és valamelyik gyártó "állítólag" jobb benne. Az elmúlt 8 évben bevált ez a filozófia, úgyhogy még az is belefér, ha most netán tévedek

... bár az nVidiának egyelőre nincs terméke abban a kategóriában, amit szeretnék. Ez valamivel jelentősebb szempont sztem
-
No igen, csak közben a legfájóbb hiányosságokat az nVidia kezelte a Pascalban, a többit pedig a frame rate overkill simán megoldja (igazából részben a Maxwellben legfájóbbakat is). Nyilván tekintettel kell lenni arra, hogy a játék Early Access, de amellett sem lehet elmenni, hogy itt és most ebben akkora FPS-előnye van az nVidiának, ami simán negálja az AMD technológiai előnyét, ráadásul bizonyos határok között nyers FPS-ből, timewarpok nélkül nyújt ugyanannyi megjelenített frame-et, ami azért akárhogy is nézzük, jobb vizuális élményt jelent.
-
válasz
Petykemano
#20805
üzenetére
Az nVidiánál adódik egy egyszerű magyarázat: továbbra is crossbar memóriabuszt használnak, és ennek a komplexitása a kontrollerek számának növelésével egyre nehezebben kezelhető. Mivel 512-bites buszt egyetlen GPU-n csináltak eddig, és az a történelmük egyik legrosszabb terméke volt, gyanítom, hogy a 384-bites méret van a kényelmes kezelhetőség határán. Ezért inkább a GPU-t is sávszél-takarékos irányba fejlesztették. Persze lehet, hogy más is van a háttérben.
Az AMD-t és a ROP-jaikat én sem értem, számos kártyájuk sokkal jobb lett volna erősebb backenddel, és azok a termékeik lettek a legjobban sikerültek, ahol valamilyen okból a szokottnál több ROP-ot használtak. Még anno az X1900-as szériával álltak rá erre a vonalra, a 2900XT-nél folyamatosan abban hittek a fanok, hogy rövidesen eljő a magas számítási kapacitás uralma - de aztán nem jött, vagy legalábbis nem úgy, hogy abból ezek a termékek profitálni tudtak volna.
-
GTX 960 vs 950 azonos órajelen - eredetileg a GM206 topikba szántam, de a konklúzióban elkalandoztam kicsit általánosabb témák felé, talán érdekes itt is.
-
-
A vaktesztet a pár %-os különbségekre írtam, jellemzően ennyiken szokott menni a verbális recska.
Amúgy meg lehet mondani, csak feleslegesnek tartom ezt a tónust. Az látszik, hogy az nVidia a jelenben rendelkezik egy komolyabb műszaki előnnyel (ld. 1060 vs 480 - egyenlő teljesítmény sokkal kisebb chippel), valamint időzítésben is van kb. 6 hónap fórjuk. Nagyon fájdalmas kombináció, lehet úgy felfogni, hogy az AMD alázva etc. van, de attól nem lesz senkinek jobb. Vagy legalábbis bízom benne

-
válasz
Yutani
#20602
üzenetére
Megette, meggyalázta, kinyírta és ráp**ált a hullájára, etc. Mindig olyan focimeccses érzésem van ezektől a hasonlatoktól, miközben ha az illető vakteszten látná a két teljesítményt, akkor nem tudná megmondani, melyik melyik, még ha az élete múlna rajta, akkor sem. 3 FPS különbség FTW!!!
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
válasz
schawo
#20589
üzenetére
A táblázat szerint az 1070 11%-kal erősebb a 980Ti-nél, az 1080 pedig 19%-kal az 1070-nél, tehát egy kicsit jobb 1070-es kártyájuk volt, mind az 1070 tesztekben szereplő átlag.
Amúgy érdekes, hogy szinte minden kártya 5-10%-kal a gyári boost1 clock felett megy a tesztekben, kivéve az 1080-at...
-
válasz
Venyera7
#20469
üzenetére
Persze, és majd a tesztelést is hozzámásolják, igaz?

Aki extra performanciát akar kihozni PC-n, az élni fog mindkét gyártó adta lehetőségekkel, amennyiben értelmes idő alatt értelmes gyorsulást lehet elérni. Ennyi.
(#20475) Peat : én a 480 terítése alapján eljutottam oda, hogy veszek valami átmenetit, aztán figyelem az eseményeket, de gyanítom, hogy nem pár hét múlva fogom azt meghirdetni

-
válasz
Malibutomi
#20307
üzenetére
Értelemszerűen. Az 1060 tuningolhatóságáról sem mondtam egyetlen jó szót sem

(#20305) schawo: ezt nem értem

-
válasz
Ghoula
#20299
üzenetére
Igen, lehetett ezt sejteni - ahogy a Hawaii és a Fiji kártyák, a Polaris 10 is kb. üveghangon megy gyárilag. Kérdés persze, hogy ez mennyire yield okokból van - a 470-esből talán okosabbak leszünk.
A W / tr kicsit csalós, mert a fogyasztás a teljes board power, tehát benne van a memória is. De összegészében a konklúzió lehet jó - a tranzisztoronkénti fogyasztás hasonó.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Ubuntu Linux
- sziku69: Fűzzük össze a szavakat :)
- Huawei Watch GT 6 és GT 6 Pro duplateszt
- Milyen egeret válasszak?
- Hisense LCD és LED TV-k
- Kávé kezdőknek - amatőr koffeinisták anonim klubja
- BestBuy topik
- Milyen TV-t vegyek?
- Megtartotta Európában a 7500 mAh-t az Oppo
- Arc Raiders
- További aktív témák...
- Samsung Galaxy A36 5G / 6/128GB / Kártyafüggetlen / 12Hó Garancia / BONTATLAN
- Apple iPhone 15 Pro Max / 256GB / Kártyafüggetlen / 12 Hó Garancia / 98% akku
- HIBÁTLAN iPhone 13 Pro 128GB Sierra Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3388
- HIBÁTLAN APPLE WATCH ULTRA 2 NATURAL TITANIUM 49MM -1 ÉV GARANCIA - MS3714, 100% AKKUMULÁTOR
- Bomba ár! Dell Latitude 5491 - i7-8850H I 16GB I 512GB SSD I 14" FHD I HDMI I Cam I W10 I Gari!
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest




![;]](http://cdn.rios.hu/dl/s/v1.gif)









