Új hozzászólás Aktív témák
- 
			
			
Folytatás innen.
Megint keveredik egymással két külön dolog.
A teljesítménnyel való játék feltételezése nyilván megalapozott, hiszen nem olyan nehéz olyan shadereket írni, ami az egyik architektúrán jól megy, a másikon kevésbé - különösen, ha az egyik architektúra gyártójának alkalmazottai is dolgoznak a játékon. Ettől függetlenül, az elmúlt években is jellemzően jobb az out-of-the-box teljesítmény nVidián (nem utolsósorban az időzített drivereknek köszönhetően, de nem csak azért), úgyhogy azt gondolom, hogy ennek a felvetésnek is max. a fele igaz.
A bugok viszont teljesen más tészta - alig hiszem, hogy a TWIMTBP program résztvevői olyan mágikus shadereket írtak, amik nVidián jól mentek, AMD-n meg bugzottak. Ha egy hiba mindkét gyártó kártyáin felbukkan, az minden bizonnyal a készítők sara. Ha csak az egyik gyártóén, akkor igen valószínű, hogy a gyártónál van a probléma. Mellesleg ez is meg fog változni a Vulcannal, talán a DX12-vel is - és ez a változás nem lesz örömteli.
 - 
			
			
Miért ne tudná? A munka nagy része nem egy nagy, monolitikus, totális átlátást igénylő program javítása, hanem sok kicsié. Lesz egy csomó paneljük, amiknek jó részét engine-től függetlenül fogják tudni alkalmazni (regiszter-használat optimalizálás, memóriamenedzsment, stb., de akár komplett effektek javítása is), a többit meg perfmon + knowhow + kísérletezés módszerrel. Lehet-e olyan jó, mint a belső optimalizáció? Rövid távon talán nem, közép- / hosszú távon akár lehet jobb is.
 - 
			
			
A kompetencia alapú outsourcing konkrétan egy nagyon jó dolog, alkalmazzák IT-ben is, szoftverfejlesztésben is, és még rengeteg más területen. Megmondom őszintén, nem nagyon értem, hogy Neked miért fáj itt és most. Ha egy cég a GCN-t érzi core kompetenciának, a másik kettőt nem, akkor ez egy igen hatékony megoldás tud lenni - egyszersmind egy válasz arra a problémára, hogy hogyan lehet többféle architektúrára optimalizálni anélkül, hogy a költségek többszörösére nőnének. Ha pedig valamelyik szereplőnek fájni fog, és megsínylik az eladásai, akkor az illető szereplő lépni fog. Mi a gond?

 - 
			
			
Ez már megint a szokásos AMD-Ready hurrá-optimizmus, az elmúlt évek alapján siralmas hitrate-tel. Mindegy, szerintem eleget szájkaratéztunk, hétfőn megjelenik a játék, a tesztek eldöntik, kinek van igaza.
b)-vonal: nem értem, miért csinálsz ógörög drámát ebből a sztoriból. Ugyan mi lenne túl késő? Ha a fejlesztőknek ennyire fáj az nVidia, akkor csináljanak olyan effekteket, amik AMD-n szebben / gyorsabban futnak. sayinpety fórumtárs pont erről írogat, érdeklődve várom a motorjukat - de az is csak 2016-ban lesz. Szerintem kifejezetten jót tenne a piacnak, ha az nVidia beleszaladna egy kiadós pofonba, de azt azért ne várd tőlük, hogy saját magukat pofozzák fel

 - 
			
			
Elsősorban erre írtam az előbb, hogy nem tudom komolyan venni. Több, mint 4 hónappal előbb release-elődött a profil, mint a játék - biztos szuper lesz így... Ill. az elmúlt 1 évben az AAA játékok tesztjei nem azt mutatták, hogy az AMD már a launchkor szuper volt.
A másik témára - tök felesleges ezen rugózni. Az nVidia akkor fog változtatni, amikor anyagilag előnyösebbnek tartanak egy másik irányt. Akkor viszont rögtön 150-170 fokot. Jöjjön ki az AMD egy iszonyatk***abrutálgyors 390X-szel, meg legyen prevalens az új játékokban az aszinkron compute (ez két olyan dolog, amiben egyetértek, hogy jobb lenne a játékosoknak), ez a kérdés akkor kerül az asztalra. Addig az marad, ami most van.
 - 
			
			
Olyan viszont nincs, hogy ez akkor rossz, ha az egyik gyártó csinálja, de akkor már jó ha a másik
Ezt te mondod, nem én. Én azt mondtam, hogy akkor jó, ha a játékokhoz időben érkeznek a driverek. Az AMD ezt nem tudta megoldani a sűrű driverekkel, az nVidia igen. Ezért végeznek jobb munkát Jensenék, nem pedig azért, mert n betűvel kezdődik a nevük.
A PC-s játékfejlesztéssel kapcsolatos világfájdalmat meg felesleges idekeverni (meg mindenhová máshová is). Már csak azért is, mert ez a széthúzás megoldódható úgy is, hogy az egyik gyártó tönkremegy - az meg aztán húdemarhajó lenne mindenkinek...
 - 
			
			
Hűha, ezt marhára nem kellene csinálni - olyan dolgokat adsz a számba, amiket sosem mondtam

A havi WHQL driver nem volt jó ötlet az AMD-től, mert nem bírták erőforrással, és gyors reakció helyett rugalmatlanságot szült - ugyanúgy nem szállították megfelelő időben a driveres supportot. A GR driverek pont arra koncentrálnak, hogy időre elérhető legyen a driver. Azt pedig nem tudom, hogy a profilt a játék tesztelésének melyik fázisában véglegesítik, de gyanítom, hogy nem 4-5 hónappal a launch előtt...A második bekezdéssel meg nem tudok mit kezdeni. Már sokadszor olvasom ezt a rantot, részben egyet is értek vele, de hogy jön ez most ide?

 - 
			
			
Nagyon meglepett volna, ha nem bukkansz fel valami nyakatekert szöveggel, hogy miért jobb a világnak az, ahogy az AMD csinálja. Nem is kellett csalódnom, jót derültem, de remélem, azt nem várod, hogy komolyan is vegyem a leírtakat

@HSM: Nem én temetem az AMD-t, hanem ők saját magukat. Szörnyen enerváltnak hatnak az utóbbi időben (bár a Hunting Titans posztert talán lehet jó jelnek vélni
 ). Nagyon kell az iparnak egy ütős 390X. - 
			
			
A Day 1 driverek egyrészt az adott játék vásárlóinak igényeit szolgálják ki (elkerülendő a miaf***értvettemeztaszartnemmegyveleaz50ajrósgame effektust), másrészt az enthusiast közösség örül nekik. Mindkét szempontból részben marketing eszközök, részben gyakorlati előnnyel is bírnak. Release Notes-t szerintem felesleges olvasgatni, elég, ha valamelyik high-end kártya topikját követed, akik szívesen próbálgatják az új drivereket, azok úgyis leírják a tapasztalataikat (troll on persze megértem, ha AMD-tulajként ettől elszoktál
 troll off). Végezetül, ha van választás, az mindig jobb, mint ha nincs. Ha van, akkor még mindig dönthetsz aszerint, mintha nem lenne - ha nincs, akkor ez elég nehéz 
Az ALT+TAB témában mondjuk egyetértek - az ilyen probléma elsősorban a játék sara, de ha a játék idióta, akkor azon valamennyit lehet driver oldalon segíteni.
 - 
			
			
Kész szerencse, hogy szabványos API-ra írt játékokról beszélünk. Szerintem inkább ez a kabaré.
Igen, és már vagy 10 éve ezen röhögünk - de ettől még így van, és indokoltak a "game (un)ready" driverek. És ez megint egy olyan dolog, amit az AMD szarul csinál, pedig nem kerülne sokba jól csinálni.
szerk. az AMD-nél is kellene, csak éppen nincs mit

 - 
			
			
válasz
							
							
								m0h0senator
							
							
								#4456
							
							üzenetére
						Hmmm, nagyon régóta ez az első teszt, ahol számít a rendszermemória sebessége - méghozzá nem is kicsit...
 - 
			
			
válasz
							
							
								Xmister
							
							
								#4408
							
							üzenetére
						Anandék próbálnak diplomatikusan nem hülyét csinálni magukból. Az eredeti review-jukban nem volt benne ez a paragrafus, szóval (rájuk amúgy nem jellemző módon) benézték a dolgot.
Igen, valóban az tűnik a logikusnak, hogy a scalerben és a firmware-ben megoldható kell legyen a dolog. De ha ez így van, akkor ennyi idő után hogy bírt megjelenni 3 (ill. 4) monitor is ugyanazzal a problémával?
 - 
			
			
Csodák nincsenek - maximális utilizáció esetén sokkal gyorsabbak lennének a Radeon kártyák, a DX10 korszak eleje óta több bennük a fizikai erőforrás. Ez a teszt is pont erre példa - gyakorlatilag a Tahiti GPU-t leszámítva mindenhol irtózatosan sávszélesség-limites.
(#4387) daveoff: Végre kimérte valaki
 Ez egy CPU + API + driver teszt. - 
			
			
Innen folytatva.
Az FX-es példa a pH!-n minden egyes új generációnál feljön valamilyen ürüggyel. Sorolom:
- 8800GTX vs HD2900XT: szar a G80 geometry shader throughputja -> nV-n 1 év múlva minden szar lesz
- 9600GT vs HD3850: kevés az ALU a G92 / G94-ben -> nV-n 1 év múlva minden szar lesz
- GTX280 vs HD4870: a DirectX 10.1 hatalmas gyorsulásokat hoz -> nV-n 1 év múlva minden szar lesz
- GTX480 vs HD5870: a Ferminek nem lesz HW tesszelátora -> nV-n 1 év múlva minden szar lesz. Ez később átfordult úgy, hogy a Terascale a létező legoptimálisabb architektúra játékra.
- GTX580 vs HD6970: ... na jó, itt kivételesen nem volt
- GTX680 vs HD7970: a Keplernek nagyon alacsony az egy ALU-ra vetített sávszélessége -> nV-n 1 év múlva minden szar lesz
- GTX980 vs R9-290X: a Maxwell rengeteg tudást beáldozott a teljesítményhatékonyság érdekében -> nV-n 1 év múlva minden szar leszHa nagyon cinikus akarnék lenni (márpedig miért ne akarnék?
 ), akkor azt mondom, hogy előbb-utóbb most már statisztikai alapon be kell jönnie ezeknek a jóslatoknak. De realista megközelítésben inkább azt mondom, hogy ez a helyzet csak annyira analóg az FX-ekkel (ahol amúgy volt egy ismert kapacitásbeli bottleneck), amennyire annak akarjuk látni. Ill. továbbra is fenntartom, hogy az AMD még esetleg be fogja szívni a monolitikus setupját. - 
			
			
azt ugye tudod, hogy ezt a hsz-t most elmentem, és a 390X tesztek megjelenése után visszatérünk rá?

ha az összes dolog igaz, amit a Fijiről írsz, akkor az a GPU valami példátlan műszaki csoda lesz. örülnék neki, ha úgy lenne, de megmondom őszintén, nehezemre esik elhinni.
 - 
			
			
válasz
							
							
								Malibutomi
							
							
								#3936
							
							üzenetére
						csak egész zárójelben jegyezném meg, hogy nekem 2 hónapig volt 7770-em, és azalatt előjött 3-4 driver-gond - egyik sem súlyos, de mindegyik idegesítő. a másik oldala meg az, hogy az elmúlt 1 évben nVidia oldalon is voltak problémák - kicsit mintha visszább vettek volna a QA-ból.
 - 
			
			
Uraim, próbáljunk egymás elemzése helyett az AMD-nél és az nVidiánál maradni

 - 
			
			
tök mindegy, melyik áll közelebb a valós fogyasztáshoz, változott a definíció. (mellesleg szerintem a TDP-nek nem a jellemző átlagot kellene jelenteni, hanem legalább a fenntartott kiemelkedő értékeket, de ez már csak privát vélemény)
mind a 980-ra, mind a 960-ra elsütötték a x2 perf / wattot. a TPU-s lapon ne a 4K és a sorround méréseket nézd, mert ott már a VRAM is beleszól - WQHD-ben és fullHD-ben 66%-kal van előrébb a 980, mint a 680. én magamtól 60%-ot mondanék, de ez már függ a játékmixtől is. szóval közel sem dupla.
a 960-at meg inkább ne is említsük... - 
			
			
a Maxwell esetében a TDP és a valós fogyasztás aránya jelentősen más, mint a Keplernél. miután egy szót nem szóltak arról, hogy a TDP definíciója változik, ez már önmagában is lightos megtévesztés, de erre csak legyintenék. viszont azt is mondják erre építve, hogy a Maxwell teljesítmény / fogyasztás terén rádupláz a Keplerre - ez már konkrétan hazugság, mégpedig nem is kicsi.
(#3597) players111: az egyszerű válasz természetesen az, hogy nem volt mit. az izgalmasabb kérdés, hogy miért nem volt semmi tartalékban. ha csak annyit csinálnak, hogy gyűjtögetnek kiemelten alacsony szivárgású chipeket, és kiadnak egy 290X Extreme Editiont (vagy vmi ilyen bullshit) 20%-kal magasabb órajellel, már az borzasztó sokat számított volna. pont, ahogy az nVidia belerondított a 780Ti-vel a 290-es party-ba.
lehetett tudni, hogy az nVidia legkésőbb a karácsonyi sales-re kijön valamivel, szerintem megbocsáthatatlan piactervezési hiba, hogy semmivel nem tudtak reagálni. mi lesz most tavasszal? jönnek az új Radeonok, és az nVidiának ott van tartalékban a GM200, a 960Ti, ill. a megvágott GM206, ami legyen mondjuk 950Ti. érezhető a különbség, igaz?(#3625) HSM: ne már, hasonlítsd össze a 780-nal...
 - 
			
			
Én a tesztek töredékében olvastam bármi utalást a TDP-s dologra
no ez itt a gond. tudod, hogy én melyik tesztben olvastam, hogy sundámbundám van a TDP-vel? mindegyikben - ugyanis annyit fogyasztott, mint a 680, és alig kevesebbet, mint a 770. bizonyítékom is van rá
 tehát az információ elérhető volt bárki számára.a vásárlók félrevezetésével elért versenyelőny
pontosan. ilyenkor max. a vásárlónak van jogalapja a céggel szemben, nem a versenytársnak. de mind a joghurtipar, mind az nVidia gondosan ügyel arra, hogy a kényelmetlenség jogalapnak ne legyen elég erős.
Pont erről beszélek, és akik ebben a gap-ben lettek volna, vagy 980-at vesznek inkább, vagy 290/290X-et, esetleg kivárnak.
ezzel egyetértek, max. a mértékén lehet vitatkozni. ezért hoztam kiemelt példaként a 8800GTS-320-at - már a megjelenéskor tudott volt, hogy nem túl hosszú távon kevés lehet a 320MB (sokkal inkább, mint most a 3.5GB), mégis vitték, mint a cukrot. még az árazás is hasonló volt.
a Radeonos mondásoddal pedig akkor értenék egyet, ha nem lettek volna már 1 éve a piacon. nyilván az árcsökkentés generált extra sales-t, de ez nem váltotta meg a világot. kizártnak tartom, hogy sokkal többet adtak volna el, ha kevesebben vesznek 970-et.
 - 
			
			
szerintem szedjük szét a dolgokat a megfelelő szereplőkre, mert ebben a postban a Maxwell és a 970 minden gyengeségét az nVidia nyakába varrod, holott ez marhára nincs így. a 256-bites busz korlátozó ereje, valamint a TDP fogalom megváltozása az első tesztekben is világosan kiderült majdnem minden portálon. így is elég gyors? igen. így is sokkal kevesebbet fogyaszt? igen. akkor miért ne ajánlanák? ha pedig valaki érzékeny a részletekre, akkor szíveskedjen elolvasni a teszteket és gondolkodni, ne csak az ajánlásra ráizgulni.
a 4GB sztori már más téma, és itt is több külön track van.
először az AMD-nek okozott kár kérdéskörét gyorsan felejtsük el, mert ilyen alapon bármelyik erős versenypiacon folyamatosan perelhetnék egymást a gyártók. ennél sokkal durvábbakat húznak a joghurtok, húskészítmények vagy gyógyszerek gyártói.
másodszor, ha a 970-esben a technikailag prudens megoldást alkalmazzák, szoftveresen kiiktatják a 0.5GB memóriát, és 3.5GB-osként hirdetik a kártyát, akkor biztosan kevesebbet adnak el belőle. jó kérdés, hogy mennyivel, mert ebben a formában is igen jó az ár / teljesítmény mutatója, de egész biztos, hogy látható gap lett volna a sales-ben. abban viszont teljesen biztos vagyok, hogy nem akkora, hogy ez a piaci részesedést jelentősen mozgassa - gondolj vissza a GTX260-ra, a GTX570-re, és különösen a 8800GTS-320-ra,
jelenleg baseball ütővel sem versz ki belőlük pénzt - az csak később lesz
az pedig, hogy a vásárlóknak potenciálisan, a jövőben milyen kárt okoz a húzás, egyrészt túlzottan teoretikus, másrészt ez is csak azokra vonatkozik, akik 3.5GB-osan nem vették volna meg.a bottom line akkor is az, hogy kihoztak két nagyon jó terméket, amire a konkurenciának nincs válasza. aztán kihoztak egy korántsemannyirak***ajó terméket, amire a konkurenciának szintén nincs válasza. akkor mire számítanak?
 - 
			
			
igen, bár ha megnézed a piaci részesedés alakulását, amit rocket pár hsz-szel lejjebb linkelt, korábban az ATI / AMD tudott profitálni az nVidia ballépéseiből.
megmagyarázni nem tudják, Jensen levele annyira bullshit, hogy még az írott sajtó is csak a fejét ingatja. a 970-ek visszavételét amúgy szerintem incidens alapon képzelik el, és le merném fogadni, hogy a gyártókkal el fognak számolni a jövőben, csak minden egyes kártyához tízoldalas customer case elemzést fognak kérni, és baseball-ütővel kell majd kiütlegelni belőlük a pénzt. igen csúnya megoldás, de tekintettel arra, hogy valódi kárt csak a vásárlók igen kis százalékának okoztak, sajnos logikus. ha valaki sikeres vállalatvezető akar lenni, akkor ilyen döntéseket muszáj meghoznia. csak gondolj bele az alternatívába, mi történne...(#3568) rocket: igen, ez konkrétan Darwin-díjas megszólalás volt

 - 
			
			
válasz
							
							
								proci985
							
							
								#3391
							
							üzenetére
						igen, emiatt borzasztó nehéz objektívet mondani. a nagyobb oldalak valószínűleg válogatott kártyákat kaptak, mert ott a G1 sem mutatott extrán több fogyasztást (kivéve Tamáséknál). miután a G1 extra magas TDP limittel rendelkezik (nem 280 az a 250?), én inkább tekinteném kivételnek, de hiteles csak akkor lenne a dolog, ha mindegyik gyártó kártyájáról lenne pár mérés.
 - 
			
			
lehet, hogy Te elfelejted, viszont én pontosan tudom, mennyi a 960 sávszélessége
![;]](//cdn.rios.hu/dl/s/v1.gif)
komolyra fordítva, 77%-a a 660-énak, miközben a sávszélesség fogyasztóinak mind jelentősen nőtt a kapacitása. szerintem ez nem jó irány - nem tudom pontosan, melyik engine-ekre gondolsz "mai" alatt, de pl. a Cryengine eléggé mainak tűnik, és annak igencsak kell a sávszélesség. meg amúgy mindennek, ahol a konzolportot post process effektekkel akarják felturbózni, bár ez utóbbiban pont segít a dcc. - 
			
			
olvasom a topicot, és én úgy látom, hogy azért tologatják a power limiteket, mert tuningolni akarnak

amúgy a ref 980-ak jellemzően a hőmérséklet miatt vettek vissza - a 970-eknél elképzelhetőnek tartom, hogy a 145W tényleg szűkös, de ahhoz, hogy a ref órajeleket tartsa, aligha kell felmenni 200-ra - ld. még lejjebb.(#3348) Malibutomi: ahhoz, hogy ilyet lehessen mondani, végig kellene nézni legalább a népszerűbb 970-eket, mert valóban, a ref modell nem jellemző a piacon. viszont a fogyasztásukat kellene megnézni, nem a power targeteket - míg az utóbbiak egy csomó kártyánál tényleg 200W körül vannak, a fogyasztások a pár teszt szerint, amit most megnéztem, 10-25W-tal magasabbak, mint a ref.
 - 
			
			
hiába írogatjátok le 50x, akkor sem fognak a referencia GTX900-asok 200W-ot enni. annyi a "csalás" a Maxwell esetében, hogy a GTX750Ti-től kezdve a tényleges tipikus fogyasztást adják meg TDP címen, eddig meg volt benne 10-15% tartalék.
a 200W-ot bekajáló custom kártyák meg azért esznek annyit, hogy lehessen őket rendesen húzni.Viszont nem túl fair egy 3 éves GPU-t tartalmazó 280-at egy 3 hete bemutatott VGA-hoz hasonlítani.
én nagyon szívesen összehasonlítanám a frissen megjelent AMD-s versenyzővel. hol van?

(amúgy a 3346 utolsó bekezdésével teljesen egyetértek) - 
			
			
 - 
			
			
válasz
							
							
								Malibutomi
							
							
								#3321
							
							üzenetére
						5-10%-kal gyorsabb, és annyival drágább is - vagyis 200 dollárért van két lehetőséged is, hogy gyenge ár / teljesítmény arányú kártyát vegyél. ez egy olyan piaci ziccer, amit muszáj lenne kihasználni - anélkül lehet megszólítani egy széles vásárlóközönséget, hogy az árbevételen nagyon komoly kompromisszumot kellene kötni.
 - 
			
			
válasz
							
							
								Malibutomi
							
							
								#3316
							
							üzenetére
						pont ezért gáz üzletileg, hogy nem jön rá a válasz - az nVidia tárva-nyitva hagyta a kaput a 200 dolláros ársávban, ezzel muszáj lenne élni a konkurenciának.
(#3314) proci985: hát ez az...
 - 
			
			
válasz
							
							
								Firestormhun
							
							
								#3310
							
							üzenetére
						lesújtó
 hol a p***ában van már a 300-as széria? 
 - 
			
			
szerintem ennél egyszerűbb a helyzet, legalábbis a HD7970 / GTX 680 vonaltól kezdve. a Cryengine mindig is backend-intenzív volt, és míg fullHD-ben ellavíroznak a GTX900-asok a rengeteg ROP-pal meg a magas órajellel, WQHD-ben már elkezd kevés lenni a sávszélesség, és a ROP-ok éheznek (erre utal amúgy a 280X és a 770 komolyabb lemaradása is - ott meg nincs elég ROP).
sokkal izgalmasabb a 2010-es generáció - a HD6970, és különösen a GTX580 teljesítménye egészen vicces. szerintem ott még volna munka a driverekkel is bőven.
 - 
			
			
persze, az árazásról volt szó. viszont ennek a műszaki háttere egyrészt egyszerűbb, másrészt sokkal jobban felépített, mint ahogy leírtad.
azt gondolom, hogy a GM204 egy teljesen logikus 2nd tier chip, aminek amúgy a fő paraméterei (többek között funkcionális egységek száma) valószínűleg már jóval a 290-esek megjelenése előtt fixek voltak. a chipet alacsony fogyasztásra tervezték, aminek az ultramobil szinergia és a marketing mellett van még egy óriási előnye: nagyon széles órajeltartományt tesz lehetővé. amikor kész volt a GM204, nem volt más dolguk, mint belőni úgy az órajelet, hogy a 980 a garantált boost clockkal kb. 10%-kal gyorsabb legyen a 290X-nél (ami a top binned példányok esetében 15-20%), a 970 meg annyit tudjon, mint a 290 (top binned - kb. 290X). így elérték, hogy a 970 egyszerre versenyezzen a 290-nel és a 290X-szel egy olyan áron, aminek komolyan már nem lehet a Hawaii chippel alámenni (ez volt az árazásban az igazán nagy okosság), a 980 pedig a látványos 20%-os (top binned) előnyével mehetett halo áron. ezzel egyszerre húztak nagyot piaci részesedésben és árbevételben - ennek eredménye a most mellékelt pénzügyi jelentés.
mint utólag kiderült, a 970 igen kompetitív árának volt még egy előfeltétele - kellett, hogy az enyhén backend-hibás (ROP vagy L2 cache) GM204-ekből is lehessen 970-et csinálni (ez saját következtetés, nem hivatalos info). ez a sztori viszont nem annyira egyszerű, hogy parasztnvidiahazudott - pedig amúgy én nem osztom a nyugati sajtó elnéző véleményét, szerintem szándékosan tájékoztattak félre mindenkit.
lássuk be, a 970 akkor is igen jó vétel, ha azt írjuk rá, hogy 56 ROP, 3.5GB RAM, 224-bites memóriavezérlő. a gond ott van, hogy ha azt írjuk rá, hogy 3.5GB RAM, akkor az nagyban megcsappantja a vásárlók körét - 95%-ban olyanokkal, akiknek a gyakorlatban marhára mindegy a 0.5GB. a probléma persze ott van, hogy egyrészt az 5%-ot ténylegesen megkárosítják, másrészt egy cég akkor se nézzen hülyének, ha történetesen hülye vagyok. az nVidia láthatóan nem hisz az ilyen etikai gyerekségekben - ezért félig egyetértek a konklúzióddal, én is alaposan tájékozódom, mielőtt bármit veszek tőlük (amúgy ez eddig is így volt). de azt érdemes látni, hogy (feltételezve a szándékos félretájékoztatást) ez a 3.5GB-os botrány nem jött volna létre, ha a vásárlók nagy része átgondolt szempontok szerint venné a VGA-it. - 
			
			
el kell, hogy keserítselek, de egy üzleti vállalkozás esetében a pénz gyakorlatilag minden. a high-tech piacokon jellemzően olyan erős a verseny, hogy aki megengedi magának azt a luxust, hogy tisztességesen játszik, az gyakorlatilag a saját csődjét készíti elő. szomorú, de ez van.
"Meglátjuk majd, mit hoz a jövő." - ez meg annyira magas labda, hogy nincs szívem lecsapni

amúgy ha iszonyúan lesarkítom a dolgot, akkor az nVidia fényes GPUs pénzügyi eredménye két számnak köszönhető. az egyik az 549, a másik a 329. elsősorban ezt lenne érdemes eltanulni az AMD-nek - hogyan pozícionáljunk úgy magas profitra, hogy már előre kivédjük az ellenfél (ellenség) válaszlépését. most tavasszal lesz erre lehetőség - lássuk, tudnak-e vele élni.
 - 
			
			
ezt nehéz megítélni anélkül, hogy belelátnánk, mennyi erőforrás megy a GameWorks-re. másrészt az elmúlt 2-3 évben nem nagyon történt olyan változás a játékok látványvilágában, amitől el lehetne ájulni, így kicsit öncélúnak tűnik a HW-lóverseny is - elég vicces, hogy 1-2 játékban kikapcsolod a AA-t és az AO-t, és hirtelen 3x annyi FPS-ed lesz. nyilván a GW ezt is hivatott "támogatni" a TXAA-val.
 - 
			
			
igen, ezeket nagyrészt tudom, ill. a második bekezdésben írtak nem mindegyik effektre igazak. a HBAO+-n és a TXAA-n (ami a legtöbb játékban felbukkan) nem látni ilyen minőségbeli korlátozást, és a HBAO+ sebességre is normális, legalábbis nVidia hardveren. HairWorksot nem láttam még élőben, de elhiszem, hogy nem sikerült jól, eléggé izzadtságszaga volt az egész sztorinak, olyan "én is tudok ilyet csinálni bmeg" jelleggel. ezekből nem szokott sok jó kisülni.
igazából pont az általad leírtak miatt nem értem a hisztit a GameWorks körül. kapsz néhány extra effektet a játékban, amik enélkül nem lennének benne. ha nem tetszenek, vagy túl sok erőforrást zabálnak, akkor egyszerűen nem használod őket.
 - 
			
			
válasz
							
							
								Malibutomi
							
							
								#3073
							
							üzenetére
						az lesz az igazi, ha külön fog megjelenni a GTA Va és a GTA Vn

amúgy a GameWorks-nek nincs semmi baja (ha azt nem számítom bajnak, hogy marhára nem érdekelnek az effektek, amik benne vannak
 ), a minőség a kiadó keze munkáját "dícséri"... - 
			
			
nem volt valódi a cáfolat, mert egy szót sem szólt arról, hogy mi az oka az AMD DX12 és az nVidia DX12 közötti, a vártnál nagyobb differenciának.
a grafikonokról az a véleményem, hogy a DX12 tesztek teljesen GPU-limitesek, kivéve a GTX 980-at, ami ennek megfelelően gyorsul is 2 mag és 4 mag között. a 290X-nél a Mantle azért gyorsabb, mint a DX12, mert feláldoztak némi CPU-erőforrást annak érdekében, hogy a GPU parancs-pufferén kisebb legyen a terhelés, így kicsit feljebb tolták a GPU-limitet.
 - 
			
			
senki nem beszélt a Mantle-ről, a DX12-n van a hangsúly, a Mantle csak egy mellékes információ a tesztben. szerintem nagyon is megállja a helyét a következtetésem, de lehet (valódi) cáfolattal jönni

hogy az AMD-re alapból sokan fognak optimalizálni
ez pedig elméletben így van, de a gyakorlatban már most is látszik, hogy PC-re újra kell optimalizálni. nem mondom, hogy a konzol-hatás 0, de arról szó nincs, hogy sokkal nagyobb munka lenne nVidiára - sőt, attól tartok, hogy sőt

meg ugye nem csak konzolportok léteznek... - 
			
			
nagyon érdekes ez a DX12 teszt - annak ellenére, hogy minden preprepre állapotú benne, néhány érdekes következtetést azért le lehet vonni belőle.
1. Abunak teljesen igaza van abban, hogy kritikus lesz a program oldali optimalizálás - ez nagyon jól látszik a 290X / 980, valamint a 285 / 750Ti viszonylatból.
2. Ez a teszt erősen arra utal, hogy az nVidia "buta" architektúrájára (mind a Maxwellre, mind a Keplerre) könnyebb optimalizálni, mint az "okos" GCN-re. Ez önmagában nem túl meglepő, nyilván komplexebb tudást nehezebb megfelelően kiaknázni - viszont az "nvidiaköcsögmertnemdokumentáljaazarchitektúrát" típusú érvelést a jövőben érdemes erős fenntartásokkal kezelni, mert egyáltalán nem biztos, hogy ez tényleg akkora probléma, legalábbis end user oldalon.
3. Az optimalizálás mértéke nagyban függ a ráfordított időtől - mindegyik architektúrára fel lehet rajzolni egy kb. görbét, hogy mennyi idő befektetésével milyen közel lehet jutni az ideális eredményhez. A teszt arra utal, hogy ez a görbe a Kepler és a Maxwell esetében meredekebben megy felfelé, mint a GCN esetében - cserébe valószínűsíthető, hogy az ideális pont a GCN esetében magasabban van.a fentiekből azt az (erősen tentatív) következtetést lehet levonni, hogy a DX12-s játékokban az AMD-tulajok sokkal inkább rá lesznek utalva a kiadók jóindulatára, mint az nVidiások. tekintve, hogy jelenleg az AMD-nek van több kiadó-partnere, ez a jelenlegi egyensúlyt talán nem fogja nagyon felborítani - viszont extrém szélsőségekre (mindkét irányban) nagyobb arányban számítanék, mint eddig.
 - 
			
			
sajna nem emlékszem pontosan, mennyi volt a 4GB-os 680, de az rémlik, hogy annyival volt drágább, mint a 7970

haaaaalt!
 senki nem beszélt a Tonga GPU-ról, az R9-285-ről van szó. ha építenek a Tongára egy fasza 370-est, akkor örülünk. de attól a 285 még az marad, ami.(#2941) Laja333: nincs elképzelésed, hogy mi fog történni, csak hajtogatod, hogy szerinted nem. gondolom azért, mert az iparági tudásod nem túl erős. ez nem baj, csak akkor nem kéne ilyen stílusban...
amúgy az indoklásom roppant egyszerű - a 380-at várom a 970 játszópajtásának, és az determinálja a többit is:
370: ~200 USD
370X: ~250 USD
380: 300-350 USD
380X: 400+ USD - 
			
			
El is avultak végül a 7970 vetélytársuk mögül a 680-ak, igaz, nem a Fermihez képesti butítások, hanem végül a 2GB ram miatt, de a végkifejleten nem sokat változtat.
néhány konkrét sarokesetben ez valóban jogos
 bár aki ezen aggódott, az tudott 4GB-os 680-at venni.de azért ha ránézel a két cuccra, meg a specifikációkra, azért na...
durvának tűnik a különbség a unitok száma alapján, viszont nézz rá az órajelekre is - mindkét domainban közel 30% (!) a 960 előnye. az sem kicsit durva.
(#2938) Laja333: mondom - ne azt írd le, hogy miben kételkedsz, hanem hogy mit gondolsz... amúgy simán benne van a pakliban, hogy a 370 egy átnevezett Tonga lesz.
 - 
			
			
ha választhatnék a 960 és a 285 között, akkor mindkét cégnek azt üzenném, hogy 200 USD-ért dugják a seggükbe a csodálatos kreálmányukat

nem azonosítalak senkivel, ne vedd személyesnek a dolgot. egyszerűen csak arról van szó, hogy minden egyes generációnál előjön az elavulós kérdés. most éppen Te mondod ezt a Maxwellről, korábban más mondta a Keplerről / Fermiről / G9x-ről. eddig egyszer sem jött be
(#2934) Laja333: tessék konstruktívan érvelni - mondd meg, szerinted hová fogják pozícionálni - a "nem tudom, de nem oda, ahová te mondod" nem érvényes válasz

 - 
			
			
válasz
							
							
								Laja333
							
							
								#2926
							
							üzenetére
						így van, lehet, hogy a 780Ti-t megelőzi, a 970-et pedig minden bizonnyal. azt is megmondom, miért: az initial launch nVidia teljesítményeiből a boost bevezetése óta bátran levonhatsz 5%-ot, mert a launchkor tesztoldalak nyilván maximum boost binbe sorolt kártyákat kapnak. ez egy egyszerű teszt-manipuláció, amivel fixen számolhatsz, semmi köze az architektúrához.
nem viccelek, a 370 fog a 960 ellen menni (200 USD), a 370X meg a 960Ti ellen (250 USD, ha lesz olyan). mert szerinted hová lesznek pozícionálva?
(#2927) HSM: tök jó, hogy in hindsight megmagyarázod, hogy igazából nem is voltak olyan rosszak azok a kártyák (mellesleg a 9600GT a 3870-nel versenyzett - nem volt ütős?). de akkor azt mondta az AMD-párt, hogy hülye, aki olyat vesz, mert hamar el fog avulni. akkor most mi van?

 - 
			
			
válasz
							
							
								Laja333
							
							
								#2924
							
							üzenetére
						a tavalyi (tavalyelőtti) generációnál pont annyira érezhető, amennyire daveoff linkelt tesztje mutatja - kb. semennyire. van játék, ami AMD-n gyorsult sokat, és van, ami nVidián. business as usual - tessék átfogó tesztet mondani, nem kiragadott példákat.
majd ha a 370 porba alázza a 960-at, akkor térjünk vissza a témára - de ezt sajnos nem hiszem. pedig a piacnak jót tenne
 - 
			
			
válasz
							
							
								Laja333
							
							
								#2917
							
							üzenetére
						azért vicces ez a post, mert ugyanazt a propagandát hajtogatod, aminek a cáfolatára írtam 3 személyes példát az elmúlt 7 évből. ha nem csak kiragadott példákkal jönnél elő emlékezetből, akkor lehet, hogy nem futsz bele egy ekkora melléfogásba - ahogy arra többen rávilágítottak.
igen, nyilván az nVidia egy csomó mindent beáldozott a hatékonyság oltárán a Maxell generációban (btw. az előzőeknél mi volt a beáldozás tárgya?). nem ez a kérdés. az a kérdés, hogy a beáldozott dolgoknak a) mennyi a jelentősége van, b) mennyi jelentősége lesz. az a)-ra tudjuk a választ: semmi. a b)-re nem tudjuk a választ - személy szerint nem nagyon hiszek benne a történelem miatt, de ez mindenkinek szíve joga.
 - 
			
			
kb. 7 éve megy ez az "nVidia hamar elavul" propaganda a pH!-n. ehhez képest:
- a 9600GT-m két év alatt nem lassult le a konkurenciához képest.
- a GTX460-am két év alatt nem lassult le a konkurenciához képest.
- a GTX660-am két év alatt nem lassult le a konkurenciához képest.nem vélsz felfedezni valamiféle mintát a fentiekben?

 - 
			
			
a játékélmény rovására felpumpált FPS-értékekről volt szó - ott is pontosan az volt a helyzet.
a "hardcore gamer" a témával kapcsolatban pedig idézet, nem tőlem származik
(#2781) Abu85: nem kell frame pacing, de a lassabb framerate ugyanúgy magasabb input laggal jár.
egyébként ennek sem itt, sem a frame pacing esetében nincs jelentősége, csak a reprezentációk közötti eltérésre mutattam rá. - 
			
			
válasz
							
							
								deadwing
							
							
								#2778
							
							üzenetére
						végül csinált az AMD is frame pacinget, a komplett játékos / tesztelőtársadalom hosszas könyörgése hatására, úgyhogy nagyrészt a múltban. ha jól tudom, a Catalystban kikapcsolható, azaz meg tudod nézni, hogy fest 144Hz-es monitoron. gondolom, 50-60 FPS sebesség esetén ugyanúgy, mint egy 60Hz-esen.
 - 
			
			
 - 
			
			
nem vitatom a potenciális előnyöket, viszont jelentős kockázatot hordoz egy ilyen technológia bevezetése - várhatóan az első ráépülő termékek igen sokba fognak fájni gyártáskor, + csúszások. én most az AMD helyében mielőbb kidobnék egy 380X-et, ami gyorsabb a 980-nál, és a flagshipben kísérletezgetnék a memóriával - ha egyáltalán 2015-ben.
(#2621) Malibutomi: nem feltétlen áll vissza. a 970/980 egy elég érdekes piaci húzás miatt volt ennyire zajos siker - remélem, az AMD is képes egy ilyenre, de egyáltalán nem vagyok benne biztos.
(#2623) Habugi: passz, nem szoktam ennyire belemászni a számokba. annyit tudok mondani, hogy a meglódulások nem igazán kötődnek a csúcskártyákhoz, ha valaki meg tudja lepni a piacot (jó irányban - nem a Titan Z-re gondolok
 ), akkor el tud csaklizni pár %-ot az ellenségtől. - 
			
			
válasz
							
							
								Malibutomi
							
							
								#2619
							
							üzenetére
						onnan, hogy a piaci részesedés billegése nem műszaki kérdés. akkor fog tudni az AMD piaci részt visszarabolni az nVidiától, ha lesz egy terméke, ami a 980-nál
1. gyorsabb
2. számottevően (min. 15-20%) olcsóbbaz #1-est vehetjük biztosra, innentől csak a második a kérdés, ami elsősorban üzleti. a technológiának persze van közvetett hatása az árra, egy kevésbé drága terméket könnyebb jó áron adni. megjegyzem, ez pont a HBM ellen szól...
 - 
			
			
19:09 - Ami az AMD-s DX implementációt illeti, nem hinném, hogy drasztikusan rosszabb lenne, ha pedig mégis, akkor nyilván már rég kiszaglászták volna, az Nv-é miért jobb, és megcsinálták volna ők is....
20:54 - AMD DX-szel ott különösen rossz a helyzet a Shanghai mapon, a torony ledőlése után
hmmmmm...
![;]](//cdn.rios.hu/dl/s/v1.gif)
 - 
			
			
#1: igen, ha nem egyformák az FPS-ek, akkor külön kell számolni.
azt szívesen megnézem, amikor egy vakteszten különbséget teszel 49ms és 83ms input lag között
#3: nem tudom, ez mennyi lehet, de nem hiszem, hogy a frame delivery idejével azonos síkon mozog.
Bármi miatt is érzékelhető a különbség, van. Márpedig ha a DX okozza, nem is a prerenderer, akkor ott az Nv-k is érintettek, nem csak az AMD-k szvsz.
ha az AMD DX-implementációja okozza, akkor az nV-k nem érintettek...
 - 
			
			
három lehetséges kimenetele van a mérésnek:
1. nVidia oldalon az input lag (4 * 1000 / FPS ) mseccel nagyobb, mint AMD oldalon. ebben az esetben az látszik, hogy a megnövekedett input lag még nem lép át egy olyan mértéket, ami a játékosok többsége számára érzékelhető.
2. a két input lag között kisebb a különbség. ez esetben a Mantle-lel kapcsolatos információ fals.
3. a két input lag között nagyobb a különbség. ez esetben az nVidia még 5-nél is nagyobb prerenderrel dolgozik. ez kevéssé valószínű.pontot egyik kimenetel sem tenne a kérdés végére, bár valóban érdekes lenne látni.
(#2529) HSM: ha látod a különbséget az 1 és a 3 között, az sokkal valószínűbb, hogy a DX renderer valamilyen egyéb problémája miatt van, nem a prerender miatt.
 - 
			
			
nem a zöld szemüvegtől nem látják (ill. nem látjuk
 ), hanem attól, hogy nincs mit látni. csak a duma megy arról, hogy micsoda hűde dolgokra lennének képesek az AMD kártyák a Mantle API-val, de mindig van valami kifogás, hogy éppen most miért nem. vagy ha éppen most igen, akkor azt valami furcsa módon a másik oldalon is meg lehet valósítani. legyen olyan kedves az AMD, és tegyen már valamit le az asztalra, amivel az nVidia nem tud versenyezni... - 
			
			
nyilván időzítésbeli okai vannak, de nem feltétlen jelenti azt, hogy sehol nincsenek vele. ha úgy érzik a HPC piacon, hogy most kell az erősebb cucc, akkor nem fognak vele 2-3 hónapot sem várni. a legrosszabb, ami történhet, hogy a vevő 6 hónap múlva upgrade-el a Maxwell alapúra

 - 
			
			
válasz
							
							
								Laja333
							
							
								#2452
							
							üzenetére
						ami késik, az most nincs itt. hogy múlik-e, azt majd meglátjuk - az AMD-nek a múlásban elég tekintélyes track recordja van.
a 980 előnye átlagosan 10-15% - van, ahol több, van, ahol a 290X ott van a nyakán.Amd-n jobb a vizuális élmény nagyobb teljesítmény mellett, pont.
ez az, amit eddig sem tudtál indokolni / bizonyítani - attól nem lesz igaz, hogy mögé írod, hogy pont.
folytassuk akkor, amikor bemutatod vizuálisan, miben jobb az AMD. addig sok értelmét nem látom.
 - 
			
			
válasz
							
							
								Laja333
							
							
								#2434
							
							üzenetére
						még direkt világosan le is írtam, hogy ez akkor számítana, ha tucatjával lennének ilyen játékok - ahogy az nV 10-15% előnye esetében vannak is.
a képminőségbeli javulásra meg vagy kellene vizuális bizonyíték, vagy kellene olyan teszt, ahol egyforma a képminőség, és úgy látszik a teljesítmény-különbség. addig, amíg csak szövegelés megy róla, valóban lényegtelen.(#2435) HSM: lehet - de most nincsenek.
 - 
			
			
válasz
							
							
								Laja333
							
							
								#2414
							
							üzenetére
						ugye a SEV3-mal viccelsz? 5-10% performance boost - ez szerinted érdekel valakit azon kívül, akinek már AMD-je van? ezt több tucatnyi játékban kellene hozni ahhoz, hogy bármi súlya legyen.
ezzel szemben áll, hogy nincs CF. hmmm.a Civ-ben valóban van értelme a dolognak (valahol írtam korábban, hogy egyelőre két játékban hoz kézzelfogható eredményt a Mantle, ez az egyik, a másik a BF4 multi). olvastam, hogy milyen céllal csinálták a Mantle renderert, teljesen jó, bár sajnos elég nehezen számszerűsíthető.
 - 
			
			
megnézem, amint lesz WHQL

belső VS külső: ahogy írtam, a belső implementációfüggő. lehet ugyanaz a szar is, de ha a pixelenkénti depth infot elkéri és felhasználja a filter, akkor már sokkal jobb lesz az eredmény. az AA minőségét tekintve talán nem, viszont az anomáliák tekintetében biztosan.
 - 
			
			
warte bitte, nem ugyanarról beszélünk. a kívülről (vagy driverből) kényszerített eljárások tisztán postprocessek, van nekik a 32-bites pixelekből álló kép, oszt' csókolom. úgy nem nehéz homályos szart gyártani.
én arra az FXAA-ra gondolok, amit a játékon belül kapcsolsz be - ott implementációtól függően több információból dolgozhat a filter. nézd meg pls, hogy a Borderlands: Pre-Sequelben is annyira gázosnak látod-e az FXAA-t - én tegnap lőttem két képet, és bár egyértelműen látszik, hogy az FXAA egy-két helyen homályosabb, egyáltalán nem tűnik vészesnek. - 
			
			
a DoF-nak szerintem sincs sok keresnivalója a játékokban, különösen nem az FPS-ekben. a motion blur implementációfüggő, lehet jól is csinálni, meg szarul is (jellemzően az utóbbi szokott sikerülni).
az FXAA kis mértékben tényleg tompít, de én csak akkor látom, ha kifejezetten figyelek rá. ráadásul nem is mindig lehet megkülönböztetni, hogy az FXAA miatt tompa valami, vagy maga a textúra olyan. az eredeti MLAA sokkal rosszabb volt.
amúgy Radeonon és GeForice-on ugyanúgy fest az FXAA? TTomax? - 
			
			
annyi ROP-ja van a 770-nek is
 viszont a Radeonoknál a blending egy csomó adattípuson fullspeed, nVidián meg csak INT8 mellett, a többi esetben halfspeed.
az AA nélküli eredményben a high end kártyák platform-limitesek (vagy a játékban van FPS-limit), azt nem érdemes nézni - a 780Ti ugyanúgy "elhullik", mint a többi. - 
			
			
a 770 és a 280X eredményét nézd. a két kártya hasonló súlycsoport, kicsit a 770 szokott gyorsabb lenni, itt viszont a 280X gyorsabb SSAA nélkül 20%-kal. ennyiben tehát radeon-barát a játék, aminek számos oka lehet - de nem úgy tűnik, hogy a memória-sávszél közöttük van.
4xSSAA mellett az olló nyílik - pixel delivery-ben erősebbek a radeonok, a 4xSSAA pedig 4x annyi pixel. nekem reálisnak tűnik a különbség növekedésének mértéke - a 4K felbontásnak megfelelő beállítás mellett a 290X 20%-kal gyorsabb, ahelyett, hogy valamivel a 980 lenne előrébb. ez összecseng a 770 és a 280X 1920 + noAA eredményénél látottakkal. - 
			
			
és hogy lesz ebből jó skálázódás?
 ha a két GPU között funkcionális egység szintjén osztod meg a feladatokat, akkor maximum annyit tudsz nyerni, hogy az egy GPU-n belüli átlapolás hiányosságait kiküszöbölöd. vagy esetleg kicsit többet, ha minden fázisod shader-heavy.
persze, ha a raszterizációs pipeline-ba is belegyalogolnak traktorral, akkor más a helyzet. netán erről lehet szó?
 - 
			
			
én kérek elnézést
 ez mondjuk azt is jelenti, hogy az értelmesen Mantle-supported játékok aránya 33% helyett 25%, de ezt már az ellen-marketingben valamelyest jártas szemétláda mondatja velem, úgyhogy ne jegyzőkönyvezzük ![;]](//cdn.rios.hu/dl/s/v1.gif)
tök jó, amiket a SE3-ról írsz - nekem ez úgy fordul le, hogy a motort felkészítették arra, hogy a jövőben könnyű legyen low-level API-kra ráültetni. ez teljesen jó már most is a Rebellionnek, és jó lesz a jövőben az AMD-vásárlóknak is - csak éppen itt és most a csokis hasonlattal leírt előny esik le belőle, emiatt nem vennék 290-et. de ha mutatsz tesztet, ahol egy i3-on / kétmodulos APU-n jelentősen jobb a Mantle renderer, akkor backtrackelek

(#2193) Televan: ha nincs 290-ed, akkor azért, mert a 970 jobb ár/teljesítmény aránnyal bír, és kevesebbet fogyaszt és / vagy halkabb (ill. a 980 a leggyorsabb, ha ez fontos). ha van 290-ed, akkor 1-2 évig úgyis jó vagy vele, ne válassz nVidiát

 - 
			
			
válasz
							
							
								Malibutomi
							
							
								#2184
							
							üzenetére
						a +70e FT-ot azért fizeted, hogy minden játékban meglegyen a +néhány FPS, nem pedig azért, hogy háromban. a Sniper Elite 3 teszt alapján olyan ez a Mantle, mint amikor veszel 300e FT-ért egy kanapét, és adnak ajándékba hozzá egy igazi, gusztusos, jó minőségű tábla csokit, kb. 800 FT értékben. örülsz neki, de a vásárlásodban még csak véletlen sem szempont.
nem tudom, gyengébb CPU-val lenne-e valami komolyabb differencia, de miután a SEv2 még egy G2020-assal is kényelmesen ment 90-100 FPS-t, olyan nagyon nem hiszem. ezzel a motorral akkor lett volna értelmes a Mantle, ha VGA oldalon is hoz extra performance-t (állítólag lehet vele olyat is
 ).szóval számoljunk - eddig 3 játék jött Mantle-lel, ebből egynek van is gyakorlati értelme (BF4). és már egy évesek a 290-esek, amik mellett elméletileg nagy selling pointnak kellett volna lennie. vonjam le a következtetést, vagy mindenki levonja magának?

 - 
			
			
válasz
							
							
								daveoff
							
							
								#2173
							
							üzenetére
						árban és teljesítményben nincs érdemi eltérés, a fejlettebb architektúra eddig sem segített a régebbi high end AMD termékeken, a mantle pedig még mindig alig több vaporware-nél. viszont a 3GB memória a Watch Dogs megjelenése óta lényegesen nagyobb súllyal esik latba, mint eddig. ezzel szemben az nVidia-nál ott a PhysX (érdemben nem sokkal több játékban, mint a Mantle), és általában tisztább, szárazabb érzés - mondjuk mostanában csak akkor, ha nem rakja fel az ember azonnal az új drivereket
![;]](//cdn.rios.hu/dl/s/v1.gif)
továbbra is azt tudom mondani, hogy speciális árbeli (beleértve a bónusz játékokat is) kilengésektől vagy specifikus (létező) feature-öktől eltekintve beállítottság szerint érdemes a két gyártó közül dönteni - konzervatívabb és kényelmesebb alkatok számára az nVidia a jobb választás, a kísérletező kedvhez jobban passzol az AMD.
 - 
			
			
az örömteli, hogy Neked bevált a GT640, mert akkor nem kell a későbbiekben sem vagyonokat költened VGA-ra

ami a fő gond a 640 környékén, az az, hogy teljesítményben sokkal nagyobb távolságra van az alsó középkategóriától, mint árban. szerintem az nVidia legolcsóbb (újan) vállalható kártyája a GTX 750, és ezt a teljesítményszintet korábban 22-23e FT körül el lehetett érni, most meg 30e. helyette van a csaknem 2x lassabb 640 ezen az árszinten. ezért "fáj" sokaknak ez a kártya. - 
			
			
Sosem olvastam még olyan jellegű hozzászólást 50k-s VGA-val rendelkező embertől hogy "NV-vel minden szebb és jobb"
akkor itt van egy - az ár / teljesítmény és hang / hőmérséklet területén kiváló ASUS 7770-től azért szabadultam meg, mert folyamatosan voltak vele kisebb-nagyobb nyűgök. bezöldültem, és ezek megszűntek.
 
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Rendkívül ütőképesnek tűnik az újragondolt Apple tv
 - Vallás
 - Android alkalmazások - szoftver kibeszélő topik
 - VR topik (Oculus Rift, stb.)
 - Mibe tegyem a megtakarításaimat?
 - HiFi műszaki szemmel - sztereó hangrendszerek
 - Projektor topic
 - Fotók, videók mobillal
 - Hivatalos a OnePlus 13 startdátuma
 - Villanyszerelés
 - További aktív témák...
 
- Nagyakkus, mobilnetes - Dell Latitude 5330 i3-1215U 6mag! 16GB 1000GB 13.3" FHD 1 év gar
 - Update 10.28. Lenovo ThinkPad, X1 carbon, X1 Yoga 5-13. gen 12,5-15" all-in-one, Workstation
 - Samsung Galaxy S23 / 8/256GB / Kártyafüggetlen / 12Hó Garancia
 - AKCIÓ! Apple MacBook Pro 16 M4 Pro 48GB RAM 4TB SSD macbook garanciával hibátlan működéssel
 - ÁRGARANCIA!Épített KomPhone i5 13400F 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
 
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: Promenade Publishing House Kft.
Város: Budapest
								
							
							
							
							

 ). Nagyon kell az iparnak egy ütős 390X.
 troll off). Végezetül, ha van választás, az mindig jobb, mint ha nincs. Ha van, akkor még mindig dönthetsz aszerint, mintha nem lenne - ha nincs, akkor ez elég nehéz 
							
							
							
							
							
							
							

							
							
 hol a p***ában van már a 300-as széria? 
 bár aki ezen aggódott, az tudott 4GB-os 680-at venni.
							
							
							
							
 ez mondjuk azt is jelenti, hogy az értelmesen Mantle-supported játékok aránya 33% helyett 25%, de ezt már az ellen-marketingben valamelyest jártas szemétláda mondatja velem, úgyhogy ne jegyzőkönyvezzük 
							
