Új hozzászólás Aktív témák
-
Koszonom a reszletes kifejtest. Meggyozo volt. Mar amugy is kezdtem a 7970 fele hajolni, ahogy egyre kozelebb kerultek az arak egymashoz. Igy mostmar nem kerdes.
dergander: Ha megnezed a logout blogomat, lathatod, hogy nem vagyok NV fan. Eddig 4 kartyam volt, fele NV fele AMD. Mindegyik a maga idejben best buy volt, es soha nem csak a tesztek miatt dontotttem valamelyik mellett, hanem a hosszu tav miatt kikertem a szakik velemenyet. (ez alol a 8800GT kivetel volt)
Loncsi: Argep alapjan valasztom a boltot, es mivel IT cegnel "dolgozom" ezert nettoban tudom megvenni a kartyakat.
-
Beri78
őstag
jöjjenek csak, és essenek le az árak!
-
Angel1981
veterán
"Az okokat a gyártópartnerek szerint a PLX PEX8747-es jelzésű PCI Express 3.0-s elosztóhíd hiánya okozta, mely a GeForce GTX 690 megjelenése után kialakult általános hiányért is felelős volt. Mára a helyzet úgy néz ki, hogy normalizálódott, így a Radeon HD 7990 megjelenése elől elhárultak az akadályok."
Nevetséges!
-
mghltm
addikt
válasz
FRENK1988 #50 üzenetére
gyanitom nem ilyenre gondoltal, de olvasgatni nem rossz
-
FRENK1988
veterán
Kis állóvíz felzavarás jó lenne már
-
Manbal
senior tag
válasz
matteo_szg #6 üzenetére
Nem hiszem, év vége felé már kopogtat az ajtón a 8xxx széria...
-
Artyy
csendes tag
A 7770-ellen szerintem a GTX 650-et várd. Inkább a 7750-et fogja befogni az erősebb GT640. Az Nvidia GT640 OEM-termékében a GDDR5-nek 5 GHz memória-órajele van a 1782 MHz-hez képes. Ebből elég logikus, hogy nem a GK107-tel lesz a baj, hanem igen gyengére lett szabva rossz árazással.
Amúgy a cikk valamennyire megerősíti, hogy valószínűleg ez lesz a GK106, GTX660 speckója. [link]
A GTX660 Ti meg GK104-el jön. [link] -
Z10N
veterán
válasz
csucsbicep #25 üzenetére
Erre varok en is egy 7790/7830 (768/896) $200 kornyekere es 100W koruli fogyasztassal.
-
Abu85
HÁZIGAZDA
válasz
dergander #45 üzenetére
Tudja az NV is, hogy mit csinál. Terveztek egy megfelelő mutatókkal rendelkező architektúrát a Tegrához. Később nekik is lesz olyanjuk, amilyen a GCN, és azt majd társítják a Denver CPU-magokkal.
Ha csak a VGA-piac alapján ítéljük meg a rendszereket, akkor most nem jó képet kapunk, mert - ahogy kifejtettem fentebb - egyik architektúra sem az a tökéletes VGA-ba illő megoldás.
Valójában a kitűzött célnak mindkét architektúra megfelel. Az a fontos, hogy meg kell érteni, hogy ma már nem a VGA-piac meghódítása a cél. A VGA-piacon a nézőponttól függ, hogy melyik cég szakemberei tűnnek infantilis idiótáknak, de ha megértjük, hogy milyen céllal születtek az architektúrák, akkor jóval árnyaltabb a kép, és ki lehet jelenteni, hogy jó munkát végzett mindkét vállalat. -
dergander
addikt
bár mivel te nv fan vagy igy nemis fogsz AMD-t venni,de tény hogy a jövő megkezdödik a GCNel és a showdown még csak a kezdeti fázis,én az nv helyébe kicsit idegeskednék hogy a jövöbe a 140.000 forintos kártyájuk csak a 75.000+ forintos 7870 szintjét hozogatja...
Énis nv mellet voksoltam már igen réged,de az AMD megerősödni látszik és találtak valamit ami jó irányba halad,sajna az nv nemtalálja a fonalat.
Mellesleg a 3D mark egy program,játszani nemtudsz vele,semmire nemjó csak hogy az intel + nv kártyákra több pontot ad ez igy volt már a 3dmark06tól kezdve szóval nem mérvadó,lesz bőséges játékok még Tomb Raider,Alien,GTA5,assassin creed lehet falatozni lehet kártyákat venni
-
Abu85
HÁZIGAZDA
Én korábban már kifejtettem, hogy szerintem sem a GCN, sem pedig a Kepler fejlesztésénél nem játszott főszerepet a VGA-piac.
A Kepler a compute hatékonyság szempontjából egy butított Fermi. Tisztán látszik, hogy a harmadolt shared memory teljesítmény, és a változatlan össz. regiszterterület a tranzisztorspórolásra ment ki. Emellett még bedobott az NV pár trükköt szintén a tranyóspórolás miatt (szoftveres pre-decode), és sikerült megoldani az interpolálással kapcsolatos teljesítményt, ami most már valszeg sosem lesz szűkös. A mérhetetlen tranyóspórolás arra ment ki, hogy sikerüljön egy olyan architektúrát csinálni, melyet be lehet dobni a következő Tegrába. A G80 leszármazottakat és a Fermit nem lehetett. Mindkettőnek nagy volt a pJ/FLOP mutatója, és egy bizonyos szint alá nem lehetett őket skálázni. A Kepler megfelelő lehet. Az biztos, hogy nem változatlanul kerül majd a Tegra 4-be ez az SMX, de jó a kiindulási alap, így ezzel már szépen lehet játszani. Az meg az ultramobil szinten senkit sem fog érdekelni, hogy gyenge a shared memory teljesítmény. Az ARM-os konkurenseké sem lesz jobb, vagy ha az is lesz, akkor nem sokkal.
A GCN-ről ugyanúgy elmondható, hogy nem éppen VGA-ba illő rendszer, csak más viszonylatban. Ennek az architektúrának a shared memory teljesítménye pokolian nagy ... ötszöröse a Keplernek. Az össz. regiszterterület óriási. A Tahitiben 8 MB-nyi regiszter van, ami négyszer több, mint a GK104-ben. Ezzel brutálgyors a context switch. Az igazán nagy érték viszont a cacheszervezés. Blokkonként megosztott külön skalár és utasítás gyorsítótár, nagyon tempós, írható L1-L2. Kvázi olyan, mint egy processzor cacheszervezése, csak kisebb méretű tárakkal. Ezek együttesen hozzák össze a durva compute hatékonyságot. A GCN viszont tartalmaz érdekes dolgokat. Az AMD úgy tervezte, hogy támogassa a C++ nyelvet, a virtuális funkciókat, a kivételkezelést, a rekurziót, valamint a pointereket. Ezenkívül a rendszer elhagyta a dedikált branch control egységet és a VLIW elvet. Előbbi helyére bekerült egy skalár processzor, így a GCN ma már úgy kezeli az elágazásokkal tarkított kódot, mint egy központi processzor. Tulajdonképpen, ha összehasonlítjuk a GCN és például a Barcelona processzormag logikai felépítését, akkor rá lehet jönni, hogy annyira nincs is nagy különbség. A két rendszer felépítése más, hiszen az egyik TOC (GPU), míg a másik LOC (CPU) elvet követ, de pusztán a logikai működésben már nem lehet azt mondani, hogy a GCN nagyon különböző lenne. [link] ... Az AMD-t tehát a tervezésnél az vezérelte, hogy mi az amit jó lenne betenni az APU-kba, és ezzel összességében csökkenthető lenne a pJ/FLOP mutatója a chipnek.Szóval összességében egyik sem az az ideális VGA-ba szánt rendszer, legalábbis én 2012-ben nem ilyen VGA-kra számítottam. És főleg nem arra, hogy ekkora különbség lesz a két architektúra között. Szerintem valahol a kettő között van az ideális egyensúly, de annyira pici a szegmens, hogy a cégek más piacokra terveznek, aztán ami kialakul a tervből az jó lesz VGA-nak. Nagyjából ez a lényegi fejlesztési stratégia a VGA-piacon. Főznek egy architektúrát a távoli tervek szerint, aztán összedobnak rá egy dedikált GPU-t ... hogy az milyen lesz kvázi lényegtelen, ha az architektúra beváltja a hozzá fűzött reményeket.
A kérdésed igazából játéktól függ. Az biztos, hogy a 2012-ben eddig megjelent DX11-es játékok inkább a GCN-nek kedveznek, és ha azt nézzük, hogy a Win 8-cal a fejlesztők kapnak egy shader-trace interface-t a DX11.1-ben, az is a GCN-nek kedvez közvetve. Ez ugye csak a DirectCompute programok teljesítményének kielemzésére lesz, de a fejlesztők kérték, mert jelenleg azért nem bírnak a mostaniaknál bonyolultabb kódokat írni, mert az aktuális fejlesztőeszközökkel nehéz követni, hogy hol kellene rajta optimalizálni. A lassú kódot pedig senki sem szereti. Nyilván néha lassú lesz, de nem azért, mert így tervezték a normális gondolkodású fejlesztők, hanem mert így alakult. A Kepler a geometry shader kódokban jobban kell, hogy működjön, legalábbis elvi adatok alapján erre következtetek.
Az effekteket a játékokban sokféle módon meg lehet oldani. Ma már erősen programozhatók a GPU-k, így jellemzően a fejlesztő dönti el, hogy mely opciót választja. Ezt több tényező befolyásolhatja. Nyilván egy multiplatform címnél komoly szempont szokott lenni, hogy az adott eljárás ne csak PC-n legyen megvalósítható. Erre a valós idejű GI manapság elég jó példa. Ott a DiRT: Showdown és a Ghost Recon Future Soldier. Mindkettő eltérő algoritmust használ, de közös bennük, hogy DirectCompute-tal gyorsított effektről van szó. Na most egyik program GI effektje sem érhető el konzolon. A Far Cry 3 GI effektje például szándékosan olyan, hogy konzolon is fusson. Éppen ezért a referenciaalgoritmus egy 2003-ban publikált megoldás. Nyilván minőségben nem fogja elérni a sokkal újabb DiRT: Showdown és Ghost Recon Future Soldier GI implementációjának szintjét, hiszen ezek jóval újabb algoritmusok, de a Far Cry 3 megoldása működik konzolon. PC-re pedig felskálázható az effekt. 2006-ban Emil Persson csinált is rá egy DX10-es implementációt az R600-hoz [link], és erre az algoritmusra építette az AMD a Ping-Pong demót: [link]. Alapvetően a rendszer capture pontokat használ, amely rácsot alkot. Ha renderelsz egy vertexet, akkor a környezeti színt a rács információi alapján számolja a rendszer. A DX10-es implementáció abban különbözik, hogy a pontokhoz rendelt cube map leképzését geometry shaderrel gyorsítja.
3 GB az elég. Szerintem, ha nem használsz extrém magas felbontást, akkor 2 is. -
Erdekes amiket irsz, de be kell lassam, hogy igazad volt.
Bar hozzateszem, hogy amikkel en jatszom oda jobb az nv. Viszont most allok vga frissites elott es gondolkodom, hogy mi legyen. A gtx680 az ara miatt felejtos. A 670 ok, de most nezem, hogy a 7970 mar olcsobb is. Mivel engem a fogyasztas nem annyira (semennyire) nem izgat), lehet el kene gondolkodni a 7970-en...Szerinted mennyi az eselye, hogy bukik ez a GCN es mondjuk egy teljesen mas iranyt vesz a fejlesztes? Vagy akarmerre megy is tovabb nagyot nem zajozhatok vele...?
Gondolom a 3Gb vram boven eleg lesz egy darabig...Koszi
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #38 üzenetére
Nagyon körülményes a GR: Future Soldier tesztelése, és a PC-s verzióval problémák vannak, ahogy említed is. Igazából egyik sem szól mellette. Nem vetettük még el, de kicsi az esélye, hogy bekerül.
-
Abu85
HÁZIGAZDA
válasz
fatallerror #37 üzenetére
Az Anno 2070 legalább olyan szép mint a Shogun 2. Azt nem mondanám, hogy jobb tesztelni. A Shogun 2 könnyebb, de ez van. Ha nem működik jól, akkor kikerül.
Sok dologról nem rántotta még le a leplet az AMD. Igazából nem túl nehéz a címeket behatárolni. Az AMD-nek általános szerződése van a Codemasters, a SEGA és az Eidos/Square Enix kiadókkal. Szóval ha egy játékot ők adnak ki, az potenciális GE jelölt. A fejlesztők között a Robot Entertainment, a Hidden Path Entertainment, a Creative Assembly, a Nixxes Software, a Rebellion Developments, a Zombie Inc., a Firaxis Games, az Illfonic, a Turbine, a DICE, a Danger Close, a Volition Inc., a Remedy Games, a Starbreeze Studios, a Supergiant Games, a Relic Entertainment, a KingsIsle Entertainment és a Reality Pump az állandó partnerek. Ezenkívül vannak az egy-egy címre szerződött partnerek, akik főleg a fenti kiadótrió miatt kerülnek bele a partnerprogramba, például a Gearbox Software az Aliens: Colonial Marines miatt (az Alien jogok a SEGA-nál vannak). Vagy például a BioWare, akik főleg Gaming Evolved partnerprogramon belül dolgoznak. Itt a helynek is szerepe van. Az AMD-nek van montreáli bázisa, és a BioWare központja is Montrealban van. Ez amolyan kellemest a hasznossal kapcsolat.
-
huskydog17
addikt
Ha már szóba került a Dirt Showdown, mint új szoftver a teszt környezetben, akkor esetleg a Ghost Recon: Future Soldier-nak is van esélye bekerülni? Tudom, hogy jelenleg elég komoly problémák vannak vele PC oldalon, csak érdekelne, a dolog, hiszen amint azt korábban is írtad, ez az egyik olyan játék DX11 területen, amely nagyon nagy mértékben épít a compute teljesítményre, ráadásul ebben is van Global Illumination. Tök jó lenne látni, hogy a mai modern VGA-kra milyen hatással van ez az effekt e két új játékban.
-
fatallerror
addikt
szerintem ettől függetlenül használni fogják, bár én csak megszívnám a jelenlegi gépemmel xD
az anno 2070 mit tud h jó tesztelni?hmm akkor szerintem nem fog érinteni engem az a játék mert amikről tudok h amd-s és érdekel is az a hitman : D firefall még nem tudom h milyen lesz
-
Abu85
HÁZIGAZDA
válasz
fatallerror #35 üzenetére
A DiRT Showdownban a forward+ lighting legjobban akkor látszik, ha este van, és szépen be van világítva a pálya. Nappali pályaviszonyok mellett már annyira nem szembetűnő. Az F1-en igen sokat dobna ez az egész a sötét pályákon, de ebből nincs sok. Maximum a GI implementáció miatt érné meg bevetni.
Majd még meglátjuk, hogy hogyan alakítjuk át a tesztplatformot. A mik jönnek még nincsenek pontosan eldöntve. Ami biztos, hogy a Shogun 2 megy a Kepleres problémák miatt. A régi sebességesést kijavította az új NV driver, de az új patch frissített megvilágítási rendszert tartalmaz, ami furcsa akadásokat okoz a Kepleren. Az már nem érdekel minket, hogy ki a hibás. Úgy nem jó tesztre egy játék, hogy pár héten belül két komoly hiba is adódik a Kepler teljesítményével. Helyette nagyon valószínű, hogy Anno 2070 lesz. Ez kb. el van döntve, de ennyi.
Nem a Hitman a titkos cím, az már nem titok, ami fent van a game.amd blogon. -
-
vinibali
őstag
tényleg nagy csend volt a 6990-nel kapcsolatban. kezdtem félni, hogy eltusolják teljesen
-
Abu85
HÁZIGAZDA
válasz
fatallerror #32 üzenetére
Nincs akadálya, de kérdés, hogy ez az F1-ben mennyit ér. A DiRT Showdown azért alapvetően eltér a grafikai dizájn tekintetében.
-
tombar
senior tag
válasz
matteo_szg #27 üzenetére
óóóh a pí_csába, jöhetne pár ilyen a 660tiről is
-
Abu85
HÁZIGAZDA
válasz
csucsbicep #25 üzenetére
Nem tudom, hogy hogyan lesz. Egyelőre csak a benchmark részt ellenőriztem, hogy mennyire ad következetes eredményt.
Szerintem nem. Sok értelme jelenleg nincs az AMD szemszögéből.
(#27) matteo_szg: Jaj. Ezek a véletlen elszólások.
-
-
Abu85
HÁZIGAZDA
válasz
matteo_szg #13 üzenetére
Én hiszek neked. Csak furcsa lenne a Q4 launch.
A Gaming Evolvedről küldök privit.
-
Abu85
HÁZIGAZDA
A Max Payne 3-mal szenvedek, de dolgozok rajta. Azt felvennénk mi is, csak iszonyatosan körülményes, de szvsz megoldom. Dirt Showdown és a Sniper Elite v2 fel lesz véve.
A Rage-et nem tudjuk mérni, mert a motor úgy van kalibrálva, hogy 60 fps-sel fusson, amikor csak lehet. Ezért a részletességet is csökkenti real time. Nyilván egymás után sorakoznának a rendszerek 60 fps-sel. Ennek sok értelme nincs. Próbáltam kiütni az automatikus korlátokat, de nem lehet teljesen megoldani. Mi is akarunk egy OpenGL-es játékot a tesztbe, de jelenleg nincs sok opció. Gyakorlatilag semmi.
A Skyrim azért gond, mert feltételes elágazást használ a program. Indításkor van egy adatbázis, aminél kijelölésre kerülnek azok a VGA-k, amelyek kötelezően vertikális szinkron mellett futnak. Így ez nem túl jó opció, hiszen nem mehet a játék sebessége 60 fps fölé 60 Hz-es monitoron. Ezt is próbáltam kiütni, de nem vagyok nagyon jártas a crackelésben. Próbálkozásaimat csúfos kudarc koronázta.(#22) tiborandras: Ezek ki vannak véve a programból. Amit a menüben be tudsz állítani grafikát az a max.
-
tombar
senior tag
a következő videó kártya tesztben esetleg bele tudjátok rakni a maxpayne 3at, a showdownt, a rage-t, a sniper elite v2-t, esetleg még a skyrimet? tudom h sok, de egyrészt picit igazodna az anandteches teszthez és az új játékokkal még többet is mutatna.
vagy ez így már nagyon sok lenne Oliverdának és neked, Abu? -
Abu85
HÁZIGAZDA
A BF3-nál nem volt más lehetőség. Világos, hogy senki sem számított rá, hogy hirtelen jön egy architektúra 0,33 bájt/FLOP-os shared memory teljesítménnyel. A DICE gondolom ezt megtudta, és ki kellett venni mindent a játékból, ami extra terhelést adott. A Frostbite 2.0 az speciális eset. Ez a motor másképp működik, mint az eddigi motorok, más döntéseket is kell hozni, szorult helyzet mellett. Az világos volt, hogy a GCN sokat bír, de a Keplert látatlanban nehéz belőni, szóval a legjobb döntés tényleg az volt, hogy lebutítják aztán majd meglátják a későbbi játékokban. A GCN-nek, TeraScale-nak, Ferminek ettől amúgy sem lett semmi baja, maximum nem használják ki az architektúrák képeseit.
Az biztos, hogy a HDAO helyett HBAO lett bevezetve. Előbbi jóval jobb minőségű, és jellemzően gyorsabb, de nem volt célszerű a Keplert terhelni vele. Az AA szempontjából az FXAA került középpontba az MLAA helyett. Ez is az LDS terhelést csökkentette. Bár ez szerintem annyira nem volt komoly mértékű, inkább a HDAO volt itt a kérdés.
A compute az tág fogalom. A GPU-k jellemzően okosodnak. Ma már a GCN úgy néz ki, mint egy RISC processzor, csak nagyon széles vektortömbökkel. A fő előnyöket a compute shader szempontjából az LDS adja, mert helyi szinten meg lehet osztani az adatokat. Ez elég nagy jelentőségű, mert korábban a VRAM-ot kellett igénybe venni, ami sokkal lassabb. Egy GPU ugyan tolerálja a késleltetést, de ettől a gyors adatmegosztás hozhat úgy 3x-os előnyt. A GCN egyrészt azért olyan combos compute-ban, mert az LDS mérete a kétszeresére nőtt a DX11-ben megkövetelt szinthez képest, és különálló tárról van szó, vagyis van még mellette egy L1 data cache, ami extra teljesítményt ad.(#19) adamssss: Ha a AVP-re és a Metro 2033-ra gondolsz, azok régebbi játékok. Azóta már négy új is megjelent. Ezek közül kettő hasonló terhelést fejt ki, mint az említett játékok, és kettő jóval erősebb compute terhelést eredményez. A DiRT Showdown terhelése például elég magas, mert ez az első játék a világon, ami képes több száz pontfényforrást kezelni forward render mellett. Az olyannyira utált, MSAA használatát kizáró deferred rendert anno csak azért vezették be, hogy több száz pontfényforrás rendereljen a motor, mert másképp nem ment korábban. A GCN-nel már megy forward renderrel is, vagyis mindazok az előnyök megvannak, amiket egy forward render ad (működő MSAA, átlátszóság egyszerű kezelése, komplex felületi variációs lehetőségek), és emellett kezelhető ezer pontfényforrás is. Szóval eléggé át lehet gondolni a deferred rendert, mert csak azért tűrik meg, mert sok pontfényforrást kezel. De ha ezt forward render mellett meg lehet oldani, akkor kell a halálnak a deferred renderrel járó rengeteg limitáció.
A motor az nem úgy működik, hogy én azt kedvelem és kész. A CryEngine 3 eléggé az AMD architektúráját kedveli. Egyszerűen a Crysis 2-ben félre van tervezve. Ez magán a játékon is látszik. Rengeteget pöcsöltem vele, hogy találjak egy olyan terepet, ahol nagyjából reális a terhelés, de ilyen nincs benne. Vagy a Kepler a jobb, vagy a GCN ver mindent. Ez nagymértékben a tesztelt pályarésztől függ. A Kepler jellemzően a víz közelében jó, míg a GCN a városi környezetben, főleg ott ahol rengeteg bonyolult tesszellált felület. Ilyenkor a GCN csak lementi azokat. A többi architektúra megpusztul úgy számol, de a GCN csak betölti a lementett felületet és kész. Ez egy trükkös megoldás, de félelmetesen hatékony. Emellett a rasztermotor is másképp működik. A GCN-ben a raszterizálás egyfajta tömörített formában történik. Akár négyszer kevesebb lehet a munka így. Ha kicsik a háromszögek, akkor ez megint nagy előny. Ezért hullámzik a Crysis 2 teljesítménye, és ezért került ki, mert nem találtunk olyan terepet, ahol ne lett volna az egyik architektúrának mesterségesen kialakított előnye. Nyilván persze a GCN-nek nem szándékosan alakították ezt ki, csak így alakult. Majd a CryEngine 3 esetében a másik cím lesz a mérvadóbb. A Nexuiz gyakorlatilag ugyanazokat az effekteket veti be, csak nincs elrontva a program.
A BF3-ról fentebb volt szó.
A motor tehát annyira nem számít. A fő kérdés, hogy mit számoltatsz vele. Ez a fejlesztőkön múlik. -
Ez aztan nagy erdem. 2011 decembere ota van ket jatek amiben van szamottevo kulonbseg az AMD javara... (hozzateszm ket jo jatek)
Van masik 15 ami meg az nv-ken fut jobban. Raadasul a nagy nevek is inkabb az NV-t szeretik...
De csak vegyuk a ket mai legfejletteb motort a CryEngine-t, meg a Frostbyte 2-t. Ha jol tudom, ok a keplert szeretik...Nekem a velemenyem tovabbra is az, hogy egy GTX670 boven eleg mindenre, es a PH-s tesztbol is latszik, hogy helyenkent a 7970-et is alulrol nyaldossa. A fogyasztas kulonbseget pedig a jateokokban smmi nem indokolja...
-
tombar
senior tag
mondjuk tény h mindenkinek maga felé hajlik a keze, viszont a bf3nál ezek szerint az nVnek ennyire kedveztek? a tesztekben sokszor az azonos kategóriában az nV nem kicsit jobb. pl 670 vs 7950. ez a butítás eredménye? illetve ez a downgarde mennyire csökkenti a látványt ill. a működőképességet? vagy csak szimplán compute olyan, mint nagy általánosságban a brute force eljárások? egyszerű és hatásos, de sok naftát igényel?
-
Abu85
HÁZIGAZDA
Idén öt DX11-es játék jött ki. Ebből négy eléggé a GCN-nek kedvez. A DiRT Showdown (ez Gaming Evolved fejlesztés) és a Ghost Recon Future Soldier (ez független fejlesztés) nagyon. Előbbiben a HD 7850 közelíti a GTX 680-at, míg utóbbiban a HD 7870-nel van egy szinten a top egy GPU-s GeForce. Egyelőre ennyi. Valószínű, hogy a TWIMTBP címeknél az NV tiltani fogja az erős compute terhelést, míg az AMD a Gaming Evolvednél igényelni. A független fejlesztéseknél kérdés, hogy mit akarnak a fejlesztők, valszeg nem fogja érdekelni őket a hardver, csak akkor, ha valami gubanc lehet a Kepler gyenge compute képességeiből a motor működésében. Például a Frostbite 2.0 LDS-t használ a deferred renderhez, szóval nem árt kímélni a shared memory terhelést, mert nem szimplán egy effekt születik compute shaderrel, hanem erre épül a motor működése. A BF3-at le is butították megjelenésre, hogy ne legyen probléma a Keplerrel. Akkor nem lehetett mit tenni. Nem volt lehetőség tesztelni, hogy mennyire érzékeny a Kepler a működésre. Ma már lehet tesztelni, és nyilván jóval egyszerűbb eldönteni, hogy maradjon a HDAO, vagy jöjjön a HBAO. Előbbi sokkal jobb minőséget ad, de az LDS-t terheli. Nem volt biztosíték arra, hogy ezt elbírná a Kepler.
(#12) adamssss: Ez már a jelen. A Kepler megjelenése óta 5 DX11 játék jött. Ebből négyben erősebb a GCN. Helyenként nem is kicsit.
(#14) V!ck: Az órajelektől sok dolog függ, de elég messze van a HD 7770. A HD 7750 talán elkapható.
(#16) tombar: A Frostbite 2.0 csak egy motor. Ha a BF3 tervezett módon jelent volna meg, vagyis SRAA által irányított MLAA-val és HDAO-val, akkor az erősítette volna az LDS terhelést. Azért kellett csökkenteni a minőséget, mert nem volt benne biztos a DICE, hogy 0,33 bájt/FLOP mellett egy termék képes lesz elviselni a terhelést. Eredetileg a motort 0,6 bájt/FLOP-ra tervezték, ami logikus volt, hiszen ennyit tudott a leggyengébb architektúra. A Kepler azóta ezt az értéket megfelezte, és így át kellett értékelni a helyzetet. Mivel a Frostbite 2.0 tényleg alapvetően épít az LDS-re, így a legfontosabb dolog, hogy semmi se terhelje túl, mert az a rendszer működésére lenne negatív hatással. Mivel tesztelni nem tudták, hogy a Kepler mennyire jelent problémát, így kivettek minden olyan effektet, ami LDS-t használ, és maradt csak a deferred render. Ezzel biztosították, hogy bármennyire is gyenge a Kepler, ebből gondja nem lesz. Most, hogy van hardver lehet tesztelni, hogy mennyit bír.
-
tombar
senior tag
válasz
matteo_szg #13 üzenetére
a warfighter elvileg frost2es motorra épül. na azon meg a keplerek nem kicsit jobbak. mondjuk írhattak a kódon, aztán meg hőbörög a népség h showdownban a gtx680 semmit sem ér. ilyet kb. a a hawxnál láttam utoljára twimtbp vonalon. ja meg a shogun2es patch is. enyhén érdekes volt h egy evolvedes játékban játékban nyitótáncként a kepler erősebb volt, rögtön utána jövő patchnél meg ultrán beszakadt a kárty, mint a gtx 550 a flex vezérléssel.
-
MZperX75
addikt
S3Trio64-1M,VoodooRush 4M,Voodoo2-8M+S3-4M,RivaTNT2-16M, nagy nagy szünet,Geforce2-MX400-64M(a legrosszabb kártyám) ,nagy ugrás Ati9550-128M(ez is gyengusz) Ati X1650-256M(GDDR3),Ati HD2600XT Passzív,HD4850-512,HD4870-1G...
Kényszerből,de 1 hónap után dobtam illetve az egész konfig eladva(Phenom2X4-945) HD5670-1G GDDR3(nagyon gáz kártya)
És" nem "szándékozok többet venni.
Ha rajtam múlna szegény cégek a VGA kártya bizniszt bezárhatnák,már most.Ezért a fent felsorolt kártyákért 20-30ezer FT-nál többet sohasem adtam,röhejes hogy most
ezért a pénzért max 4830-4850 erősségű csodát lehet kapni kevesebb fogyasztással.2.5-3 éve de lehet már több is a 4850-es kártyámat 32.000Ft-ért vettem, 1 fél évre rá
21.000Ft-ért vettem még egyet a CFX miatt,a HD4870-1G kártyát 28.000Ft-ért vettem 2 év garral boltból.Ebben az árszegmensben semmi értelmeset nem tudok mondani,(talán egy HD7750) talán
de ez sem gyorsabb egy HD4870-nél(persze harmadát eszi de 32.000Ft alatt nem kapni) -
matteo_szg
őstag
a tűzhöz közeli a forrásom, és őszintén szólva mi sem kaptunk semmi infót Q3-as HD7990 launchról...GTX660 Ti és egyéb GeForce-ok jönnek, illetve a MATRIX HD7970. Slussz.
Illetve Q4-ben jön pár ütős játék, amit a Gaming Evolved program részeként marketingelnek...egyről biztosan tudok - ez sajna titok -, illetve ha tippelnem kell, akkor az új Medal of Honor is ilyen cím lesz.
-
En alalirom , hogy a GCN fejletteb meg minden, de aki ma vesz kartyat,azt hullara nem erdekli, hogy majd a jovoben (ket harom ev mulva) ez lesz az iranyado architektura.
Oszinten milyen nagy jatekok jonnek, amiert megerne a GCN meg az a plusz 70 w fogyasztas.
Szerintem az AMD megint kihozott valami olyant aminek a jelneben semmi keresnivaloja nincs, a jovoben pedig meg mar nem ez lesz a szuk keresztmetszet.A masik meg az, hogy azert az AMD-tol nem egyszer hallhattuk, hogy majd hoz gyorsulast meg mindent a jovoben. (ld 8800Gt vs 3870) aztan, jo ha van egy jatek, ahol a Hd3870 befogja a 8800 gt-t. Persze mindent meg lehet magyarazni, de aki megveszi a termeket azt baromira nem erdekli, hogy mitol gyors/lassabb a kartya. Neki csak az a lenyeg, hogy melyik a gyorsabb. A miert az mar semleges.
-
tombar
senior tag
ezek melyik játékok?
egyébként ezek a komolyabb compute shadereket használó kódok mind evolvedes játékok, vagy van közöttük független csapat is? mert ha ennyire a computeot helyezik előtérbe, akkor az nVnek alapvető érdeke lenne néhány komolyabb twimtbp játékkal előhozakodniuk. enyhén furán jönne ki az a gondolkodás, h látván az erőteljes compute affinitást a fejlesztők részéről ennyire mostohán bánjanak ezzel a szegmenssel. főleg h ez a vonal már régóta megy. az addig még oké h jó tegra alap kell, de szinte biztos h számoltak azzal h a gcn ennyire erős lesz computeban.
avagy tényleg nem érdekes ez az egész és kepler megy tegrába, a maxwell (700as sorozat) meg megy computera? -
Abu85
HÁZIGAZDA
válasz
matteo_szg #6 üzenetére
Az fura lenne. Persze lehet, hogy nincs elég PLX PCIe 3.0-s lapka, és akkor érdemes tovább tolni, de az AFDS-en már megmutatták a terméket, szóval lényegében kész van.
Esetleg még stratégiai dolog lehet a húzás. Az AMD nyilván arra is játszhat, hogy a régi játékokat cseréljék újakra a tesztekben, mert az új DX11-es címekben aláznak a GCN-ek. -
nonoka74
tag
Karácsonyra csere érett lesz a gtx460-am!csak az a baj,hogy már most el kell kezdenem gyűjtögetni az új karcsira!
-
Löncsi
őstag
Jöjjenek szépen, kell az utód.
-
Srodney
senior tag
remélem a 650 660 nvidiák most azért jobbak lesznek mint átnevezett társai korábbi szériákban...
-
matteo_szg
őstag
Hmm...én Q4-et hallottam a HD7990 megjelenése kapcsán.
-
buzus
aktív tag
Pont olyan túlárazott lesz mint Radeon 7xxx széria, ugyanis nem fogja olcsóbban adni mint a konkurens. Kartell van érteeem?
-
tombar
senior tag
ezek a gk 104re épülnek majd, nem? legalábbis az összes eddigi pletyka a ti esetében erről szólt.
-
Destructo
senior tag
GTX 660 Komoly befutó lesz nálam..már egy ideje töröm rajta a fejem...megnézzük milyen lesz aztán hajrá ! Csak ne legyen annyira csillagászati ára...
-
XtremLor
őstag
Iskolakezdesre lefedik a teljes palettat.
A 660 Ti varos darab lesz...
Új hozzászólás Aktív témák
- Beszámítás! Lenovo IdeaPad Gaming 3 Gamer notebook - R5 7535HS 16GB DDR5 512GB SSD RTX 3050 6GB W11
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 16/32/64GB RAM RX 9060XT 16GB GAMER PC termékbeszámítással
- HP ZBook Studio G7 i7-10850H 32GB 1000GB Nvidia Quadro T1000 15.6" FHD 1 év garancia
- Telefon felvásárlás!! Honor 200 Lite, Honor 200, Honor 200 Pro, Honor 200 Smart
- Olcsó Notebook! Lenovo Ideapad 3! Ryzen 3 3250U / 8GB DDR4 / 128GB SSD
Állásajánlatok
Cég: FOTC
Város: Budapest