Új hozzászólás Aktív témák
-
válasz
matteo_szg #56 üzenetére
bepakoltam a kártyát a kis házi konfigurátoromba - kicsit felülmúlta az elvárásaimat, ha hinni lehet a pletykált órajeleknek, akkor a ref kártya egy kevéssel a GTX460-1G fölé érkezik.
viszont kár, hogy nem lesz 2GB verzió...
-
válasz
matteo_szg #33 üzenetére
érdekes lehet még ez a kártya. egy 670 / 2 ideális lenne, de a 3.5 SMX-et nem tartom valószínűnek
a 3 SMX meg necces lesz a 7770 ellen.
azt lehet esetleg tudni, hogy milyen memória-konfigurációkkal érkezik? -
Abu85
HÁZIGAZDA
A compute shader már a jelen. Amióta megjelentek az új VGA-k 6 darab DX11-es játék érkezett. Ebből 4 erőseb használja a compute shadert. Ez már semmiképp sem a jövő, hanem a jelen. Az, hogy mennyi érkezik azt nem lehet megmondani, de nyilván a compute shadert azért alkalmazzák, mert gyorsítja a feldolgozást, tehát aki gyorsabb kódot akar compute shadert fog írni. Az egyetlen kérdés a komplexitás, amihez kell a Win 8-as tracer API, vagy egyszerűen el kell kérni a kidolgozott eljárást az AMD-től, az NV-től vagy újabban akár az Inteltől is. Ők odaadják, mert nekik is az a cél, hogy az effektek minél gyorsabban fussanak. Lehet, hogy most az NV-nek a compute shader nem érdek, de az eddig kidolgozott eljárásokat akkor is oda fogják adni, ha egy fejlesztő kéri. Ezért beszélünk a compute shader esetében a jelenről. Ha nem lenne a jelen, akkor az idén eddig megjelent 6 DX11-es játékból négy nem építene erősen rá. (OFF)Persze van még három alibi DX11-es játék, de ezek gyakorlatilag csak a DX11-es API-t inicializálják DX9 helyett, vagyis a gather4-en kívül nincs előnye ennek. Konkrétan ezek funkcionálisan inkább DX10.1-esek. Mondjuk ez is extra 20-25%-os tempó a DX10.1+ kártyákon, ami jó, de ezenkívül nem kapsz extrát.(/OFF)
Az irány az egyértelmű. Ezt az NVIDIA is kijelölte a Fermivel. A Kepler csak egy kitérő, mert most fontosabb a Tegra, mint a szisztematikusan zsugorodó VGA-piac.
A konzolok tök lényegtelenek, mert azokat úgy sem DX API-val használják. Mindegyik konzolnak megvan a saját fejlesztőkörnyezete, vagyis a program működését ezek nem befolyásolják. A tartalomkreálást viszont igen. A fejlesztők aránylag gyorsan képesek eltérő rendert írni a PC-re, de eltérő tartalmat készíteni már nem kifizetődő. Ezért használják a PC-k és a konzolok ugyanazokat a modelleket. Nagyjából a textúrák minőségének javításáig jut el a tartalomkreálás előnye PC-n, de csak azért mert azt aránylag könnyű módosítani. A modelleket már nincs lehetőség korrigálni, egyszerűen túl sok időbe kerülni. Ez a tesszellálásra nagyon rányomja a bélyeget, mert az egyénileg kialakított modellekkel lenne nagyon jól használható, de egyszerűen egy évvel is csúszna a PC-s port megjelenése, ami felvállalhatatlan. Ezért tesszellálnak a mai játékok úgy, hogy jellemzően a konzolos, alapból high-poly modellekre húznak fel némi extra poligont a zsebeknél, vagy a kritikusabb részeken. De sokkal többet nem látunk, mert nincs idő és erőforrás többet csinálni. A compute shader és az ezzel megvalósítható effektek viszont jóval hamarabb megvannak, mert lényegében programkódok. Nem kell hozzájuk átszabni egy teljes játék dizájnját, vagyis egy egyszerűbb effektet, vagy egy gyártóktól kért kódot pár héten belül be lehet építeni. Ezzel a PC-s port megjelenhet a konzolosokkal párhuzamosan, és szebb is lesz.
A Metro 2033 az egy olyan Diffuse DoF effektet alkalmaz, amibe nem csodálom, hogy megpusztul a legtöbb VGA. Van benne optimalizálatlanság is, de jellemzően inkább sokat számol. Vannak a Metro 2033-nál sokkal rosszabbul összerakott játékok is, például a Crysis 2, vagy a Lost Planet 2.
A tesztjeinkben nem lesz DX9-es játék. Ezt már sokszor mondtam, hogy a DX11-es kártyákat modern környezetekben fogjuk mérni. A DX9-cel mindegyik elbánik, mert az nem tud kifejteni komoly terhelést. Legalábbis felesleges bonyolult effekteket írni compute shader nélkül, mert semmin sem fog normálisan futni. Ezzel a fejlesztők is így vannak.
A Metro 2033 azért van benne, mert a 9 játékból úgy vannak berakva a címek, hogy reprezentálják a TWIMTBP, a GE és a független játékok arányát. Ezért az NV-től van három játék, az AMD-től öt, és egy független. Mivel az NV-nek nincsenek olyan DX11-es címei mint az AMD-nek, így a kiválasztásnál erősen korlátozott a helyzet, vagyis a Batman és a Metro 2033 helye nem kérdéses. Egyszerűen nincs más amit be lehetne rakni ezek helyett. Dolgoztunk a Max Payne 3-on is, de egyszerűen ugyanolyan hülye a program, mint a GTA4, vagyis nem tudod neki megadni, hogy bizonyos grafikai beállításokat nem állítson szabadon. Persze a nagyobb gond a memóriahasználat, ugyanis egyes beállításokat a VRAM méretéhez köt. Egyszerűen 2560x1600-ban 2 GB VRAM mellett nem lehet maxra rakni a játékot. Meg lehet próbálni, de nem fogja elmenteni. Az MSAA-t mindig ki fogja nullázni, ha nincs legalább 3 GB memória a kártyán. Ez így nyilván eléggé kellemetlen a mérések szempontjából, mert a játék dönti el helyettünk, hogy mi legyen a beállítás, amit rühellünk. Ilyen hülye volt a Shogun 2 is. Bár az csak 1,5 GB-ot követelt minimum a max grafikához, ami vállalhatóbb volt a 2 GB-os termékek mellett, de azt a terméket meg kivégezték a patchek, mert folyamatosan megfelezték a Kepler sebességét, ami szintén lehetetlenné teszi a normális mérést.
A compute shader legalább olyan jól skálázható, mint bármilyen más grafikai effekt. A régi kártyák és a Kepler tehát nem jelent gondot. Kikapcsolhatóvá, vagy skálázhatóvá kell tenni az effektet, és ezzel növelhető a teljesítmény. Nem kell kizárni itt senkit, rakni kell a programba egy GI Low vagy Off beállítást és kész.
A partnerprogramok nincsenek kiemelve. A megjelent DX11-es címek arányában vannak beválogatva a játékok a tesztbe. Az arányok most ilyenek: NV-AMD-független ... 12-24-13. A tesztjeinkben 3-5-1 az arány. Nyilván a függetleneknek annyira nem kedvezünk, mert kevés a jó DX10/11-es független cím, de egyet azért érdemes képviseltetni, csak hogy látszódjon lehet ezt partnerprogram nélkül is csinálni. Azt viszont láthatod, hogy a TWIMTBP még előnyben is van a 3:5-ös arányban a valós 12:24-gyel szemben.
A Gaming Evolved egyébként jellemzően azért van előnyben, mert az AMD AAA címekre megy rá, míg az NV inkább az F2P modellre és az MMO-kra. Ez stratégia, mert az NV-nek könnyebb csak PC-re készülő játékba komolyabb beleszólást kérni, mivel a konzolok igényei nem limitálják a lehetőségeket a tartalomkreálásnál. Ez a jövő címeiben is meglátszik majd, mivel az AMD a Medal of Honor: Warfighter, Hitman: Absolution, Far Cry 3, Aliens: Colonial Marines, Tomb Raider, Total War: Rome 2, BioShock Infinite, Grid 2, RaiderZ, Firefall és Company of Heroes 2 játékokon dolgozik, az NV pedig a Passion Leads Army, Primal Carnage, Arma 3, új WoW kiegészítő, Mechwarrior Online, Hawken, Planetside 2, CoD: Black Ops 2, Assassin's Creed III, Metro: Last Light és Crysis 3 címeket csinálja. Látszik az eltérés. Az NV a multi töltetet és az exkluzív PC-s címeket lovagolja inkább, míg az AMD a multiplatform AAA címekre hajt, így kevesebb MMO-t vagy online fókuszú játékot szereznek.(#52) gbors: Össze lehet kötni a kettőt, mert úgy valóban hatékonyabb, de VPL-GI különállóan is berakható bármilyen deferred render mellé is. Szóval lényegében különálló effekt. Nem a végleges rendereltre eresztik, mert az még nem jó. Befűzik az egészet a lighting fázisba (nyilván deferred és forward render mellett máshogy kell ezt megoldani), de így is csak egy extra effekt lesz, vagyis a megvilágításnál át lehet ugrani, és ez az effekt elvesztésén túl nem jelent problémákat. Ezért szeretik ezt a megoldást a fejlesztők, mert ha nem megy a user hardverén, akkor egyszerű kikapcsolni. Ugye jó dolog a skálázhatóság, de van amikor már nem elég. A VPL-GI a skálázhatóság szempontjából egy nagyon tág határok között mozgó megoldás, és mindezek mellett még a minősége is nagyon jó. De a GI is olyan, mint a többi effekt. Az egyes eljárások mellett vannak pro/kontra érvek, és a dizájn illetve a motor képességeit figyelembe véve érdemes eldönteni, hogy melyik megoldás lesz a nyerő.
-
ha nem is egybevettem, de rögtön arra asszociáltam, hogy a vpl-ek elszórása a forward megvilágítás keretein belül megy. ezek szerint inkább az a jellemző, hogy a sok-sok virtuális fényecskét a már renderelt képre (+ depth info) eresztik rá, és totál postprocess jelleggel megy ez is?
úgy tűnik, mostanra jutottak el odáig a motorok, hogy szeretik a sok TFlops-t. ráadásul a sok mesterkélt marhaság után ezeknek a megvilágításos effekteknek végre értelme is van. kíváncsi leszek a következő 6-9 hónap termésére
-
Löncsi
őstag
Hiába időt állóbb egy termék, mindig az adott korban kell versenyezni!
Igaz, én mai napig az FB2 motor miatt vagyok itt ledöbbenve. Pl. BF3-ban GTX660 Ti jellemzően hajszállal HD7950 felett van, ergó földi halandó aki e játék miatt épít gépet, miért ne a Geforce-ot vegye (pl ezt: [link] ) ? Olcsóbb is... szóval az AMD előtt ez a hajó kissé elment szvsz.
-
Abu85
HÁZIGAZDA
Akkor te egybevetted a kettőt, igazából érthető, mert tényleg nem úgy magyarázza az AMD, hogy külön dologról beszélünk, de valójában két külön dologról van szó. A VPL-GI, amit a DiRT Showdownhoz használnak funkcionálisan működik Forward+ Lighting nélkül is. Gyakorlatilag a rendszer elhelyez a jelenetben xezer virtuális fényforrást (ebből a szempontból skálázható a működés), amivel csak a GI számítása alatt foglalkozik. Ennek készítette el az AMD a compute shaderes változatát, ami sokkal gyorsabban számol. Előnye, hogy nagyon jó képminőséget ad, nagyon könnyű implementálni, illetve fontos, hogy igény esetén kikapcsolható, mert a renderbe nincs direkten beágyazva, vagyis funkcionálisan csak egy kiegészítés, és a kihagyásával a megjelenítés még jó lesz. Hátránya, hogy ... hát számolni kell mint az állat.
Ugyanezt a VPL-GI-t alkalmazza az Ubisoft a Ghost Recon: Future Soldier esetében, annak a YETI motorja deferred rendert használ (azt nemtom, hogy pontosan milyen típusút), és mellette ott van a compute shaderes GI effekt, ami kikapcsolható.
Van egyébként pár másik játék is, ami már használ GI-t. A CryEngine 3 például light propagation volumes eljárást alkalmaz erre. Ennek a minősége függ a beállítástól, mivel skálázható módon érdemes implementálni, amit azért kell így megtenni, mert maga a rendszer - implementációtól függően - nem igazán kapcsolható ki (illetve nyilván funkcionálisan megtehető, ám iszonyatosan gyengülhet tőle a képminőség, de ez tényleg attól függ, hogy miképp van implementálva). A Crysis 2-ben például nincs is belerakva teljesen kikapcsolható formában, csak széles spektrumon skálázódik a beállításokkal. Ez szerintem jellemző lesz a CryEngine 3-as játékokra (eddig biztos jellemző, de még csak a Nexuiz használja ezt a motort ... ők mondjuk odapakoltak neki, mivel a legalacsonyabb GI, egyéb post-process, illetve SSDO beállítások a Crysis 2-ben alkalmazott csúcsot képviselik, és innen a Nexuiz még skálázódik felfelé).
Az új játékok közül egyébként a Hitman: Absolution a GI-t a light propagation volumes eljárással implementálja, de eltérés a CryEngine 3-hoz képest, hogy a Hitman motorja compute shaderrel gyorsítja majd.
A Far Cry 3 még biztosan alkalmaz GI-t. Ők is az állandóan aktív mellett döntöttek. Ez a motor gyakorlatilag azt a rendszert használja (továbbfejlesztve persze), ami van az AMD Ping-Pong demójában, illetve nyilván az úgy nem teljesen jó, ahogy az AMD csinálta, mert a Far Cry 3 egy nagy nyitott világ, vagyis eléggé lehetetlen a tervezőknek manuálisan elhelyezni ezeket a kis light probe-okat, tehát ezt a részt automatizálni kellett, ami a jelenet szintjén történik, és csak akkor frissül, ha szükség van rá. Itt majd el lehet szállni a rendelkezésre álló procimagok kihasználásával, mert ez veszettül párhuzamosítható munka, illetve a probe-okban tárolt információkat is a proci számolja előre. Mivel borítékolható, hogy marha sok probe lesz, így a számítás teljesen függetlenül egymástól és nagyon sok magra kitehető. A motort úgy csinálták, hogy 32 szálig skálázódjon. Ebből 8 lesz engedélyezve a játékban. A játékmenet főbb funkciói persze dedikáltan kapják a magot, de a probe számítás az nagyon skálázódni fog. A GPU oldalán a probe aktuális információi alapján minden képkockára újraszámítják a teljes megvilágítást. Ezzel a megoldással a GI tökéletesen reagál majd a napszakok dinamikus változására. A másik dolog amit a probe-okból kiszámolnak azok volume mapok. Ezt a kamera szemszögéből van számolva, de nem kell mindig frissíteni, csak ha szükség van rá. Itt kockákra kell gondolni, aminek a kamera felé mindig csak három oldala látszik. Amíg a kamera nem kerül olyan pozícióba, hogy az egyik oldalt felváltja egy másik, addig az adatok újrahasznosíthatók. Természetesen, ha olyan terület van, ami eddig nem volt a kamerán, arra nyilván úgyis kell új volume mapokat számolni. Ezeket a mapokat a GPU még a shading során is használja, így a Far Cry 3 nagyon komplex megvilágítást tesz lehetővé. Mivel ennyire a rendszer része minden, így kikapcsolni tulajdonképpen semmit sem lehet, de skálázható az egész.
Ismert még az Unreal Engine 4-nek a működése. Ez VCT-t használ a GI-ra és az AO-ra. Nincs semmi előszámítás, minden valós időben történik. Két dolog, amit tudni lehet. Az SVO adatstruktúra miatt baszottul igényli a memóriát, és számolni kell mint az állat. Itt az SVO lesz a kulcs, attól függ a teljes rendszer sebessége. Valószínű, hogy AMD GCN-en használják majd a PRT-t, hiszen az ideális a nagy adatstruktúrákhoz. Az NV Kepleren valamilyen szoftveres megoldást kell majd bevetni erre, de a GCN-es rendszerekhez hasonlóan a Keplernek is van MMU-ja szóval arra érdemes építeni. MMU nélküli GPU-n szerintem az UE4 nem életképes. Legalábbis jó sebességgel biztos nem. Mivel a teljes megvilágítás az SVO-tól függ, így ezt kikapcsolva full sötétség lesz az eredmény. Szintén kell majd a brutál compute power mert a teljes adatstruktúra felépítése GPU-n zajlik majd compute shaderben. -
Simon02
tag
Köszönöm a kimerítő választ, sok újdonságot is szerepel benne és jó is egyben látni.
Viszont mégiscsak reagálnék, mert az alap tézist amiért írtam nem cáfolja meg. Mégpedig, hogy a sok komplex compute shader játék érkezik, amiért az eredeti hozzászólást is írtam. Bárki tudhatja, hogy aki dolgozott már fejlesztésen, hogy ezek nem mennek egyik napról a másikra. Októberben megjelenik a Win 8, de nyilván a fejlesztőknek már a kezükben van, így ha az általad leírt tracer API használni akarja, megteheti. DE mikorra lesz ebből kész termék? Egy komoly engine kifejlesztésére min 2-3 évvel kell számolni, addigra már sehol sem lesz a Kepler generáció. A nvidia kezében pedig meg van a lehetőség, hogy erre gyúrjon, mint ahogy meg is tehette volna most is (GF114-et biztosan nem a csúcskategóriának tervezték eredetileg, ezt le merem fogadni!) Szóval idővel nem árt számolni!
És ugyan emiatt sem áradozik senki a dx10.1-es hardverek dx11 alatti sikere miatt. Eltelt kb 3 év! Ezek a kártyák pedig lesüllyedtek a 20ezer alatti alsó kategóriába. Ott meg már olyan mindegy, főleg ennyi idős hardvereknél... Hiába időt állóbb egy termék, mindig az adott korban kell versenyezni!
Jelenleg pedig úgy állunk, hogy egy jó ideig nem jön az új konzolgeneráció és tippre minden új dx11-es játékra még mindig jut egy dx9-es is. Ezek a játékok, amiket írsz technológiailag fejlettek, bár az optimalizálás nem mindig az erősségük... (Metro2033 remek példa, sokkal gyorsabban fut a 7970-esemen, mint a korábbi gtx580-ason, de így is-úgy is alacsony a framerate..). Viszont nem feltétlenül népszerűek, ezért nem értem miért ez a releváns (akár a ph tesztjeiben)? Szerintem azt is kéne nézni mivel játszanak az emberek - hiszen azért veszik meg (nem 2-3 év múlva nyújtandó teljesítménye miatt, sem a techdemókért - persze vannak ilyen kivételes "örültek" is, mint én is)!
Azt is feltétlenül számításba kell venni, hogy a meglevő kártyák miatt optimalizálnak az nv termékeire is, hiszen nem akarják az egyik oldalt kizárni, hiszen az rengeteg vásárló elvesztését jelenti.
Még a gameing programokról egy gondolat, mert pont ez váltotta ki a nemtetszésemet, hogy egy oldalról van mindig megközelítve: Mind a gyártóknak, mind a fejlesztőknek megvan a saját érdekük benne, nem jófejségből csinálja egyik sem! És ha valamelyikük támogatja az adott fejlesztő csapatot (nem csak effektre gondolok, hanem eszközük, support, technikai segítség stb.), elvárja, hogy ebből visszakapjon valamit. Ez mindkét oldalra igaz, indokolatlan az egyiket kiemelni! -
Med1on
aktív tag
Én kérek elnézést, de az az "apróbb űr a Radeon HD 7770 és a HD 7850 között" nem tűnik olyan kicsinek. Utóbbi nagyjából másfélszer erősebb megoldás. Ha ezt az "apróbb űrt" kivetítjük a Radeon HD 7850-re, akkor az látható, hogy itt elfér a Radeon HD 7870, a HD 7950 és a felturbózott HD 7950 is. A hazai árakat nézve egyébként a legolcsóbb HD 7770 30 ropi, utána a HD 7850 meg már 47 ezer (a 2 GB-os 54 ezer fele lakik).
-
Abu85
HÁZIGAZDA
Az F1 2012-t nem a Southamben található stúdió csinálja, hanem a Birminghamben található. Ők a motor fejlesztésével nem foglalkoznak, szóval az effekt attól függ, hogy megkapták-e az EGO motor DiRT Showdownhoz használt legújabb verzióját. Ha nem, akkor nyilván nehezen tudják belerakni. Én az utóbbira tippelek, mivel szerintem a régebbi verziójú EGO motort használják. Maximum patch-ben oldható meg, de nem hiszem, hogy nagyon érdekli őket. Ahogy hallom az AMD-t sem nagyon érdekli az F1 2012, mint reklámcélra használható program, inkább a GRID 2-re koncentrálnak a Codemasters tájékán. Szóval nagyon valószínű, hogy az F1 2012-ben nem lesz benne a Forward+ Lighting és a VPL-GI. Majd talán jövőre, ha megkapják az új motort.
Amúgy csak megjegyzem, hogy az NV-nek nem a VPL-GI effekttel van gondja. Tudom, hogy ezt írják a review guide-ben, hogy az egy rossz effekt, de azzal nem lassul sokkal többet a GeForce, mint a Radeon. Sokat levesz, de arányaiban pár százalékkal veszít kevesebbet a Radeon. A Forward+ Lighting a baj, ami az Advanved Lighting effekt. Ez a HD 7970-nek csak 4 fps mínusz, míg a GTX 680-nak 20.
-
T_Stark
őstag
Igazad van, AMD párti vagyok, de nem elvakultságból, hanem mert akár az időtállóságát, akár az ár/teljesítményét nézem, egyszerűen az a jobb.
Abu már leírt mindent nálam milliószor profibban, már csak annyit emelnék ki, hogy az nem mesterséges gyengítés ha a játékokban kihasználnak olyan shadereket amiben a kártyájuk jó. Az már nem az ő bajuk hogy a konkurencia ebben pont gyenge.
Hogy csak egy példát mondjak, mesterséges gyengítés pl pont az, amit az NV által támogatott Crysis2-ben műveltek, hogy még a város alatt is számoltatták a GPU-val a tenger hullámzását... -
Abu85
HÁZIGAZDA
A Win 8 sikere mindegy. Azt a fejlesztők telepítik, és ott lesz a tracer API, amivel sokkal egyszerűbben írhatnak bonyolult compute shadert. Ezek futtatásához nem feltétlenül szükséges Windows 8, mehet Vista és 7 OS-en is, csak a fejlesztéshez szükséges a Win 8, illetve a DX11.1, ami tartalmazza az új shader trace interfészt.
A DX10.1 az szépen terjedt. Azt felejtik el az emberek, hogy minden olyan játék, ami DX11, az automatikusan DX10.1 is, vagyis minden DX10.1-es kártya profitált a DX11-es kódból, míg a DX10-esek a gather4 hiányában már nem tudtak ebből profitálni, vagyis jó 20-25%-kal kisebb a teljesítményük DX11-es mód alatt, mint lehetne, ha támogatnák a DX10.1-es API-t. Ezt azért nem látod, mert a DX11 megérkezésével már a DX11 volt a hype központja, de ebből a DX10.1-es termékek automatikusan profitáltak. A hátrány az attól függ, hogy meddig tartottad meg a GeForce-odat. Ha még ma is HD 4800 vagy GTX 200 sorozattal küzdesz, akkor a DX11-es játékokban a HD 4800 számottevően előnyösebb.
A Fermi korában az AMD és az NV is erősítette a compute shadert, hiszen jól felépítették rá a hardvert. Például viszonylag bonyolult compute shadert tartalmaz az AVP, vagy a Metro 2033. A gond a compute shader írásánál keletkezik. Egy egyszerű compute shadert könnyű megírni és optimalizálni, erre van rengeteg példa a fejlesztő oldaláról is, de az AMD és az NV is kínál HDAO-t, CHS-t, vagy különböző post-process megoldásokat. Egy bonyolultabb shadert, mint amilyen például Metro 2033-as Diffuse DoF, vagy az AVP-s extra szűrés az árnyékokra, már sokkal nehezebb ügy. Egy fejlesztő ilyenbe bele sem fog egyedül, mert nincs meg a fejlesztőkörnyezetben az az eszköz, amivel jól tudja debugolni. Ezért születnek ezek az effektek a partnerprogramokban, mert az AMD és az NV sokáig tud ezen dolgozni, és előbb-utóbb összehoznak egy jól optimalizált compute shadert az adott problémára. A fejlesztőnél olyan szóba sem jöhet, hogy nem tudja, hogy mikor végez, egyszerűen meg van kötve a kezük, mert a játéknak időben kell elkészülnie. Ha nincs kész az effekt, akkor kimarad, ennyi. Ezen segít majd a Win 8 és a DX11.1, a tracer API-val, mert sokkal egyszerűbb lesz a bonyolult shadereket debugolni.
Azért most jön elő az új játékokban az erős compute shader használat (például a DiRT Showdown, a Sniper Elite V2, a Ghost Recon Future Soldier vagy a Sleeping Dogs), mert tracer API nélkül a GPU fejlesztők dolga is nehéz, de idővel átrágják magukat rajta, és odaadják a fejlesztőknek az új effekteket, hogy építsék be. Emellett erre a generációra volt az az architektúraváltás, ami elvileg erős compute-ot hozna. A fejlesztők is úgy készültek, hogy végre el lehet ereszteni a gyeplőt, meglesz a számítási hatékonyság, amivel a compute shader alternatíva lehet. A GCN-ben meg is van, és meglepetésre még az Intel Gen7 IGP-je is felhozta magát ebben a Fermi és a VLIW4 szintjére, de a Keplert ezúttal nem úgy tervezték, hogy jó legyen a bonyolult effektekben, ami kialakított egy apróbb káoszt. Azóta valószínűsíthető, hogy az NVIDIA az új Tegrába szeretne valami jól skálázható architektúrát, amivel aztán tudnak játszani évekig, így inkább meghoztak egy döntést (a logikusságot mindenki döntse el maga). Ez a fejlesztőknek is rossz, mert ott van a Dirt Showdownban használt új EGO motor, ami a történelemben elsőként alkalmaz olyan leképzést, ami forward render mellett is párezer pontfényforrással dolgozik. Ez az amiért a GCN annyira erős benne. Ez amúgy nem mesterséges gyengítés, amikor az AMD elkezdett dolgozni a Forward+ Lighting eljáráson, akkor halvány lila gőzük nem volt, hogy a Kepler a Fermihez képest nem éppen előrelépés lesz a compute tekintetében. Egyszerűen látták, hogy a compute hatékonyság nő, vagyis a következő körben már egy olyan szintet is elér, amivel megoldást lehetne találni a fejlesztők legnagyobb problémáira. Ezek közül arra, hogy ne kelljen dönteni a sokezer pontfényforrás hatékony kalkulálása (deferred render) és az átlátszóság, az MSAA, és a limitáció nélüli felületi variációk (forward render) között. A Forward+ Lighting csupán annyit csinál, hogy a deferred és a forward render előnyeit egybegyúrja azaz, ami az egyiknél és a másiknál hátrányként jelenik meg az a Forward+ Lighting esetében egységesen előny. Az egyetlen hátránya, hogy erős compute hatékonyságot igényel a hardver oldalán, de ez nem a megvalósítás problémája, mert az hatékony. Az, hogy most a Codemasters ezt belerakta a DiRT Showdownba, és az új EGO motorba azért történt, mert szükségük volt arra, hogy az alapvetően forward render motorjuk sokkal több pontfényforrást kezeljen hatékonyan. A Forward+ Lightinggal az élmezőnybe repítették magukat a technológiai oldalon. Arról pedig még az implementáláskor fogalmuk sem lehetett, hogy a Kepler milyen lesz, nyilván a Fermi után logikus volt azt feltételezni, hogy nő majd a compute hatékonyság, mert ugye miért csökkentenék?
A jövőben az UE4 is érdekes. Tim Sweeney már megemlítette, hogy a kód jelentős része compute shader, vagyis az irány egyértelmű. Persze erre nincs konkrét példa, és egy darabig nem is lesz, de nyilván a Kepler az NV-nél csak egy Tegrás kitérő, legalábbis ez az egyetlen logikus magyarázat a változásokra. Mire itt lesznek az UE4-es játékok, addigra az NV-nek is lesz compute-ban erős GPU-ja.
Érdemes elolvasni Johan Andersson (Frostbite 2.0 motor programozója) SIGGRAPH előadásáról a beszámolót. [link] - ő is a compute shaderről beszél, és a benne rejlő lehetőségekről.
Egyébként a Keplernek maga a compute shader önmagában nem gond. A bonyolult, illetve sok compute shader használata az. A bonyolult a lassú shared memory miatt, míg a sok azért, mert a GCN-en sokkal gyorsabb a context switch. A sok meg a bonyolult együtt természetesen a legrosszabb a rendszernek. Ugyanakkor az egyszerű compute shaderekkel nincsen gondja.
Az NV amúgy nem akadályozza meg, hogy compute shader legyen egy TWIMTBP játékban, mert előnyös a használata. Persze bonyolult shadert nem fogsz látni, illetve sokat sem.
Az AMD gyakorlatilag fordítva működik most, sok és bonyolult compute shaderekre biztatják a fejlesztőket. A sokat azt látjuk a Gaming Evolved játékokban, de a bonyolultat még annyira nem. Két játék persze már ilyen. Illetve egy harmadik is, ami nem GE cím, de ettől raktak bele egy VPL-GI-t.
Bár nem annyira fajsúlyos tényező, de az Intel is azon dolgozik, hogy a sok ideje használt effekteket, mint például a HDR, rakják át compute shaderre, mert az gyorsít. -
Simon02
tag
Az már tényleg nagyon off, mert csak kis részben kötődik a hírhez (nem is értem, hogy került szóba eleve a compute shader, - főleg hogy a 77xx szériában ez már nem akkora előny a gcn-nek). De tényleg ennyire biztos vagy benne, hogy ennyire el fog terjedni, vagy hogy a win 8 ekkora óriási siker lesz? Mert ha win-nek az általad emlegetett 1 éven beül nem lesz legalább 10%-os részesedése (le merem fogadni), akkor nagyon nyersen, a jövőképet ki lehet dobni az ablakon.
DX10.1-et azért hoztam fel példaként és ezért emlegettem Abut (aki nálam 1000x nagyobb szakértője a témának), mert az is úgy lett beharangozva, hogy 1 éven belül mekkora hátrányt okoz a Geforce-oknak. Megtörtént? Nem vettem észre. Volt más tévedés is, ezért sem szeretem az ilyen előrejelzéseket, mert ez csak tippelés és sajnos érezni mögötte a márka iránti elkötelezettséget.
Erre a Geforce fizet témára még egy nagyon off gondolat. Úgy érzem te az AMD elkötelezett híve vagy. De pont te említetted a Gaming Evolved-t, ez nem ugyan erről szól??? Ugyanúgy mesterségesen gyengítik a másik kártyáit. És igen az architektúra, a compute shader gyengeség indokolatlan használata is az. A Fermi korában miért nem erőltette senki vajon? Sajnos ez a megítélés nagyon teret nyert ez a ph-n, konkrétan a tesztekre gondolok. Megjegyzem ezek általában olyan játékok, amivel a kutya se játszik (DIRT Showdown például messiásnak van beállítva, közben kinek is tetszik? - közben az AMD demo játéka).
Nem akarok flame-et elindítani, így be is fejezem! Ha válaszolni szeretnél privátban tegyük inkább. -
T_Stark
őstag
Egy az, hogy Abunak általában igaza szokot lenni
Másik meg, hogy a DX10.1-et kár idehozni, azóta sok minden változott, a DX11 eleve sokkal kapósabb.
Ráadásul azóta a Gaming Evolved is hatalmasat lépett előre, és bizony ők biztos hogy a compute shaderek használatát fogják nyomni ezerrel az általuk támogatott játékokban, mert nekik ez fekszik.
De mivel a Win8 megjelenésével bárki könnyen használhatja ezeket, szerintem kb azok nem fogják akiknek az NV fizet hogy ne tegyék.Na de mindegy, csak annyi lett volna a mondandóm lényege hogy szerintem a GCN időtállóbb lesz mint a Kepler. Befejeztem az offolást.
-
Simon02
tag
Jaj, már megint megy a manta.. honnan tudod, esetleg lottószámokat is kérhetek? Vagy csak azért írod, mert Abu ezt mondta? Nem tudni mit hoz a jövő, ugye pl mennyi dx10.1-es játék lett? Sztem majd meglátjuk! Mindezt egy 7970 tulajaként írom, így nem nv-ati vitát akarok kezdeni!
-
T_Stark
őstag
Én csak azt mondom, hogy a Win8 megjelenése után várhatóan szépen megszaporodnak majd a compute shadereket használó játékok, így amiben most a legrosszabbul megy a Kepler, lehet hogy nem is olyan sokára abból a fajta játékból lesz több.
Ráncfelvarrt Kepler biztos jön, de aki most vesz egy kártyát, azt ez nem fogja vígasztalni, mivel nem mindenki engedheti meg magának hogy félévente új VGA-t vegyen.
-
Artyy
csendes tag
Csak annyit kellet volna megértened, hogy a legrosszabb eredményhez viszonyítod az árazást, ami egy kisseb része a teljes képnek. Az árazás egy abszolút dolog, de a teljesítmény relatív. Az nvidia nem veheti figyelmen kívül azokat a játékokat, ahol (jelenleg többségben) nincs comuputer terhelés, árazásnál. Az árazást 1 évre előre meg nem fogják meghatározni. Jövőre meg már jön, a ráncfelvarrt Kepler nem tudhatod, hogy mit hoz a jövő.
-
T_Stark
őstag
Nem, én tapasztalatból írom hogy az NV hasonló teljesítményt jókora felárral ad. Ez szinte minden kategóriában így van.
A Compute teljesítményt meg nem szabad fél vállról venni. Majd fél-1 év múlva megnézzük hány játék használja (ha tippelnem kellene, elég sok), és ott bizony a Kepler vért fog izzadni. A GCN meg azért minden esetben hozza az elvárható szintet, nem úgy mint a Kepler, ami egyik játékban száguld, másikban meg meghal. -
aram01
nagyúr
csak a fejem kapkodom annyi kártya jön,már azt sem tudom lassan ki kivel van
-
Artyy
csendes tag
És te a kisujjadból szoptad ki, hogy a 7770-est hozza 7850-es áron? Gondolom nem, mert én is tudok következtetni rá.
A compute terhelés alatt a leglassabb a kártya ennél szerinted lassabb vagy gyorsabb lehet még a Kepler? Egy halom játék van, ahol a 660 közel 7870-est vagy hozza is a szintjét, mert itt nincs compute terhelés, ahol van az meg csak beállítás kérdése. Csak láttál erről is teszteket és 230 dollárét olcsóbb, mint a 7870-es.
-
subaruwrc
félisten
válasz
matteo_szg #4 üzenetére
like
-
T_Stark
őstag
-
socialkiller
tag
Nekem is 2db Sapphire Radeon HD 7770 ghz edition van a gépemben crossfireben és tökéletesen muzsikál minden játékban ultra settings mellett.
Én valamiért nem vagyok oda az Nvidia karikért..(kivétel a GTX 680)
-
DRB
senior tag
Jó nagy válságban a VGA piac, csak kb. 50 féle kártya van kategóriánként, ja, és csak hetente jön valami újabb verzió.
Az a nagy rohadt helyzet, hogy csak addig tart a válság, a gyártóknál, míg beárazzák az éppen megjelenő terméket.
-
csaabz
őstag
A 650 után csak jó lehet....
-
T_Stark
őstag
Nvidiát ismerve ez kb a HD7770 szintjét hozza majd, és a HD7850 árában adják.
-
dkpisti
tag
Hát hd7770 30-tól van az 1gb hd7850 48-50 ha a kettő közé sikerül ékelni árban és teljesítményben akkor rendben lesz
-
04ahgy
nagyúr
"Fontos meglátni, hogy van egy apróbb űr a Radeon HD 7770 és a HD 7850 között, így adja magát az ötlet, hogy azt be lehetne tömni."
HD7790 = Pictairn LE.
HGyu
-
petya1992
tag
Gondolom kidobnak valami agyon butított karit
Jól gondolom? -
matteo_szg
őstag
válasz
Ł-IceRocK-Ł #8 üzenetére
Nem jön, ez biztos.
-
radi8tor
MODERÁTOR
válasz
Ł-IceRocK-Ł #11 üzenetére
Hja, 6970-et január elején vettem, 7970-et csak január végén tudtam megszerezni.
Csúszik ez is mint a tél. -
radi8tor
MODERÁTOR
válasz
Ł-IceRocK-Ł #8 üzenetére
Lesz abból január is.
Ha novemberben jönne, akkor már jó sok hírben megírták volna. -
callmeakos
veterán
Akkor lesz bármiféle esélye a 7770el szemben ha alá tudnak menni annak az árának: Bár sajnos tudjuk hogy nem ez az erőssége az Nvidiának.
matteo_szg
Az jó. Kíváncsi vagyok rá -
Ł-IceRocK-Ł
veterán
Novemberbe jön a 8 as széria, aztán megint nem lesznek a ződek sehol
-
Srodney
senior tag
pont ezért,mellesleg az a gyerek amelyik bemegy a pc boltba és 4gb-os kártyát kér 64biten azt eddig sem érdekelte a dolog.igazán csak azt lehet megtéveszteni akinek némi fogalma van a dolgokról csak nem teljes a kép.
ezzel kapcsolatban viszont hiányolok a ph-n egy dolgot.hétvégente szokott lenni egy cikk a hazai pálya rovatban ahol új hardvereket mutatnak meg.na most jó lenne ha belevennének a cikk végébe egy diagramot amin (legalább havonta egyszer) ahol a vga-k cpu-k winyók stb. friss árral el lennének látva és így az olvasók vagy vásárlás elött állók tudnának dönteni a legfrissebb ár/érték arányról is....akár.(pcx.hu gondolom segítene egész jó árral dolgozik
)
nyilván ez rengeteg munkával,utána járással jár,de megoldódna egy olyan probléma: "hogy mit is éri meg most venni". itt szeretném leszögezni hogy jól tudom! ez az oldal többek közt azért jött létre hogy a tudatos vásárló keres egy hardvert akkor a ti tesztjeitekből és elemzéseitekből kiderüljön számára a helyzet és választ kapjon a kérdésére mégis mit vegyen.igen ám de vga szinten annyira változnak az árak hogy szerintem ez követhetetlen.arról nem is beszélve hogy év közben többször jön új hardver és felforgatja az addigi állást.
-
matteo_szg
őstag
Tesztpéldány úton
-
N!GhTyka
tag
Ugyan ezt mondtam egy korábbi cikk hozzászólásban, hogy 660-ból le kell tiltani egy smx modult és jöhetne egy igazi középkategória, mert túl nagy a rés 660 és 650 között.
-
radi8tor
MODERÁTOR
Sosem értettem miért van ennyi féle VGA.
Kellene 4-5 kategória és kész. Lassan már el sem lehet igazodni közöttük (hála az átnevezéseknek is).
Új hozzászólás Aktív témák
- Melyik tápegységet vegyem?
- Forza sorozat (Horizon/Motorsport)
- Assetto Corsa EVO
- World of Tanks - MMO
- Autós topik
- Horgász topik
- Honor 400 Pro - Gép a képben
- Huawei Watch GT 6 és GT 6 Pro duplateszt
- Battlefield 2042
- Intel Core Ultra 3, Core Ultra 5, Ultra 7, Ultra 9 "Arrow Lake" LGA 1851
- További aktív témák...
- 8 GB-os ASUS TURBO RTX 2080 SUPER EVO - garanciával
- Bontatlan egérpad Razer Sphex V3 (RZ02-03820100-R3M1
- ÁRGARANCIA!Épített KomPhone i7 14700KF 32/64GB RAM RTX 5080 16GB GAMER PC termékbeszámítással
- AKCIÓ! Apple Macbook Pro 16" 2019 i9 9980HK 64GB 500GB Radeon Pro 5500M notebook garanciával
- BESZÁMÍTÁS! ASUS B760M i7 13700K 32GB DDR4 512GB SSD RX 6800XT 16GB Phanteks Eclipse P400 Glacier
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest