Új hozzászólás Aktív témák
-
már az első két mondatod üti egymást. javaslom, hogy nézz utána az értékrend fogalmának, és hogy ez mit jelent egy cég esetében

kötelesség meg az, amit a törvények leírnak. a többi opcionális. az meg még morálisan sem volt "'kötelessége" az AMD-nek, hogy CPU-sítsák az architektúrájukat - de ők az ilyenekben látják a növekedési potenciált most is, régebben is. követő piaci szereplőként amúgy ez logikus is. -
úgy látom, nem nagyon sikerült fogni, amit írtam
én a cégek értékrendjéről beszéltem, és arról, ami ebből a termékekben megjelenik, Te meg jössz a legfrissebb architektúrával, és ezredszer is leírod ugyanazt a mantrát a PC-s piac jelenéről / jövőjéről. megsúgom, hogy amit írtam, az 6-7 éve is ugyanúgy jellemző volt a két cégre, és ha már ide akarjuk keverni az architektúrákat, akkor azok, amik akkor mentek, már 10 évvel ezelőtt lettek tervezve.
plasztikus példa: a 2007-ben vásárolt HD2600XT-met nagyon szerettem, a játékok zömében sokkal gyorsabb volt, mint az előtte lévő 7300GT OCOCOC. viszont amikor nekikezdtem a Deus Ex-nek - na, akkor lefagyott a mosolyom a 20-30 FPS láttán. bármit csináltam, nem lett több. jó volt a 2600XT, csak az nVidiás tesókája (8600GT, ha jól emlékszem) kiszámíthatóbban viselkedett. -
válasz
ricshard444
#1966
üzenetére
egy "győzz meg" kérdésre én első reflexből azt válaszolnám, hogy győzzön meg a ...., nem vagyok sem AMD, sem nVidia sales-es

komolyabban, a fő különbség a két cég termékfilozófiája között, hogy az AMD innovatív, az nVidia konzervatív irányból közelíti a játékokat. az nVidiának az a fontosabb, hogy a jelen és a múlt megfelelően fedve legyen, az AMD igyekszik a közeli (vagy inkább távoli) jövőre koncentrálni.
ez a gyakorlatra úgy fordul le, hogy az nVidia terméknél pontosan tudod, hogy mit kapsz, ez jellemzően egy megbízható teljesítmény- és stabilitási szint, viszont fejlődési potenciál nincs benne. az AMD hajlamos hanyagabbul kezelni pl. a 3-4 évnél idősebb játékok kérdését, vagy az aktuális stabilitást, viszont lehet, hogy előjönnek valamivel 1-2 év múlva, amitől Neked piszok jó lesz (ld. Mantle). de az is lehet, hogy csak 3-4 év múlva jönnek elő, amikor már a jelenkori vásárlónak állatira mindegy.
szóval TLDR, hasonló ár/teljesítmény mellett a személyes beállítottság alapján érdemes dönteni. ha valakiben van kísérletező kedv és szeret a jövőre játszani, akkor mehet az AMD, ha valakinek az a fontos, hogy a VGA tegye a dolgát és rá se kelljen nézni vagy 1 évig, akkor jobban jár az nVidiával. -
válasz
tejeskifly
#1962
üzenetére
azért az nagy kérdés, hogy az új DX az eddigiekhez hasonló inkrementális természetű lesz, vagy teljesen más. ha teljesen más, akkor nem szükséges továbbvinniük a jelenlegi fogalmakat, és miután az UAV egy virtuális erőforrás, nem feltétlen kell rá vonatkozó limitációkat sem tartalmaznia. az persze más kérdés, hogy az nV esetében a kevés UAV minden bizonnyal leképezhető valamilyen fizikai erőforrás szűkösségére, és bizonyos shadereket akkor sem fognak szeretni a DX11-es nVidia kártyák, ha a DX12-ben támogatottak lesznek. shit happens.
amúgy ezen szerintem még felesleges filozofálni - nagyon messze vagyunk még a DX12-től. sőt, lehet, hogy nem is az lesz a neve, hanem pl. DirectX One
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
válasz
Malibutomi
#1776
üzenetére
persze - hol lehessen nagyot nyerni a CPU-limiten, ha nem multiban, két GPU-val?
-
az AMD az API-ról is beszélt és a BF4-ről is. ezek után a leírtakra azt tudom mondani, hogy szép, viszont hiszem, ha látom. vagy még inkább, nem hiszem, amíg nem látom. addig a mantle nekem marad a "kill CPU limit" kategória, ami amúgy nem rossz, sőt, ha valaki multizik, annak kimondottan ajánlható is - lesz, amint az adott játékban (jelen esetben BF4) a bugok konszolidálódnak.
-
veled ellentétben elég közelről követtem a Mantle sztorit, úgyhogy google nélkül is emlékszem, mit mondtak formálisan, mire utalgattak a diákban, miket nyilatkoztak nagyképűen, és milyen hiedelmeket próbáltak elültetni enyhén gerilla eszközökkel.
arról nem beszélve, hogy folyamatosan a GCN fényezése ment, mint Mantle enabler - a CPU limit felszámolásához pedig marhára nem kell a GCN, bármilyen architektúra megteszi, csak a parancsfeldolgozással, a dispatch-csel és esetleg adatformátumokkal kapcsolatban kell bizonyos követelményeknek megfelelnie.(#1679) miresz: ezt most komolyan ennyi információból mondjam meg?
details, please! első tippre amúgy valami durva multi pályára saccolok, de a beállítások így is érdekesek. a star swarm eredményed egyébként mutatja is, hogy a CPU-d jóval erősebb, mint a VGA-d - másnak alsó hangon dupláz a Mantle. -
válasz
Laja333
#1668
üzenetére
hogy a fenébe ne lennétek fanboyok, amikor a "kész tényeket" aszerint szűritek, hogy az AMD-t jó színben tüntetik-e fel, és ha nem, akkor meg se halljátok őket, nemhogy elgondolkodnátok rajtuk
![;]](//cdn.rios.hu/dl/s/v1.gif)
szerintem, ha az AMD azt kommunikálta volna szeptemberben, hogy a Mantle a CPU-limitet hivatott kinyiffantani, és GPU oldalon egész minimális javulásra lehet számítani, akkor sokkal pozitívabb lenne a fogadtatása - viszont sokkal kisebb lett volna a lelkesedés, amikor bejelentették, és kevesebbet adnak el a 290-es kártyákból. what goes around, comes around...
-
úgy látom, piacismeretben nem vagy éppen a topon... emellett azt mondod, hogy nem az AMD hibája, hogy hazudoztak, hanem a vásárlóké, akik elhitték? jó hozzáállás

a barátodnak nem tudom, mennyire kicsi az APU-ja, de egyáltalán nem biztos, hogy sokat fog gyorsulni a BF4, ugyanis könnyen lehet, hogy a 7770 lesz a szűk keresztmetszet, amin a Mantle nem segít.
nem, nem tetszik az AMD - és most nem vásárlóként van bajom velük, hanem a piac iránt érdeklődő műkedvelő elemzőként. 2014 elején két olyan régóta várt dolguk jelent meg, ami agyon lett hype-olva, és sehol nincs attól, amit ígértek - helyette generálnak újabb ígéreteket. olyan jó lenne látni, hogy a here&now is működik náluk - de az utolsó ilyen élményem velük a HD5870 volt. (ill. a 7970 is, csak az igen-igen rövid ideig)
(#1590) Abu85: nagyon szép, amit írsz, és az is rendben van, hogy Te valóban kezdettől emiatt örülsz a Mantle-nek, de ez már megint nem a jelen. emiatt felesleges 290X-et venni, mert mire ebből lesz valami, addigra a 490X lesz a menő.
(#1599) Malibutomi: nem tökmindegy, mert a lebegtetett +20-40% arra lett volna elég, hogy 25x16-ban, ill. 57x10-ben jelentősen megdobja a sebességet, ahol azért már a 290X-szel sem minden rózsaszín.
a starswarm valóban impresszív (írtam is lejjebb), de ott a platform-GPU kommunikáció a kulcs, és nehezen tudom elképzelni, hogy ezt a részét ne tudná megoldani akár a MS, akár a Chronos - ha meglenne az akarat. egy proprietary API abban az esetben lenne ütős, ha mindkettőt tudná (ld. anno glide, amihez sokan hasonlítgatták is a Mantle-t). -
halogatás, halogatás, halogatás. még nem, de egyszer majd. hol is hallottam már ilyet?
amúgy szeptember végén mondták ezt, amikor előzetes eredményekkel már kellett rendelkezniük...
a starswarm pedig tudott módon platform limitált, erre lett kitalálva. örvendetes, hogy ezt ilyen jól tudja (komolyan), de ez nem a grafikus teljesítmény javulása.(#1580) sg22: itt van egy, de ha vetted volna magadnak a fáradtságot, akkor láttad volna, hogy a fél internet tele van ezzel a kijelentéssel.
mi kellene még?
mondjuk az, hogy a változatosság kedvéért az AMD betartja, amit ígért? ugyanis:1 ft pluszt sem fizetsz ezert, csak feltelepitesz egy drivert. Meg ha sulyos tizezreket kernenek el ezert, akkor megertenem a felhaborodasokat.
nem lehetsz ennyire naiv... rengetegen vettek a 290X+Mantle bejelentés hatására AMD VGA-t, és a 290-ek mellé nyilván nem Kaveri APU-t terveztek. ha pedig megvették az i7-es CPU-t, akkor a BF4-hez nagyjából kitörölhetik a seggüket a Mantle-lel, különösen, ha abban gondolkodtak, hogy a grafikus beállításokat feltolják az egekbe. ezeket a vásárlókat az AMD konkrétan félrevezette. pont.
-
a DX kód tudtommal nem dobált kék halálokat - pedig abból van elég olyanoknál is, akik alapórajelen CPU-znak.
pont ez a gondom a Mantle-lel, hogy egyre inkább úgy fest, csak a platform oldalon hoz előrelépést. azt nem tudom, hogy milyen %-ban terheli melyik API a GPU-t, az viszont világosan látszik a tesztekből, hogy gyors CPU mellett a 10%-os növekedés környékén van a plafon (aminek egy része nyilván még CPU). a Te teszted is pont ebbe az irányba mutat a Q9550-nel. jó dolog, hogy a CPU-limitet nagyrészben kiüti? hát persze! érdemes ezt egy platformfüggő API-val? nehéz kérdés. én inkább a "nem" felé hajlok. ezt igérte az AMD? ló****t, azt ígérte, hogy a 290X Mantle alatt nevetségessé teszi a Titant. akkor most wtf van? -
válasz
tejeskifly
#1548
üzenetére
hogyne ígért volna az AMD (2013. decembert, konkrétan). és megint kezdünk oda kilyukadni, hogy az ígéreteknek a fele bullshit. a stabilitási gondok az egy dolog, arra lehetett számítani. a grafikus teljesítmény növekedésének szinte teljes elmaradása már sokkal kínosabb...
-
válasz
Malibutomi
#1169
üzenetére
nevezhetjük pofátlan lehúzásnak is (merthogy az), viszont nekem, mint vásárlónak így is simán megéri. engem jobban aggaszt a gsync-kel kapcsolatban az, hogy milyen monitorokon lesz hozzáférhető. engem a 120 / 144 Hz állatira nem érdekel, viszont az IPS-t nem szívesen cserélném TFT-re. szóval lehet, hogy még akkor is freesync lesz belőle, ha monitort kell cserélni hozzá. csak látnánk már működni

-
erre a verzióra nem gondoltam. őszintén szólva, nem látom, hogy ez miért jó, de végső soron, amíg más nem használja...
a stabilitás viszont hogyne lenne kritikus. nem csak attól lesz valami instabil, ha túloptimalizálják - a szimpla bugok mellett előkerülhetnek olyan gondok, amiket a platformmal kapcsolatos relatív tapasztalatlanság szül. és mindennek tetejébe alacsony(abb) szintű hozzáférésről beszélünk, ezért a stabilitási gondoknak komolyabb következménye lehet, mint DX alatt.
(#1096) HSM: el nem tudom képzelni, hogy az online játékosok nagyobb része így gondolkodna - de ki tudja. valaki esetleg akar igazolni / cáfolni?

-
esküszöm, nem értelek - miért jó az, ha mindenkinek bugzik / fagy?
neked GCN radeonod van, nem lenne jobb, ha tudnál vele normálisan játszani? persze nem, mert nem foglalkozol a játékkal, de képzelj a helyére valamit, ami érdekel.második részben félreértésben vagyunk, az AMD a BF4 ME-t ígérte decemberre - ennek persze előfeltéte, hogy legyen driver. és az egy hónap csúszás (ami több lesz, mint egy hónap) nem önmagában gázos, hanem amiatt, amire lehet számítani a track record alapján. továbbra is (sőt, egyre inkább) arra számítok, hogy a sebessége rendben lesz (+30-50%), viszont a stabilitásával gondok lesznek.
-
ne viccelj
ez a klasszikus mellébeszélős magyarázat, amit leginkább az EA vagy a DICE szájából tudok elképzelni. ha kiadnák a szuperül működő mantle patchet, akkor legalább azok elégedettek lennének, akik azért vettek radeont, mert mellé csomagolták a BF4-et, az nvidiások egy része meg elgondolkodna, hogy nem-e-lenne-e-jobb-e AMD-t venni. annál nagyobb botrány pedig, mint ami most van, biztosan nem lenne. szóval win-win.AMD 2013 decembert ígért, és hintelgették, hogy nem feltétlen a hónap végére gondoltak. business as usual.
-
ez most nem a csudadriver várás, azt valóban a userek gerjesztik maguknak. itt most konkrét ígéretekről van szó, amit megint nem sikerül betartani - ugyanaz a nóta, mint a hardverekkel. és persze biztosan elhiszem, hogy készen van a BF4 patch, csak nem adják ki a DX verzió hibái miatt - marha sok logika van benne...
-
-
-
válasz
Lebbencs31
#823
üzenetére
bízom benne, hogy az fel sem merül benned, hogy tudom, miről beszélek, és nem egyszemélyes minta alapján

-
hát, ez biza jó nagy zöldség
annál is inkább, mert semmi köze az eddig leírtakhoz - arról volt szó, hogy az AMD vásárlókat veszít az órajel-változásokkal, mert kitűnően ledokumentálta ahelyett, hogy megértette volna a vásárlókkal. de úgy tűnik, ismét oda lyukadtunk ki, hogy amit az AMD csinál, az tautologikusan jó, úgyhogy maradjunk ennyiben 
-
válasz
Malibutomi
#785
üzenetére
... és @HSM: persze, ha nem gond, ha a házban marad az anyag (mert van, ami kipakolja), akkor 3 axiális pörgettyű, és gond megoldva. ez egy részt gyakorlati kérdés (bír-e vele a házhűtés), másrészt ízlésbeli (nekem nem tetszik). a kérdés sokkal inkább az, hogy az nVidia mit csinál jobban, vagy jobban csinál-e egyáltalán valamit, hogy a bloweres megoldásai működnek.
és, HSM, lehet mondani, hogy elvárod, hogy 100e-es VGA mellé valaki odafigyeljen a házhűtésre, de ennek csak akkor van ereje, ha nincs olyan 100e-es kártya, ahol erre nincs szükség
jelenleg ugye az a helyzet, hogy szarakodok a hűtés körül VS drágábban megveszem a 780-at. innentől ez már preferencia kérdése, amit már gyártóként nem tudsz kontrollálni. -
ez most nem az e-pen faktorról szól. a vízhűtés sosem lesz praktikus vagy megtérülő megoldás - de ha már úgyis elindult valaki abba az irányba, akkor a 290 remek alany hozzá.
a custom hűtéses cuccok engem egyedül teljesítmény szempontból érdekelnek, mert hiába lesz relatíve halk, ha a 300W-nyi hőt betolja neked a házba. szerintem 200W fölött radiális fan kell, de ez csak a privát véleményem.@HSM: lehet, hogy az nVidiának van igazsága abban, hogy túl nagy az egy mm2-re jutó teljesítmény, és ezért nehéz hűteni a 290-eket - az elég jól látszik a tesztekből, hogy jellemzően nem a power limitbe futnak bele, hanem a hőmérsékletbe. kérdés, hogy miért nincs rajta erősebb hűtés.
a passzívos példa meg fájdalmasan igaz lesz az axiális megoldásokra - véleményemet ld. feljebb
@Abu:
Az AMD minden anyagában Up To órajelről beszélt, illetve ha valakinek ez nem tetszett, akkor PowerTune Boost órajel is használható, vagy maximális magórajel. Ezek közül lehetett választani.... és ezzel világosan le is írtad, mi a fő gond. a "mit írtam le" garanciális kérdésekben érdekes, sales-ben nem faktor. a paradigmabeli változásokat el kell adni az embereknek, nem ppt-kben és pdf-ekben reklámozni, mert azt a célközönség 90%-a nem olvassa, és ha olvassa is, nem biztos, hogy átmegy. lehet duzzogni, hogy miért "hülye" a vevő, de eladóként az AMD-nek lenne érdeke, hogy "oktassa", meggyőzze a vásárlóit. az AMD pedig erre láthatóan képtelen - peches, hogy pont egy olyan céggel állnak szemben a piacon, aki ebben erős.
-
yep, teljesen jogosak, amiket írsz - kételyként. tényként azért nem kezelném őket

a powertune-t én kezdettől (Cayman) fogva rühellem, és ahogy lejjebb is írtam, nekem sem tetszik a 95 fok, de time will tell. annyiban persze könnyebben szövegelek, hogy egészen biztosan nem fogok ennyiért VGA-t venni, elméleti síkon pedig sokkal könnyebb nem elköteleződni
viszont ha valaki eddig habozott, hogy akar-e vizet, vagy sem, akkor a 290-es kitűnő érv lehet mellette

-
nem gond
viszont honnan az infok, hogy alul vannak méretezve a GPU körüli alkatrészek? én semmi ilyet nem olvastam 
a hűtési megoldás valóban elég kérdőjeles, de egyelőre inkább hitkérdés - az AMD szerint a 95 fok megfelelő, és nincs bizonyíték sem arra, hogy ártalmas hosszabb távon, sem arra, hogy tényleg safe. a visszahűlős benchmark trükközést pedig ugye az nVidia kezdte.
sokkal problémásabb, amit az utolsó bekezdésben írsz - ezért jobb felhasználói szemmel az nVidia féle boost, mint az AMD-féle "leszabályozás", hiába fejlettebb műszakilag az utóbbi. különösen a mozgástér mérete aggályos - ha mondjuk 900MHz-nél megállna, akkor üsse kavics, de több tesztben felbukkantak 800MHz alatti órajelek is. ouch...
-
neeeeem. azért tekintik sokan órajelcsökkentésnek, mert eddig a VGA-piacon a "garantált" órajel volt a kommunikált adat, és ez a 290/290X-ben anélkül változott meg, hogy az közérthetően meg lett volna alapozva. semmi másról nincs szó, csak szar kommunikációról, amiből az AMD egyszerűen képtelen kigyógyulni.
nem segít, hogy játékban sincs semmi garancia arra, hogy épeszű keretek között marad az órajel - gondolom, azzal Te is egyetértesz, hogy ha lekúszik 727MHz-ig, az nem éppen egészséges a teljesítmény szempontjából. -
válasz
ricshard444
#664
üzenetére
no problem, majd legközelebb

-
igen, persze, screen space AO-ról van szó, csak nincs rá egy épkézláb gyűjtőbetűszó

a fake vagy nem fake nézőpont kérdése, szerintem az SSAO by definition fake, csak van amit eltalál, és van, amit nem. a lényeg az, hogy milyen sűrűn lő mellé, és hogy a jól megállapított extra árnyékok méretét mennyire találja el.
-
Az meg, hogy ront a látványon ... hát egyáltalán nem, maximum akkor, ha fake árnyékokat csinál, de ez a HDAO-ra pont nem jellemző.
De, ez minden AO-ra jellemző, nekem a HDAO inkább abban tűnik jobbnak, hogy jobban eltalálja az árnyékok méretét.
A mellékelt cikkben a tornácos képen a jobb oldali pad falra vetett árnyéka nem jó pl. -
hát ezek miatt újradesignolni éppen nem kell - max. lesznek olyan effektek, amik nVidián nem mennek (mint ahogy a Just Cause 2-ben a bokeh filter nem ment AMD-n). azt mondjuk értem, hogy OEM-ben ez hol fog fájni - majd szabadidőmben elhullatok 1-2 könnycseppet Jensenék sanyarú sorsa miatt

-
yah, pongyola voltam, az átlag frametime az az elmúlt pár frame átlaga akart lenni. és ahogy mondtam, sztem a flipnél kell késleltetni, úgyhogy a munka elkezdése nem gond.
a multi-monitoros cucchoz nem tudok hozzászólni. ha cinikus akarnék lenni (márpedig miért ne akarnék
), akkor azt írnám, hogy marhára nem érdekel, oldják meg... -
Yep, valóban szubjektív a dolog. Az AMD szerint normális, az meg már a felhasználó baja, ha
a) zavarja a microstutter
b) ugyanazt az eredményt kapná 1 kártyávalDe ha valakinek ez kell, hát szíve joga

Smoothing: nem látom, mi szükség lenne arra, amit írsz. ha az 1-es kártya a saját tempójában megy, akkor a 2-esnél összesen ennyire kell:
if ( time - last_flip < average_frametime ) then wait ( average_frametime - ( time - last_flip ) ) else endif
flip -
ja értem, hová akarsz kilyukadni. csak azt nem tetted hozzá, hogy az 1 GPU-t közelítő input lag az 1 GPU-t közelítő valódi fps-sel fog együtt járni. akkor viszont inkább kib****m a 2. kártyát a gépből

de viccen kívül, bárhová forgatod ezt a koncepciót, hülyeség jön ki belőle. magyarázhat az AMD, amit akar, ezt nagyon elközösülték. mindegy, csinálják meg normálisan, és akkor a múlt már a kutyát nem fogja érdekelni.a smoothing dolog így sántít, mert kell magát hangolnia aszerint, hogy az átlagos megjelenítés gyorsabb vagy lassabb. de mindegy, ezen felesleges vitatkozni, legyen amit mondasz, +10-15ms / frame. ennyi a normális AFR ára, pont.
-
én azért kíváncsi lennék arra az elméleti alapra, mert a "játékosok kérték" az ilyen hangzatos buborék, különösen amiatt, amit lejjebb írtam - a runt frame-ek nem csökkentik, hanem növelik az input lagot.
Egyébként a smoothingot úgy számold, hogy minden képkockát késleltetve kezd számolni, pont azért, hogy igazodjanak egymáshoz.
Ezt nem értem. Mi értelme van annak, hogy késleltetve kezdi számolni? Józan ész alapján, ha az időt kontrollálod, akkor a késleltetést a front-back fliphez praktikus tenni. És itt sem tűnik értelmesnek minden kockát késleltetni, elég az egyik kártyánál. Ne c'est pas?
-
kíváncsi lennék a részletekre, mert ennek így füle sincs, meg farka se nagyon. én azt értem, hogy van olyan szituáció, ahol néhány ms-mmal csökken az input lag (bár azt továbbra sem hiszem, hogy a "profi játékosok" 8ms-ot észrevesznek, de ettől most tekintsünk el), viszont ha ez lett volna a cél, akkor legalább annyi késleltetést rakott volna bele az AMD is, hogy legalább a frame közepe biztosan látható legyen, ugyanis ha két frame a két GPU-n úgy megy ki, hogy az egyiket kitakarja a másik, akkor lazán duplázódik az input lag a kiegyenlített megoldáshoz képest.
nem lennék meglepve, ha a 2010-ben végzett vizsgálat másról szólt volna, csak vmi marketingzseni mai szemmel "újraértelmezte"
-
az igaz, hogy a Present() call után jön csak a képbe a teljes GPU miskulancia, de két dolgot nem árt ehhez tekintetbe venni:
- ha a Present()-ek egyenletesen jönnek, és utána a a GPU-k összeb*****k az időzítést, akkor annak ugyanúgy ugráló hatása lesz (nagyon rossz esetben jönnek a sokat emlegetett runt frame-ek)
- ha valamelyik frame kiszámolása nagyon sokáig tart, akkor az engine közben megtölti a saját framebufferét, és vár, amíg a GPU nem ürít. ilyenkor a Present()-ek között is jelentkezik egy hosszú frame - rosszabb esetben pedig utána néhány rövid, mert a GPU gyorsabban ürít, mint ahogy a motor számít rá, és akkor a motor is felgyorsít. ezért problémás, ha a két gyártó csudálatos power control megoldásai gyakran billegtetik az órajelet nagy mértékben.@SzlobiG: én egy kicsit sarkosabban fogalmaznék. teljesen sz*r, amit az AMD megoldása csinál, és ezt az input lagos rizsát csak utólagos magyarázkodásként hozták be. ha az input lagra figyelnének, akkor olyan ütemben tennék ki a frame-eket, ahogy a Present()-ek érkeznek.
-
a fraps az engine által kiadott renderelendő "játékállapotok" közötti ugrásokat méri, és mint ilyen, igencsak releváns. akkor fut ideálisan a játék, ha mind a fraps, mind az FCAT által mutatott frametime grafikon sima.
a CF grafikonokon látottak pedig siralmasak, bárki bármit mond

-
valószínűleg az az oka a tömörítetlen video tárolásának, hogy ha bármilyen veszteséges tömörítéssel mentenék a képeket, akkor az egyes képkockákon a színes szalag a bal oldalon nem egyenszínű lenne (esetleg az RGB összetétel is eltérne), és ez megzavarná az elemző szoftvert. valamelyik tesztoldal belefutott ilyesmibe némi artifacting kapcsán.
-
tehát érdemben a közös címtér felejtős. innentől kezdve a közös, érzékenyen loadbalance-olt, minimális overheaddel járó munkamegosztás is az.
a parancslistás megoldás szerintem nem ennyire egyszerű. a geometria feldolgozása és a megvilágítás során az objektumokat kell szétosztani, a post process során meg gondolom tile-okon dolgoznának a GPU-k. így is, úgy is át kell adni az egyik GPU eredményeit a másiknak és viszont egy frame során legalább egyszer. nekem ez így fájósnak tűnik.
-
eeeeegen, ez egyrészt érthető, másrészt ha jó a design, akkor még bele is férhet. csak a sok lensflare-től már a crysis 3-ban nem láttam, mi történik, ki is hajítottam

input lag kérdés: megnézném azért a derék versenyzőket vakteszten, akik kiszúrják a +7ms-ot

a frame smoothing amúgy szerintem csak alacsony fps esetén növeli az input lagot. minden 2. frame a helyén marad, és a közöttük levőket helyezgeti a GPU. ha sok frame-ed van, akkor smoothing nélkül könnyen előfordul, hogy egyes frame-eket egyáltalán nem látsz, mert annyira kevés ideig vannak a képernyőn - ez pedig azt az érzetet kelti, mintha fele annyi fps-ed lenne az engine oldalon. 60 fps esetén pedig a smoothing maximum 16.6ms-ot tesz hozzá, de ugye ez olyan esethez képest van, amikor a "smootholt" frame kb. 1 scanline erejéig látszana. tehát átlagosan jó a 8ms. -
válasz
ricshard444
#489
üzenetére
valóban csinos, bár érdemes megjegyezni, hogy itt is a brutális poligonszám meg a nagyfelbontású textúrák viszik a hátukon a kinézetet, és csak helyenként csatlakoznak be az amúgy nagyon tetszetős effektek.
na meg a lens flare effektet elosztanám 30-cal. 2013-ban ez lesz a divat?
-
hát pont ez az, hogy igencsak érezhető, ha valakinek hajlama van rá. ha emlékszel, a 6970 óta panaszkodom a powertune throttling miatt - ez a nagy órajelingás miatt pont ilyet csinál...
a 150MHz az nagyon sok
egyre kevésbé bánom, hogy valami low binned GPU-m van - csak sátoros ünnep alkalmával ugrik fel 980-ról 1006-ra 
-
-
válasz
Malibutomi
#395
üzenetére
ez nem az nVidia oldal hozzáállása, hanem néhány szélső értéké. én a magam részéről örülök, hogy pirosék összeszedték magukat driver fronton

-
az nVidia majdnem mindig konzervatív volt az architektúráival, és sosem hittek a változások gyors begyűrűzésében. egyszer erre nagyon ráb***tak (FX5000-es csudaszéria), de általában fényesen beigazolódott, ahol meg rezgett a léc, ott egy kicsit alátettek az iparnak (ld. geometry shaderek, dx10.1), aztán a léc fennmaradt. lehet, hogy az alátevés most nem fog menni, de a terjedési sebességgel kapcsolatban megint igazuk van. legalábbis egyelőre, mert ha tényleg év végén lesz 700-as, és az is ugyanez a kepler lesz (vagy olyan, mint a gk104->gk114), akkor ott még lehet gond.
viszont a 600-as generáción megint szép mutatós profitot tudnak felmutatni, a gk104 három permutációban tojja rendesen az aranytojást. -
ez így sztem nem korrekt. sorban:
- a metro ugye ősidők óta oszlopos tag, ebbe felesleges belekötni
- a sniper elite v2 az ssaa-val gyorsabb a radeonokon, elsősorban egyrészt a nagyobb memória-sávszélesség, másrészt az nVidia kártyák gyenge ROPjai miatt. hogy a GCN shader-felépítés mennyire játszik ebbe bele, azt nehéz megmondani - jó lenne egy 384-bites GK104...
- az anno 2070 egy népszerű játék, egy csomó tesztben szerepel, még guruéknál is
- a dirt showdown szereplése valóban vitatható. egyrészt egyetértek abuval, hogy innovatív a motor, és mint ilyen, érdekes egy tesztben, ráadásul jönni fog a GRID 2, várhatóan ezzel a technológiával. másrészt egy ennyire nyíltan AMD-párti játék ellensúlyozására tényleg érdemes lenne ellensúlynak egy nVidiás. de sajnos az is igaz, hogy nem fényes a választék belőlük. -
ezt nem nagyon értem, hogy őszinte legyek. nézd meg a számokat a két relációban:
- 680 -> 7970 GHz: +20% tranzisztor, +10% teljesítmény
- 7970 Ghz -> Titan: +60% tranzisztor, nem tudom mennyi + teljesítmény, de biztos, hogy messze nem 60%azaz átlagos workloadok esetén a 680 10%-kal "tranzisztorhatékonyabb". ez a 10% kényelmesen jöhet abból, hogy a GCN architektúra lépett egyet CPU irányba.
a Titán meg jóval gyengébb lesz ilyen téren a 7970 GHz-nél - pontosan azért, mert tele van pakolva játékokban nem használt cuccokkal.én nem látok itt nagy rejtélyt.
-
válasz
daneeeeee
#116
üzenetére
ne keverjük már megint a technológiát a fogyasztói szempontokkal. TTomax felvetése műszaki jellegű volt, ahhoz semmi köze annak, hogy ki mennyiért kínálgatja a portékát. ha pedig az árat és a teljesítményt nézed (ill. még pár tipikus fogyasztói szempontot, amit sokan szeretnek elfelejteni, khmmm), akkor meg annak nincs jelentősége, hogy mennyi a tranzisztor, mennyi a mm2, milyen az architektúra, stb. ez két teljesen külön elemzési sík, és a kettő összekeveréséből csak f***ság és flamewar tud kiesni

btw. ha már az innováció értékelésénél tartunk, elméleti szempontból kb. most van az a pillanat, amikor érdemes lenne összeereszteni egymással egy 9600GT-t és egy HD3850-et - mostanra már be kellett érjenek azok a folyamatok, amire az AMD a VLIW5-ös shadertömböket kitalálta. komolyan érdekelne, hogy mit futna egymás ellen a két kártya. amikor utoljára néztem közel 4 éve, akkor a 9600GT volt előrébb valami 10%-kal - vajon ez megfordult mostanra?

-
kicsit pontosítsunk: a Titánban +2.7 Mrd tranzisztor lesz a 7970-hez képest, ebből szerintem 1-1.5 Mrd helyből kuka, tehát még mindig 1.5 Mrd-dal több az "effektív". a chip mérete is jóval nagyobb lesz, tehát azért ez a direkt összehasonlítás nem fair. a fogyasztásról pedig egyelőre érdemes óvatosan nyilatkozni, mert az elméletileg 230W és 300W között bárhol lehet.
nekem meggyőződésem amúgy, hogy a GTX600-as sorozat hatékonyságának az egyik titka, hogy a textúrázók 16-bites színcsatornák esetében is teljes sebességel mennek, míg a HD7000-esekben ez felezett. miután a 680-ban és a 7970-ben ugyanannyi unit van, clock2clock a 680 ebben 2x gyorsabb. annyira nem prominens a textúrázók szerepe, hogy ez drámai előnyöket hozzon, de ultranagy méretű textúrák és 16xAF mellett elhanyagolni sem lehet.
-
válasz
DroiDMester
#84
üzenetére
javaslok egy szótárt, és olvasd el benne, hogy mit jelent a "garantálni" szó. én elhiszem, hogy a 7950-esek nagy része megy 1100 felett, de a garanciát erre nem vállal senki. amúgy a google-ön rákerestem, az első találatom egy 1050 MHz-ig húzható kártyát dobott fel (HardOCP). no comment.
nem fogom semminek a pártját, csak tisztában vagyok vele, hogy mi mennyit ér. ha szerinted a 60e FT-os 7870-ekkel szemben a 64e FT-os 660 Ti nem jó vétel, akkor ismét no comment. a Tahiti LE-ről beszélhetünk akkor, amikor releváns mennyiségű tapasztalat van róla, de borítékolom, hogy nekem a minimális + sebessége ellenére sem kellene. ami nem azt jelenti, hogy nem jó, hanem azt, hogy mások a preferenciáim.
az pedig még fel sem merült benned, hogy nem azért "védem" a 660 Ti-t, mert azt vettem, hanem azért vettem, mert azok az indokok szólnak mellette, amiket most is mondok? én örülök, hogy ennyire elégedett vagy a kártyáddal, de meg kellene értened, hogy nem mindenki ugyanúgy látja a világot, ahogy Te.
no erről ennyit.
-
válasz
DroiDMester
#47
üzenetére
reality check:
és még ehez jön a GARANTÁLT +40.% tuning,
ki garantálja? ha veszek egy 7950-et, és megáll 1100-nál (vagy lejjebb), akkor kifizeti valaki nekem az árát?

semmi szükség szerintem ezekre a költői túlzásokra, elég egyértelmű, hogy ár / teljesítmény alapján jobbak a 7800 / 7900-asok, mint a GK104 alapú nVidiák. ellenben ha 20%-kal leárazod a 660 Ti-t, akkor ez a különbség megszűnik / megfordul.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Jo Nesbo: LEOPÁRD (nem olvasott)
- BESZÁMÍTÁS! ASUS ROG STRIX RTX 3070Ti 8GB videokártya garanciával hibátlan működéssel
- Apple iPhone 13 Pro Alpine Green ProMotion 120 Hz, Pro kamerák 128 GB-100%
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RX 9060 XT 8GB GAMER PC termékbeszámítással
- AKCIÓ! MSI MAG 325CQRXF QHD VA 240Hz 1ms monitor garanciával hibátlan működéssel
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest

én a cégek értékrendjéről beszéltem, és arról, ami ebből a termékekben megjelenik, Te meg jössz a legfrissebb architektúrával, és ezredszer is leírod ugyanazt a mantrát a PC-s piac jelenéről / jövőjéről. megsúgom, hogy amit írtam, az 6-7 éve is ugyanúgy jellemző volt a két cégre, és ha már ide akarjuk keverni az architektúrákat, akkor azok, amik akkor mentek, már 10 évvel ezelőtt lettek tervezve.

![;]](http://cdn.rios.hu/dl/s/v1.gif)
neked GCN radeonod van, nem lenne jobb, ha tudnál vele normálisan játszani? persze nem, mert nem foglalkozol a játékkal, de képzelj a helyére valamit, ami érdekel.




egyre kevésbé bánom, hogy valami low binned GPU-m van - csak sátoros ünnep alkalmával ugrik fel 980-ról 1006-ra
jól jött ez így hétfőn, muchos gracias!

