Új hozzászólás Aktív témák
-
... szóval az úgy volt, hogy írtam, hogy árban és teljesítményben egyforma volt a két kártya, Te pedig linkeltél pár grafikont, hogy hol van közöttük a különbség... Nem lesz könnyű megmutatni

A különbség a build quality és a hűtés hatékonysága terén jelentkezett. Az idő talán megszépíti az emlékeket, de a 4850 és a 4870 rettenet igénytelen volt, főleg az első verziók. Cserébe ár / teljesítményben szőnyegbombáztak, és néhány igen kínos korrekcióra késztették az nVidiát.
(#7651) Abu85: ahogy schwartz is írta, sayinpety közreműködésével az MS-től. De megnéztem az aktát, 25-30 low level AAA játék szerepel benne jövő májusig + a kicsik

-
Ez nem csak a gyári OC-seknél volt?

és őszintén szólva fel sem merült bennem semmiféle G92 származék, mint alternatíva, és nem az áruk miatt
Persze, de ez Nálad eleve adott
Ha egymás mellé tetted a két kártyát, akkor független szemlélőként eszedbe nem jutott volna a Radeont választani, akkora volt a szakadék. -
válasz
velizare
#7633
üzenetére
Igen, volt ilyen, de ez teljesen másról szól. Én itt elsősorban arra vagyok kíváncsi, hogy a MS tett egy optimista, de nem elborult felső becslést (ha minden játékot beleértettek), vagy elment az eszük (ha csak AAA-kra godoltak).
Érdemes tudni, hogy nagyobb kereskedelmi projekteknél kb. egy ilyen tölcsér mentén fogynak a jelöltek az idő előrehaladtával:
forecast > ütemezett projekt > finanszírozott projekt > elkészült projekt > időre elkészült projektAz első és az utolsó számossága között könnyen lehet 3-4x szorzó is. Az MS száma nyilván forecast (és a 70-ből 20-30 akár lehet is AAA) - Abu pedig úgy használja ezeket a számokat érvként az AMD mellett, mintha ezek mind időre elkészült projektté változnának.
És persze a sok számháború között elveszik a lényeg - a DX12-es / Vulcanos portok közül hány lesz, amit csak a CPU-limit tompítása miatt csinálnak meg, és hány olyan, ami valóban előnyt is fog kovácsolni az új GPU-s lehetőségekből és nem 200+ FPS-sel fog menni bármilyen midrange kártyán. Erre a kérdésre igen jó lenne tudni a választ - és azt is, hogy ezeknek a játékoknak mi a valós ütemezése.
-
Ez a széthibázás meg honnan jön?
Aktív tesztelős korszakomban 3-4 GTX+ is járt nálam, mindegyik tökéletesen működött. Meg nem is emlékszem semmi ilyen általánosra, talán csak az első 55-ös batchekkel volt gond.
A pozícionálás addig volt ilyen borzalmas, amíg nem volt konkurenciája (rémlik, hogy a 3870 volt az ellene kiállítható top? vicces, ugye?) Aztán megjött a 4000-es széria, és máris a helyére került a 9800GTX+ ára. Olyannyira, hogy a versenytárs 4850-nel addig volt összevethető, amíg árról és teljesítményről van szó - amint egymás mellé tetted a két kártyát (ne adj' Isten bekapcsoltad a gépet), hirtelen ég és föld lett a különbség (nem a Radeon javára). -
Hát ez most épületes volt, már ne haragudjatok
Végignéztétek rendesen a tesztet meg a számokat? Jópár érdekesség volt benne, de úgy tűnik, mindenki csak a saját agendáját ragadta ki belőle 
Felsorolom, hátha segít:
- Az elméleti 1200MHz-et a 980Ti egyik játékban sem tudta tartani, még single-ben sem. Nincsenek kitolva a limitek? Persze, hogy nincsenek, ui. a kártyákat out-of-the-box vizsgálták. Szó sincs semmilyen failről.
- Ezzel együtt single-ben 4%-kal gyorsabb a 980Ti, mint a garantált boost. Csak érdekességképpen.
- SLI-ben a 980Ti átlag 10%-ot vesztett a core órajelekből, ami 6-8%-os teljesítményvesztést jelent - skálázódásban tehát ez 12-16% veszteség
- A Fury X előrelépése a fentinél lényegesen nagyobb. Ha az órajellel kompenzálunk, akkor az SLI skálázódása még mindig csak maximum 65-70%, míg a CF-é 77%. Itt jöhet a képbe a híd / nem híd kérdés, de ennek pontos mértéke a tesztből nem derül ki.
- Két játékban 4K + Max beállítás mellett kifut a Fury a VRAM-ból. Mindkét játék sebessége határeset a kétkártyás konfigban (!), ráadásul az Evolve-ban nincs is MSAA, úgyhogy visszavenni sem nagyon lehet mit a VRAM kímélése érdekében. Ez nem valami jó előjel.
- 4K + medium beállítások mellett 1-1 kártya is tűrhetően, ha nem is igazán fényesen muzsikált. Szóval van realitása a 4K gaming dumának, csak éppen a beállításokban tett kompromisszumokkal. -
Fury X CF vs 980Ti SLI - igencsak érdekes eredményekkel...
(google translate elég jól megbirkózik vele, ha angolra fordítunk) -
Ezek nyilván ideális eset számok, de hihetőek - nyilván azzal a feltétellel, hogy van annyi compute pipeline-od, amivel fel tudod tölteni a kapacitást.
A Maxwell szám kicsit alacsonynak tűnik, szerintem simán benne van, hogy a példaprogram kicsit rájátszik valamelyik gyengéjére, másrészt a GCN 1.1/1.2-től el fog maradni nyilván.A sávszél téma: nyilván több munka több mem accesst jelent, de nem biztos, hogy ez észrevehető mértékű. Attól függ, mire használod a compute csöveket, mekkora adatstruktúrákat manipulálsz.
-
válasz
Malibutomi
#7471
üzenetére
Ez elméletben igaz, de ehhez erre designolt motor kell.
-
Az ilyen legendákat, mint az óriási sávszélesség igény, fenntartásokkal kezelem. Biztos lehet olyan motort is csinálni, csak nem lesz jellemző. Ugyanezért a Maxwell gyengébb felszereltségének sincs egyelőre akkora jelentősége.
Még 1x: a fullHD sebességromlás egy részéért a DX11/CPU-limit felel, de ezt nem lehet általánosítani. Ez a trend a 6970 óta megvan, nyilván a Fury sem más.
-
Hatalmas mellényúlás, leginkább... Ne magyarázzuk már a vadász és a vad alá/fölérendeltségi viszonyát

1920x1080: van, ahol a dx11 miatt lassabb, van, ahol nem. Ebből csak az látszik, hogy ahol a pixel delivery kevésbé jelentős faktor, ott gyorsabb a Maxwell. A felbontás növelésével több szerep jut az okosabb ROPoknal, ill. talán a szorosabban integrált CU/ROP párosoknak.
Ez mondjuk rögtön feltesz egy kérdőjelet a GCN DX12es felsőbrendűsége mellé...Aszinkron compute: ebből biztosan többet fog profitálni az AMD, egyszerűen azért, mert több a kihasználatlan ALU erőforrás. Aztán persze majd kiderül, hogy ez mennyit számít majd az összképben.
-
A hunting titans plakatot a pletykaoldalak generaltak? Meg az E3 press grafokat? Ill. brother penguin joslatait?
Emellett a speckokbol a ROP szamot nem lehetett tudni, es a 64->128 jatektol fuggoen 10-30%-ot jelentene. Ill. a jelen konfiggal is alulteljesit, WQHDben hoznia kellene a 980Ti-t.
fullHDre sajnos nem való, de ezt el lehet fogadni pozicionálási kompromisszumként. A tobbi viszont major communications fuckup. -
Azért azt számold bele, hogy a Kepler most is 10-20%-ot bukik ezen a konfiguráción.
Amúgy jól szórakozom, hogy a Fury-várásról már át is nyergeltünk a DX12 várásra. Fogadjatok el egy tanácsot, Fury-t akkor vegyen valaki, ha a DX11 teljesítménye megfelel. Mert amúgy azzal nincs különösebb gond.
-
Ebből a Fury-ból még sok minden lehet akár driver, akár alaposabb teszt révén, de egy dolog biztos - a hosszasan építgetett várakozást (hadd ne nevezzem hype-nak) a mai délután egyetlen suhintással sikerült lerombolni. Pedig valójában nem vészes a helyzet - WQHD-ben még a gyengébb tesztek esetében is 10-12%-kal lassabb a 980Ti-nél, 4K-ban pedig <5%-kal. Ehhez képest az olvasók többségének "oh, fuck" érzése lett a tesztek alapján, és ez a csata már akkor is elveszett, ha 2 hét múlva hirtelen 10%-kal gyorsabb lesz a kártya. Pedig szerintem egy abszolút szerethető termék lett, ha ilyen teljesítményre lenne szükségem, akkor a kompakt víz miatt valószínűleg ezt venném a 980Ti helyett.
Szóval műszakilag épp csak egy kicsit gyengébb, mint kellett volna. Marketingből viszont megint csillagos egyes
-
Továbbra sem érted az átlag VGA-vásárló lelkivilágát. A legtöbb 970/980 kb. úgy lett megvéve, hogy: gyorsabb? hűvösebb és halkabb? nagy OC potenciál? waaaaaaaaaaant! Ezt az osztályt 1.5 év alatt amúgy is lecseréli az ember, akár többször is.
Ha lenne egy 1 éves 780-am, akkor vagy úgy lennék vele, hogy 1 év múlva cserélem, és leszarom, mennyit fog érni, vagy most lecserélném egy 970-re. Nyugaton, ahol korántsem pörög ennyire a használt piac, még inkább ez a helyzet.
-
Kezdünk eltávolodni a valóság talajáról.
a) Szerinted ha a 980 tesztekben külön hangsúlyozzák, hogy esetleg 1.5 év múlva lassabb lesz, mint a 290X, akkor mennyivel kevesebb vásárlója lett volna az nVidiának? Megsúgom - minimálisan.
b) Titant vettél csak játékra 1 éve? Ez pont olyan hiteles gondolat, mint a múltkori 20%*20%*20% téma
Ha meg munkára is vetted, akkor azóta is a legjobb kártyád van.
Amúgy nekem 660-am van, és lehet, hogy marad is a következő generációkig. El tudod képzelni, hány álmatlan éjszakám van a potenciális DX12-es hátrányok miatt?![;]](//cdn.rios.hu/dl/s/v1.gif)
(#6801) MastR:
Nektek is meg kellene érteni hogy ha az AMD nem lenne, akkor szépen lassan ott tartanánk hogy egy VGA 200 felett kezdődik...Ezt mindenki érti, de mi köze ennek bármihez? Szeretjük az AMD-t, jó, hogy vannak, de ha hülyeséget csinálnak, akkor legyen már szabad szóvá tenni...
-
Annyi a probléma mindösszesen, hogy nem akarod elhinni, hogy a halkabb / hűvösebb valós vásárlói igény volt, nem a sajtó nyomta le az emberek torkán. És persze ezen valóban 180 (vagy legalább 120) fokot fordul a Maxwell megítélése. De a végeredményben akkor is a számok beszélnek.
(#6773) Laja333: jah, ebben a helyzetben nehéz nyerni. Ilyenkor az ember válassza a kisebbik rosszat, ami nem az, hogy kihátrálok a saját termékem mögül. A legjobb tényleg az lett volna, ha nem látszik az alaplap.
(#6780) HSM:
A low-level API-k esetén is ez lesz az első, amivel a Kepler indítani fog. -33%És ez, ha így is lesz, mit gondolsz, kit érdekel? Komolyan...
-
Előzetesen: szerintem írd be az aláírásodba, hogy Maxwell must die, vagy valami

Szóval, ne keverjük a szereplőket és a motivátorokat - a szereplők egymást befolyásolják, a motivátorok hatására. A 970-es esetbe látom, nagyon szeretnéd belelátni a sajtó elfogultságát (összhangban a "mindig más az hibás, nem az AMD" elvvel), de a szomorú valóság az, hogy a 970-esek eladásának a visszaesését az AMD nem tudta meglovagolni, mert nem volt a 970-nel szembeállítható terméke. Hiába magyarázzátok a 290-et és a 290X-et, szerintem is jó kártyák, de a vásárlóknak nem kellettek. És ennyi.
Ami az AMD-t illeti, szerintem nagyon jó dolgokat csináltak most.
(...)
Inkább azt kéne észrevenni, micsoda zseniális halk és mini asztali erőművet sikerült kihozniuk, ami ráadásul zseniálisan jól is mutat.Nay. Még mindig ott tartunk, hogy a zseniális dolgok a jövőben vannak. A Fury X már csak két nap, a Nano és az erőmű pedig indefinite. Tényként egyelőre van a hiányzó HDMI 2.0 és a számomra is hihetetlen fogyasztási értékeket mutató 390X. Fogadd el, hogy itt igen sokan a tények alapján mondanak véleményt, az ígérgetéssel meg amúgy is tele a padlás.
Viszont megígérem Neked, hogy ha a Fury X tényleg beéri 275W-os fogyasztással, miközben a 980Ti környékén teljesít (mondjuk WQHD-ben), akkor igen lelkesen fogom dícsérni az AMD-t. Deal?
-
De ez a HDMI2-es dolog, meg most az Intel CPU a dual fiji alatt a Quantum projectben.... Vicc.
Ja, ja, egyetértek, vicc... vagy Te nem úgy gondolotad?

Technológiai szempontból két teljesen lényegtelen dologról van szó. Kereskedelmi szempontból meg két ordító baklövésről. Találós kérdés - az eladásokat a technológiai vagy a kereskedelmi szempontok drive-olják?PS: Én komolyan szeretném, ha az AMD nem csinálna ilyen marhaságokat, amikkel intenzíven fűrészelik a piaci részesedésük alatt a fát. De csinálnak. Mit vársz, örüljünk neki?
-
Érvek hiányában elegánsan lekapcsolódunk az alapproblémáról, rámozdulunk egy másikra, félreértelmezzük a másik fél felvetését, és hosszan elkezdjük elemezni a jövendőt. Classic, de erre sajna nincs időm...
@HSM: nincs kettős mérce, ez egyszerűen balekság. Kérdezz meg akárkit, aki marketinggel foglalkozik.
-
Ismét körülbeszéled a problémát, csak a lényeg sikkad el a paragrafusok között. Az AMD húzott marketingből egy Darwin-díjast, és a körülményeket magyarázod, miközben mindenki a motivációt keresi. Busines as usual

A " Lesz egy új lehetőség, ami nyilván ki lesz használva." pontra meg csak annyit, hogy a történelem nem Téged igazol. -
válasz
ricshard444
#6671
üzenetére
Hát hajrá!

-
-
válasz
FollowTheORI
#6559
üzenetére
128 ROP-pal 4K-ban 10-20%-kal gyorsabb lett volna, mint a Titan X. Így sem lesz azért annyira rossz, mert blending mellett a 64 full speed ROP gyorsabb, mint a 96 half speed. Sima pixelműveletek esetén pedig a GM200-at valamennyire fogja a sávszélesség.
TMU amúgy 256.Azért amikor kijön az AotS alpha, akkor érdemes lesz egy pillantást vetni a két kártya viszonyára. Nem lesz ez trend a következő egy évben, de abból látszani fog, hogy az AMD mire gyúrt.
-
válasz
Laja333
#6547
üzenetére
64 ROP-pal nemigen lesz gyorsabb - talán 4K-ban, de ott sem feltétlen minden esetben.
Amúgy ezt a szégyen dolgot én sem értem.
Van egyszer a vásárlói szempont, ahol hasonló áron kapunk hasonló teljesítményű kártyákat. Ezen nincs mit szégyenkezni.
Műszaki szempontból teljesen más filozófiát követ a két termék. A Maxwell konzervatív és agyoncsiszolt minden szegletében, és számos okos kompromisszumot tartalmaz, amivel a jelenlegi igényeket jobban ki tudja szolgálni. Ezzel szemben a GCN 1.2 csak fél lábbal van a jelenben, ennek a következménye a nagyobb fogyasztása. Hogy bejön-e ez a filozófia, azt majd meglátjuk, de kisebb piaci szereplőként ez az egyetlen lehetséges kitörési irány, és szerintem becsüldendő, hogy próbálkoznak.Szóval akkor hol van a szégyen?

-
Nocsak, a crossbar memóriavezérlő mióta ultramobil-exkluzív feature?

Amúgy igen, az SM-eknek dedikált útvonaluk van a ROP-okhoz, és ciklusonként a preferált ROP-hoz 4db int32 / fp32 pixelt tudnak átvinni. Ezek szummája a teljes GM200 és GM204 esetén megegyezik a raszterizálók tudásával, ill. a ROP-ok képességeivel is. Ha kivágsz SM-eket, akkor a chip "közepén" csökken a pixel-átbocsátó képesség, függetlenül attól, hogy a raszterizálási kapacitás és a ROP-kapacitás nem változik. Ezzel együtt, a 980Ti eredményei egy kicsit furcsák, mert két külön mérés szerint is valamivel kevesebbet produkál az elméleti maximumához képest, mint a Titan X. Majd Damien kinyomozza, ha lesz hozzá kedve

A fentihez hozzátartozik, hogy ennek a limitációnak a hatását a gyakorlatban nemigen lehet látni, ugyanis:
a) blending mellett az nVidia ROP-ok a 32-bites adatokkal csak fele sebességen üzemelnek, ezért a ROP-kapacitás lesz a szűk keresztmetszet
b) MSAA mellett a pixel pipeline-ban minden raszterizált pixelre több ROP-művelet jut, ezért itt is a ROP-kapacitás a limit -
Úgy látom, szükség volna egy AMD vs AMD topikra is...
-
Nem feltételezek Rólad ilyesmit, de sajna az összes olyan hozzászólásnak ez az implicit következménye, ami arról ír, hogy az nVidia milyen gonosz a Gameworks-szel, és a vásárlóik ezen modellt támogatják. Az utóbbi pár napban rengeteg erre utaló hsz volt ebben a topicban is, meg a DX12-es cikk topicjában is. Több probléma is van ezekkel a gondolatmenetekkel, most nem állok neki filozófiai elemzést írni, majd vmikor jövő héten

-
Két éve azt jósolgatta itt a delphoi fan club, hogy 2016-ra megszűnnek a diszkrét VGA-k. Hogy látod ezt most?

Én először szeretnék látni egy működő APU-t HBM-mel, szeretném látni, hogy hozza azt a teljesítményt, amit egy diszkrét VGA ugyanazzal a konfigurációval (ld. A10-7850K vs 7750 - ouch!), és azt is szeretném látni, hogy mennyibe kerül. Amikor ez mind megvan, akkor lehet elgondolkodni. Addig csak a fantáziálás van.
-
válasz
sayinpety
#6137
üzenetére
Ja, akkor még egyszerűbb a történet, csak pont a másik irányból. Ha nyílt lenne az effekt, akkor mindenki kedve szerint állítgathatná a tesszelációs faktort, és a leírtak alapján x16 (de legkésőbb x8) alatt már az AMD lenne a gyorsabb. Ez meg üzleti szempontból elég vicces lenne - csak az nVidia vezetése pont nem röhögne

A diszkrét GPU-s dolog csak elsőre hangzik logikusan. El akarnak adni, de kinek? Intel CPU-hoz nem fognak tudni alaplapot szállítani, tehát az eleve bukta. A sajátjuk mellé meg minek?
Megjegyzem, azt elhiszem, hogy az Intel ezt szeretné, de az meglepne, ha ezen az időtávon meg tudnák valósítani. Egyelőre még a 100 USD-s diszkrét VGA-któl is borzasztó messze vannak.GRID: jogos, azokban a beállításokban nemigen lesznek ezek a feláras extrák benne.
(#6138) HSM: bármit, ami kézzelfogható

-
Ha a GRID-jükben látják a jövőt, azt ők fogják ellátni HW-rel, tehát amit most megnyernek, azt később elég komolyan bebukhatják. Amit írsz, az akkor logikus, ha úgy gondolják, hogy rövidesen kalap-kabát.
(#6107) Televan: nekem meg az az érzésem, hogy az AMD-szimpatizánsok próbálják meggyőzni az nVidia-tulajokat arról, hogy tartaniuk kellene a DX12-től, de az nVidia tulajok többsége jelenleg szarik rá. És nem azért, mert az valami szörny, hanem azért, mert még nem időszerű. Lássunk már egy kommerciális DX12 / Vulcan játékot - szerintetek mikor jön az első ilyen?
-
válasz
sayinpety
#6083
üzenetére
Nehez megallapitani, am nem tunik jonak az LDS usage. Optimalizalatalan kodjaim jobbak.
Értem, viszont ha a GW nem fekszik rá a saját architektúra gyengeségeinek elrejtésére, akkor Radeonon jobban kellene fussanak a GW effektek, nem? Nyilván az überultra tesszeláció kikapcsolása után.
Amit az Intellel kapcsolatban írsz, azt még nem hallottam, de rögtön két dolgot nem is értek benne:
- Ha az Intel erre képes, akkor az AMD-nek ebben előnyben kellene lennie - minek erőlködik a PCIE-vel?
- Ha az nVidiának a cloud gaming a jövő, akkor miért érdekeltek a "teljesítményrontásban"? Csak drágább lesz nekik fenntartani ugyanazt a felhasználói bázist...(#6087) HSM: Ha az Intel ilyen IGP-ben gondolkodik, akkor lesz alternatíva a felhőcskék helyett

-
Az optimalizálás nem egy bináris dolog, ami vagy van, vagy nincs. Bizonyos szempontokból szerintem nagyon is optimalizáltak a GW effektek - a szűkösebb ALU / shared mem kapacitással biztosan jól sáfárkodnak. Az más kérdés, hogy ebből nem feltétlen lesz sok FPS - pl. azért, mert ráb***nak 64x tesszelációt Geralt frissen mosott hajára.
Az iparág nagyágyúi miatt én biztosan nem fogok aggódni. Aggódjon az nVidia. Ha rosszul döntöttek, akkor majd veszek a jól döntő konkurenstől terméket. Ha. Akkor. Majd.
-
válasz
Milka 78
#5946
üzenetére
Pont ez a lényeg - akik 9-18 hónapja breuháztak egy akkor 550 USD-s kártyára, azok időarányosan sokkal kevesebbet fognak bukni, mint akik most teszik. Ezért csak annak érdemes most a topból válogatni, aki azt mondja, hogy jó lesz, amíg jön a next gen, aztán leszarom, mennyi bukó lesz rajta. Ugyanis ennek a körnek a 90%-a úgyis cserélni fog.
(#5947) imi123: Nem csak a végletek léteznek. A barátokkal ivás költségei részben sem visszanyerhetőek, viszont a hardvereké igen. Tipikus példa, hogy most 980-at nem igazán érdemes venni, mert jó esély van rá, hogy 2-3 hét múlva olcsóbb lesz. Szóval igen, nem érdemes túlaggódni a bukót, de néha azért nem árt megállni és átgondolni, mit is vesz az ember és mennyiért.
-
Továbbra is - szerintem hülyeséget csinál, aki most 9 hónapnál hosszabb időre drága kártyát vesz, akár AMD-t, akár nVidiát. Innentől kezdve nekem nem releváns kérdés, hogy mire mész 1 év múlva vele.
A DX12 miatt lehet, hogy váratlan értékcsökkenés lesz, az új generációk miatt meg biztos - szerintem elég komoly.(#5936) bunygyi: Nem ez a megfelelő topic erre, ill. az elvárásaidat sem ismerjük. Nézz be ide.
-
Folytatás innen.
Itt nem az a kérdés, hogy melyik gyártó mászik rá a másikra, hanem az, hogy kinek (melyik vásárlónak) érdemes 28nm-en gyártott GPU-s kártyát venni. Aki 8-9 hónapnál hosszabb időre tervez, annak szerintem hülyeség. Emlékszel, hogy anno a 7970 és a 680 megjelenésekor hirtelen mennyire ósdinak tűnt a 6970 és az 580? Most is ez fog történni, csak nagyobban, mert két lépcsőt ugrik a gyártástechnológia, és új memóriatech jön. Egyedül a Fiji lesz valamennyire korszerűnek mondható, a jó ég tudja, mekkora fogyasztásával.
Ha pedig < 9 hónapra tervezel, akkor szerinted mennyi DX12-es játékkal fogsz játszani?Ezért mondom, hogy tök irreleváns ebben a generációban a DX12 az AAA piacon. Ha meg valami csoda folytán kis DX12-es játékok jönnének sokan, azok simán el fognak szaladgálni a jelen kártyáinkon is, attól végképp felesleges függővé tenni, melyik gyártót választjuk, ha egyáltalán veszünk valamit.
Egyébként te most nyugodt szívvel tudnád javasolni mondjuk a 980Ti megvételét?
Itt is az a kérdés, hogy mennyi időre. Fél évre akár igen - de nem most, hanem amikor már kijöttek a Radeonok is, és látszik, hol áll a csípési sorrendben.
-
válasz
bunygyi
#5896
üzenetére
Én írtam nemrég ilyesmit, de nem ennyire specifikusan. Azt lehet mondani, hogy 1.5-2 év elteltével nagy átlagban a Radeonok javulnak 10-15%-ot a GeForce-okhoz képest. Hogy ennek az az oka, hogy az nVidia rögtön jó drivert ír, vagy az, hogy az AMD tovább foglalkozik az egyes generációk támogatásával, azt mindenki döntse el maga, mindenesetre ez a tendencia megfigyelhető az utóbbi néhány generációban (kivéve 580 / 6970, szegény Cayman igen hamar kiesett a pixisből).
(#5904) Abu85: Ó, az MS szerint, aki teljesen független a kérdésben, ugye?

Túl sokat nem akarom részletezni a dolgot, továbbra is baromságnak tartom azt az elképzelést, hogy az AI fejlődését a VGA-driverek erőforrás-igénye fogja vissza, de 1 év múlva ezt is meglátjuk. Írom a listát 2016. júniusra, hogy mi mindent kell meglátnunk
-
Olvasom, amit írsz, és azt tegyük hozzá, hogy az Intel drivere szerinted a legjobb ebből a szempontból - én pedig azért nem foglalkozom a kékekkel, mert egyrészt nincs releváns teszt róluk, másrészt annyira gyenge a GPU-teljesítményük, hogy az életben nem lesznek CPU-limitesek. Diszkrét GPU-k terén a két végletet az AMD és az nVidia képviseli, és ebben abszolút az nVidia-féle irányt tartom jobbnak, mert ez jobb a játékosoknak.
(#5891) Loha: hát, igen...
-
Azért ez rendesen ki van csavarva. Az nVidia a hibás az AI és a fizika stagnálásáért, mert a drivere sok CPU erőforrást visz el, hogy normális FPS-eket tudjon biztosítani. Ezzel szemben az AMD drivere király, mert takarékos a CPU-val, és a komplexebb játékok már közepes CPU-kkal is köhögnek (ezt persze a tesztekben a 4GHz fölé clockolt i7-ekkel nemigen látni). Szóval az AMD akkor is okos, amikor hülye. Az pedig remélhetőleg nem zavar senkit, hogy 6-7 éve is hasonló volt a helyzet, amikor még DX11 sem volt

Az a kijelentés pedig, miszerint "Szinte mindegyik exkluzív ls komolyabb konzolos játék AI-ja és fizikája túlmutat a PC-s szinten" - háááááát... szóval, hány játékot is takar a nagyívű kijelentés?
-
Fussunk neki még egyszer. Először is, az alkalmazás nem dönthet úgy, hogy a címtartomány melyik részét szeretné használni - (blokkonként) kér VRAM-ot az OS-től, ami ad neki egy handle-t, amin keresztül eléri a memóriát gyorsan, hatékonyan. Az alkalmazásnak fogalma sem lesz, hogy az adott blokk fizikailag hol van a VRAM-ban. Amit leírtam, az a maximum, amit egy normális OS megengedhet - a valóság ennél lehet, hogy "bürokratikusabb" lesz.
A driver akkor veszti el a kontrollt az ominózus 512MB felett, ha megkülönböztetés nélkül kiadja az OS-nek, mint felhasználható VRAM-ot. Akkor valóban repül a szar a ventillátorba, de ez aligha fog megtörténni. Ahogy írtam, nem tudom pontosan, a WDDM mire ad lehetőséget, de ha semmi jó megoldás nincs a terület "lepriorizálására", akkor végső megoldásként még mindig le lehet tagadni. A jogi problémák pedig kb. a tündérmese kategória - de ezt Te is írod.
A fentiekből az is következik, hogy nincs olyan, hogy "kiadod a full területet". Az alkalmazás feltesz majd kérdéseket az OS-nek a VGA-ról és a VRAM-ról, és ez alapján dönti el, hogy mennyi memóriát kér. Jobban belegondolva, lehet, hogy mindenképpen érdemes adatbázist tartani a VGA-król, mert ha a szabad VRAM-ot kérdezi le induláskor, akkor azzal öngólt rúghat. De ezt mondja meg valaki, aki programozott ilyesmit

-
Dehogy ír bele csak úgy - egyszerűen vagy nem tünteti fel a fizikai memóriatartományt az OS felé elérhetőnek (akkor tényleg kuka az 512MB), vagy rögtön betöltődéskor lefoglalja / megflageli / whatever, hogy ez "speciális" / foglalt memória (nem tudom, pontosan mire van lehetőség a WDDM-ben).
Igen, látszani fog a játékokban, hogy mi a helyzet. Majd ezt is megmagyarázza Jensen, hogy "we only wanted to give you the best experience possible". Ironikus módon, ebben az esetben még igaz is lesz
(#5822) proci985: A legnagyobb tanulságot a tesztoldalak vonhatják le - Anandék le is írták, láttak jeleket, hogy valami nem teljesen kerek, és restellik magukat, hogy nem mentek jobban utána. Reméljük, tényleg tanulnak belőle.
Felhasználói szemmel annyi a konklúzió, hogy a harvestelt kártyáknál mindig lehet meglepetés. Meg hogy az nVidia gátlástalanul hazudik. Egyik sem új, de kicsit sikerült most rájuk erősíteni. -
Még mielőtt nagyon belelendülnénk ebbe a memóriás kérdésbe - a VRAM-mal továbbra is az OS fog gazdálkodni, a szoftvernek meg kell kérdeznie, hová írhat, ill. el kell kérnie tartományokat. Elég vicces eredménye lenne, ha nem így lenne.
Innentől kezdve elég, ha a driver "performance optimalizálás céljából" lefoglalja a felső 512MB-ot, és máris meg van oldva a kérdés. -
Ha nem megy a driver, akkor nincs 3D gyorsítás, úgyhogy tök mindegy, mennyi a mem

DX12 és Vulcan alatt szerinted honnan tudja a játék, mennyi memóriával gazdálkodhat? Természetesen megkérdezi.
Utoljára írom le, nincs semmilyen műszaki disznóság, kommunikációs és szoftveres disznóság van. De ha már elmész paranoiás FUD irányba, akkor miért nem mondod azt is, hogy a 980-ról meg 5GB-ot fog reportolni a driver? Ezzel a módszerrel mindegyik VGA-t meg lehet szívatni.
Figyi, értem, hogy rühelled a 970-et, ne vegyél ilyen kártyát. Viszont az nem korrekt, hogy ilyen elefántot csinálsz egy nehezen előhozható problémából, amire ráadásul van szoftveres fix is - ami egyáltalán nem workaround. Egy 5%-os esély 5%-os valószínűségű jövőbeli problémáján rugózol, ráadásul egy olyan VGA esetében, ami ár / teljesítményben jobb, mint a kettővel alatta lévő árkategória versenyzői, hasonló operatív paraméterek mellett. Elég jól körülírtam, hogy mennyire feleslegesen?

-
Szerintem próbáljunk meg az objektív irányba visszakanyarodni, mert ebben a hsz-ben már megint óriásira vannak nagyítva az nVidia problémák

A 660Ti esetében már hallottam olyanról, akinek az unokatestvére már olvasott ilyen problémáról, de a gyakorlatban egyetlen tesztet nem láttam, ami kimutatta volna. Minden bizonnyal azért, mert a driver úgy reprezentálja a kártyát, hogy 1.5GB-nál többet ne nagyon akarjon senki beletölteni (erre konkrétan láttam videot). Én is azt gondoltam a koncepciót elolvasva, hogy ez gázos, de a gyakorlat nem igazolta.
A 970-nél pedig miért nem megoldás a driveres korlátozás? Teljesen korrekt 3.5GB-os kártyád lesz tőle
Az egy külön ügy, hogy az nVidia átb***ott mindenkit 0.5GB-tal, ezt egyénenként érdemes eldönteni, hogy lenyeli-e az áldozat - viszont ez nem műszaki kérdés. Semmi gond nincs ezzel a vágással műszakilag, ha ésszel van használva.(#5789) proci985: ja, kb. ennyi. A tisztességtelen piaci magatartást kimerítette a dolog, és egy szűk kört gyakorlatilag is megszívattak vele, de a többségnek ár/teljesítményben még mindig jó. Tanulságok értelemszerűen vannak

-
Szerintem felesleges magyarázni a bizonyítványt, meg "vonalakkal" dobálózni - mindkét oldalnak voltak hülye húzásai. Azon meg elméletben lehet vitatkozni, hogy a flex memóriavezérlés nagyobb probléma, vagy a lefelezett ROP partíció - a gyakorlat viszont azt mutatta, hogy míg az 5830 teljesítménye néhány tesztsor lefuttatása után is rettentő összevisszaságot mutatott, a 660Ti-vel és a 660-nal egyetlen egyszer sem futottam bele ilyen problémába, pedig ezeket nem csak teszteltem, hanem több, mint 2 éve ilyenek vannak a gépben is. Sőt, tesztet sem láttam, ami ezt igazolná, de ha mutatsz egyet, szívesen megnézem, mert érdekel, mivel lehet megszívatni a flex vezérlést
![;]](//cdn.rios.hu/dl/s/v1.gif)
A 970 pedig, leírom még egyszer, nem egészen ugyanez a probléma. A 970 gondjainak a marketing a forrása, mert szerintem az égvilágon semmi gond nem lenne a kártyával, ha 3.5GB-nak reportolná magát. Fizikailag rajta lenne a kártyán a 4GB, de a gyakorlatban csak 3.5 lenne kihasználva.
-
Műszakilag, vagy üzletileg? Műszakilag szerintem a 970-nél megérte, itt viszont már nem - pont azért, amit írsz, túl kevés a differencia. Üzletileg viszont megéri, mert jobban kommunikálható, különösen, ha a teljes memóriamennyiséget kommunikálják, mint a 970 esetében. És amúgy ez f***ság, mert szerintem a 970-nek ez az egyetlen problémája - az OS azt hiszi, hogy van 4GB nagysebességű memória a kártyán, közben meg csak 3.5. Meggyőződésem, hogy ha a kártya 3.5GB-osnak kommunikálná magát, akkor nem lennének a beakadásos issue-k.
(#5776) Loha: a power limit emlékeim szerint a GPU-val foglalkozik, nincs benne a VRAM. De amúgy lehetséges a power limit a GPU miatt is - csak ha nem azonos a boost sebesség, akkor felesleges összehasonlítani a két eredményt.
-
Ja, a memóriabuszt nem, csak a ROP-okat, azt viszont sokkal idiótábban (ld. 5830). Amúgy állatira nem értem, mi a nagy probléma a backend megvágásával

(#5769) zoli7903: Ott valami nem kerek - az egyik tesztben a 980Ti azonos órajel és kevesebb unit mellett gyorsabb, mint a T-X. Vagy fake a teszt, vagy jóval magasabbra boostol a tesztben a kisebbik kártya, vagy power / temp limitbe fut a T-X.
-
Amúgy, a potenciális csonkolást perspektívába helyezve:
- A két SM (256 ALU + 16 TEX) letiltása átlagosan kb. 5% teljesítményvesztést jelent
- A fél backend blokk (8 ROP + L2 + a gyakorlatban egy 32-bites memória kontroller) pedig kb. 3%-otNyilván azonos órajelek mellett.
-
Srácok, a személyeskedést próbáljuk mellőzni

-
válasz
Locutus
#5718
üzenetére
Szerintem rossz pillanatot választottak a cikk írói egy historikus alapú elemzéshez (ami önmagában akár lehetne korrekt is). Két olyan jelentős változás jön 2016-ban, amiből az AMD komolyan profitálhat:
- Egyfelől a DX12 / Vulcan segítségével megmutathatják, mire képes valójában a GCN architektúrájuk
- Mársrészt a HBM addigra eljuthat az APU-kig, és ezzel a gyakorlatilag döglött koncepciónak újra értelmet adhatEgyik sem garancia semmire, de a potenciál ott van, és ezzel a cikk nem számolt (nem is számolhatott). Innentől a konklúziók is nagyon esetlegesek.
-
Biztos megvan rá az okuk, de az is biztos, hogy ennek még gyakorlati előnyét nem láttam
Hátrányát viszont annál inkább.Azt ugye tudod, hogy ha a ROP-limit relevanciáját hangoztatod, azzal a jelenlegi megközelítésű konzolportolást támogatod? Just saying

A számtani átlag csak akkor jó, ha mindegyik játék kb. hasonló FPS-eket produkál - de akkor jó a mértani is. Viszont ha nagy az ingadozás, akkor számtani átlag esetén azok a játékok lesznek komolyabb hatással a végeredményre, ahol eleve magas az FPS. Szerintem az egy kicsit counterproduktív

-
válasz
Laja333
#5710
üzenetére
A 290X és a 780Ti egymáshoz képesti mozgásáról korábban írtam, most viszont nem ezekről volt szó - én a 680-7970 viszonyról beszéltem.
Minden játék kiragadott eset. Reprezentatív eredményt akkor fogsz kapni, ha mondjuk a top10 népszerű játékot leméred 3-3 karakterében eltérő helyszínen, és az eredményekből csinálsz egy (mértani) átlagot.
(#5712) HSM: Legyünk már pontosabbak - nem a játék szívatja meg az AMD driverét, hanem az AMD drivere a játékot. Mégpedig azért, mert a a játék igyekszik azt az irányt követni, amit az AMD is bőszen propagál a Mantle-lel, csak DX11-ben sz**ik rá. A PhysX-et felesleges idekeverni, jelen esetben az csak egy fizikai middleware. A Witcher 3 pedig indokolatlanul nagy mértékben jutalmazza a ROP-teljesítményt.
Amúgy meg ld. 2. bekezdés
-
A Project Cars-ban meg ugye pont fordítva van. Felesleges ilyen nagy ívű kijelentéseket tenni egyes eredményeket kiragadva (főleg, hogy még ugyanabban a játékban, ugyanazokkal a beállításokkal is jelentősen más eredmények hajlamosak születni, ha más helyszínen tesztelünk), a szomorú (de nem meglepő) igazság az, hogy ma már sem a 7970-nel, sem a 680-nal nem mész semmire ultra beállítások mellett.
-
... és akkor meg is van a megfejtés. Bizonyos tesztekben (amilyen volt a PCGH, ill. amilyen a Pclab tesztben a Forest) a kártyák majdnem egy az egyben a pixel throughput szerint sorakoznak fel, a memória-sávszélre alig érzékenyen. A Radeonoknak van egy kis előnyük (valószínűleg a teljes sebességű blending miatt), ill. a PCGH tesztben szerintem rossz a 780 és a Titan (classic) mérés (merthogy a 780Ti már belepasszol a mintába). Szokásos konzolport effektus - postprocessben próbáljuk szebbé tenni a PCs verziót (ie. Ultra beállítás), ami zabálja a backendet.
(#5687) Szaby59: amit írtam, az igaz a 480-5870, 680-7970 és 780-290 viszonylatban is (az 580-6970 esetében bizonyos okból nem).
A GCN 1.2 és 1.0 között azért van számos különbség - ill. a Kepler-Maxwell ugrás annyira nem drámai mértékű. Mindettől függetlenül, én nem tartom elfogadhatónak, hogy a last gen erősen csökkentet supportot kapjon - különösen, hogy a Maxwell line-up nem teljes, azaz a last gen káryák 1/3-a igazából current gen... -
A 780ti és a titan black a 290x ellenében jöttek, annak idején jobbak is voltak annál, ha nem csal az emlékezetem. Mostmeg egy nyíltan nv-s játékban rosszabbak 10%-al (gamegpu-s teszt) mint a sima 290. Mi ez, ha nem átkúrás?
3 (vagy több) generáció óta hasonló trendeket lehet látni - 2 évvel a megjelenés után az azonos kategóriában lévő GeForce-Radeon párosítások közötti egyensúly 10-15%-kal a Radeon javára tolódik el. Ha cinikus akarnék lenni, akkor azt mondanám, hogy a Radeonok 10-15%-kal jövőállóbbak. Hogy ennek mennyi a jelentősége, azt mindenki döntse el vásárláskor

-
-
Ne bolondozz, minek kérdeztek volna ilyet az nVidiától? És az nVidia mire alapozva válaszolt volna bármit? Ez konkrétan fantazmagória.
A Dying Light pedig user hiszti volt, amit egy pozícionálási hiba, ill. a vevőkör nem megfelelő ismerete generált. Buta dolog volt, de nem műszaki oldalon.
-
Persze gondolom így is a fejlesztők a bűnösök. Egyáltalán nincs köze az eredménynek annak, hogy zárt middleware-ekkel vagy magával a korlátozott API-val sokszor lehetetlen helyzetbe hozzák őket.
Ezt hívják szaknyelven felelősség-tologatásnak
Természetesen elsősorban a fejlesztő a hibás, mert rosszul mérte fel, hogy a rendelkezésre álló építőelemekből mit lehet kihozni, az építőelemek problémáit pedig második lépésben lehet elővenni.A korábbi építkezős példával élve, a DX11 leginkább a talajviszonyokkal hozható pariba, a GW pedig mondjuk egy kombicirkóval. A talajt lehet hülyézni, csak túl sok értelme nincs. A kombicirkó valóban lehet szar, de ha képtelenek vagyunk normálisan beépíteni, annak viszonylag hamar ki kellene derülnie, nem a ház átadásakor.
-
válasz
#85552128
#5522
üzenetére
Ez biz 44-45%, TPU-sok nem tudnak %-ot számolni

Amúgy a tesztek közötti különbséget a választott játékok és a beállítások befolyásolják leginkább. A pH! tesztek valóban az AMD kártyáknak kedveznek, de szerintem felesleges elfogultságról beszélni - a beállítások többnyire legalább annyira realisztikusak, mint más tesztoldalakon. A játékszelekcióba meg bárhol bele lehet kötni.
-
Aha, köszi. A számok azt mutatják, hogy a CPU-limit komoly probléma, de nem az egyetlen - míg fullHD-ben és WQHD-ben főleg az fogja vissza a 290X-et, 4K-ban már messze nem az a domináns limitáció, és bár ott közelebb van a 290X a konkurenciához, még mindig iszonyú nagy a távolság. Ezt a b***ást...
-
Az is nagyon érdekes, hogy a Radeonok Windows 10 alatt 40%-kal is gyorsabbak ( [link] ), mint korábbi Windows alatt.
Akkor viszont nagyjából két eset van:
a) IF ( Radeon ) AND ( Windows < 10 ) THEN perf -= 40%
b) a Radeon driver 8.1-es verziójában van valami problémaA b) egy kicsit valószínűbbnek tűnik...
szerk. (#5422) Ghoula: igen, pontosan. Értem, amit mondasz, de ehhez az kellett volna, hogy legyen a termékpalettán LE modell.
-
válasz
Malibutomi
#5392
üzenetére
Erre simán lehet magyarázat a driveres probléma. Nem érdemes ítélkezni szerintem, mert bármelyik post bármelyik oldalon lehet igaz is meg hazugság is. Meglátjuk, mitől javul meg

(#5368) Ghoula: annak sok értelmét nem látom, hogy a jobb chipek is zajosabbak legyenek. A TDP emelés kapcsán meg ugyanazt írtad, amit én

-
Pedig arra most mernék fogadni, hogy 2016-ban komoly változás lesz az architektúrában is. Meglátjuk.
A feszültség túl magasra belövésének egyetlen józan okát tudok elképzelni - azt, hogy az eladni kívánt stock alsó 10-20%-ának szüksége van ennyi V-ra. Szóval amit írsz, az műszakilag akár még rendben is lehet (ami nem azt jelenti, hogy biztosan úgy van), de a gyakorlatban csak egy sokkal jobb gyártástechnológiával kivitelezhető. Tekintettel arra, hogy drasztikus váltás jön a csíkszélességben, erre sem mernék fogadni.
Vishera: ugyanazt a tesztet nézzük? Alig pár pontot látok, ahol egyáltalán gyorsabb a 2600K-nál, a legoptimálisabb eset a +25%, közben meg méretre 46%-kal nagyobb. A fogyasztás meg attól még szar marad, hogy tudod az okait...
-
Ne viccelj már, így bármit lehet javítani, hogy jobb ez - jobb amaz
Akkor ennyivel lehetnek takarékosabban az ALU-k is. Ööööö... mi is a helyzet a Maxwell-lel? 
Ezek amúgy is olyan optimalizálások, ahol az első 1-2 iteráció hoz sokat, és ezeket valószínűleg mindkét gyártó csinálja régóta, úgyhogy sokat nyerni nem lehet velük. A 2x-es javuláshoz ennél sokkal, sokkal több kell. Segítek: vállalható kompromisszumokat kell találni
De, a koncepció a rossz. A Vishera is kényelmesen a Sandy mögött baktat az említett két mutatóban, mégpedig elsősorban a teljesítmény miatt - azért, mert nem láttam olyan tesztet, ahol az 1 mag VS 8 mag teljesítmény között 6-6.5-nél nagyobb szorzó lett volna. Talán frontend-limitált az egész család, nem tudom biztosan, de valami nagyon el van b***va az utilizáció terén.
-
Számtalan módja van? Sorolj már fel párat, ha nem nagy gond - műszakilag kivitelezhetőt, ha lehet

A csíkszélesség csökkentése az egyetlen, ami tisztán látható - kérdés, hogy ezzel önmagában mennyit lehet nyerni. Nyilván ezt a konkurencia is behúzza.
Egyébként a Bulldozer koncepcionálisan is félrement - a perf / W és a perf / mm2 értékei messze a Sandy Bridge alatt söprögetnek még azokban a tesztekben is, ahol relatíve jól szerepel.
(#5326) Televan: az nVidia marketingje a profit maximalizálásával foglalkozik - ebbe az erőből dolgozás nem fér bele. Az elővagdalkozás drágább, de csökkenti a sales kockázatot - tehát akkor van értelme, ha a sales kockázat jelentős.
A DX12 nem fog jelentős szerepet játszani a 3xx VS Maxwell sztoriban. Talán a következő fordulóban. -
Én arról nem akarok véleményt nyilvánítani, hogy megalapozott-e a félelmük, viszont a piaci lépéseik egyértelműen preventív jellegűek, ahelyett, hogy a jóval kényelmesebb (és olcsóbb) reaktív irányt követnék. Ilyen a "980Ti" májusi kihozása, és ilyen a szokatlan dupla kuponakció a 970-980 range-re. Ezek mind azt célozzák, hogy aki csak lehet, vegyen tőlük új hardvert minél előbb. Ha magabiztosak lennének, akkor az AMD launch után, a végső árak ismeretében tennének lépéseket.
Számítok a 960-hoz kapcsolódó akciózásra is, és még az sem kizárható, hogy a 960 fölé és / vagy alá is jön új kártya - bár lehet, hogy itt már valóban elég lesz a reaktív vonal.(#5310) CsonkaImo: A Titan X árazásán az látszott, hogy nincs konkurensük - nagyon sok az 1000 USD. Az 1300 USD-s pletykát szerintem saját maguk dobták be a közönség megtesztelésére, és vszleg érezték, hogy az már nem menne - nem a Radeonok miatt, hanem mert túl sok potenciális vásárlónál csapná ki a biztosítékot.
-
Félretéve a trololo faktort, azt áruld el, hogy miért vagy olyan biztos benne, hogy az AMD nem köt hasonló kompromisszumokat a jobb perf / watt érdekében, mint az nVidia

(#5306) Malibutomi: hát ez nagyon kis aranyos, a következő, minden bizonnyal SFF gépemben jól mutatna

Amúgy annyit érdemes megjegyezni a közelgő AMD széria kapcsán, hogy az nVidia piaci mozgása arra utal, hogy tartanak a közelgő termékektől. Hmmmm

-
Ne viccelj már. Persze, hogy jó lenne - de pont az előbb írtam le részletesen, hogy nem fognak a saját stratégiájukkal szembemenni csak azért, hogy "jó legyen". DX11 alatt erőforrás-utilizációban nem elhanyagolható előnye van az nVidiának - nem véletlen, hogy most ők vannak a zárt oldalon. Ennyivel várhatnád azt is, hogy az AMD a tranziszor-sűrűségbeli előnyét megossza a konkurenciával.
(#5230) Xmister: minden egyes évben "teljesen más a helyzet", mint az előző háromban, amikor a fenenagy ígérgetés ellenére nem történik semmi. A low-level irányban valóban van lehetőség, de még rengeteg idő telik el addig, amíg pénzre fordítható realitás lesz belőle. Az új szériának ezért egyrészt DX11-ben meg kell állnia a helyét, másrészt anyagilag ki kell húzni a DX12 / Vulcan elterjedéséig, harmadrészt a sok idő alatt az ellenség is számos dologgal tud készülni.
Azt már csak zárójelben teszem hozzá, hogy mindez egy olyan vizuális fejlődés ürügyén történik, aminek a látható eredménye igencsak megkérdőjelezhető...
-
Mielőtt teljesen belesüllyednénk a fejlesztők szomorú sorsának melankolikus mocsarába, nézzünk már rá a helyzetre reálisan.
- A fejlesztőknek vizuális innovációra mindig van lehetőségük, mert ennek sok köze nincs az IHV-khez
- Persze, az innováció nem olcsó - ehhez a kiadó biztosítja a forrásokat, ennek sincs köze az IHV-khez
- Az innovációhoz szükséges proof of concept és optimalizációs platform, amit az AMD biztosít mindenkinek a kitűnően dokumentált GCN-nelAkkor most miért is lenne az innováció akadályozva? Az egyetlen dolog, ami hiányzik, hogy az nVidia hardverére nem tudnak úgy optimalizálni, ahogy szeretnének. Oh well, akkor legyen az elsődleges platform az AMD, és az nVidia legyen a futottak még kategória - ez az irány mindenkinek a rendelkezésére áll. Kezdjenek el jönni az ilyen játékok, és ha ettől elkezd nyílni az olló a két gyártó cuccai között, akkor beszélhetünk "hibáról" - amit akkor az nVidiának hirtelen sürgős lesz megoldania.
-
Amiket hibaként aposztrofálsz, azok szimplán az nVidia piac- és partnerpolitikájának elemei. Az egy dolog, hogy Neked vagy néhány high-end fejlesztőnek ez nem tetszik, de ettől még nem lesz objektív "hiba". "Hiba" akkor lesz, amikor a konkurencia ennek köszönhetően elkezdi letarolni a piacot. Ha ez nem történik meg, akkor a piacnak nincs komoly igénye arra a nyitottságra, amit az AMD képvisel.
-
Pedig van erre teljesen logikus magyarázat, bár igaz, hogy ebben Jensen nem a sátán
![;]](//cdn.rios.hu/dl/s/v1.gif)
Kész effekteket valaki azért vesz, mert valamilyen okból nem akarja őket házon belül megírni - jellemzően azért, mert nem akar megfizetni egy olyan teamet, aki képes erre jó minőségben. Ennek a "sóherságnak" aztán lehet számos oka, de az eredménye nyilván az, hogy a fejlesztői team alacsonyabb kompetenciákkal működik. Azaz be van építeve, hogy eleve a gyengébb programozói teamekkel felszerelt cégek fordulnak a GameWorks felé, és ez egészen nyugodtan lehet oka a gyengébb minőségnek. Nem mondom, hogy a GameWorks-szel nincs gond, de óriási túlzás egyedül / elsősorban annak a nyakába varni az elmúlt év fiaskóit.
-
Örülök, ha érdekes volt

(#5158) HSM: az ALU:MEM arány nagyon hasonló a két kártya esetén, ezért ebből pár % eltolódás kieshet, de több nemigen - ha többet dolgoznak az ALU-k, akkor a ROP-oknak is több melójuk lesz. Btw. a DCC nem textúratömörítés, nem értem, miért hivatkoznak rá ilyen néven egy csomóan.
-
Mire számíthatunk a DX12-től - elkezdtem egy postot írni, aztán ez lett belőle

-
Nekem továbbra is az a véleményem, hogy a Maxvell-nek kinéz egy a szokásosnál nagyobb értékcsökkenés.
Igen, valószínűleg (hacsak nem alkalmaznak Jensenék valami alternatív piaci stratégiát), az alábbi két feltétel mentén:
1. Ha jelentős számú olyan motor lesz, ami jobban alányúl az erőforrásoknak
2. Amikor ezek a motorok a végfelhasználókat érintő stádiumban lesznek (ie. megjelentek a játékok)Az #1-es az iparági pletykák alapján valószínű. A második várhatóan 2016 során fog kibontakozni.
(#5112) do3om: teljes részletességgel ld. itt

-
Ezt úgy írtad, mintha nem lehetne a kódon belül DX11 alatt detektálni, milyen vason fut, és aszerint alakítani a kódot.
Ezzel ugye arra utalsz, hogy számos játékban branchel a kód, és az AMD-s branch szándékosan bugos. Ez nekem már inkább a konteo kategória, a realitások talajától több méter magasságban

A többi természetesen így van - és pont ez az, amit sok vásárlóval nem lehet megetetni.
(#5020) -Solt-:
és a többség az ár/érték felé húz
Pontosabban az érzékelt ár / érték felé (vö. sales), ami nem ugyanaz, mint a valós ár / érték, és pláne nem ugyanaz, mint az ár / teljesítmény.A Far Cry 2 nVidián is mikrolaggolt, én képtelen voltam vele játszani. Lehet, hogy később jött driver, ami megoldotta, de akkor meg az a kérdés merül fel, hogy AMD-re miért nem? Ugyanez a kérdés a BF3 és a Cliffs of Dover kapcsán is - és nehogy azt mondd, hogy a BF3-ban direkt volt elb***va AMD-n, mert ott már más barátságok voltak érvényben

A zárszó kapcsán pedig - igen, én is látom a potenciált abban, amit most az AMD csinál, de rengeteg munka van még addig, amíg eredmény is lesz belőle. Szurkolok nekik, hogy keresztülvigyék, amit akarnak, de fogadni még messze nem mernék rájuk.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Fujifilm X
- sh4d0w: StarWars: Felismerés
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Androidos tablet topic
- Linux kezdőknek
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- Még mindig várunk az új Mass Effectre – az N7 nap sem hozott áttörést
- Házimozi haladó szinten
- Elektromos cigaretta 🔞
- Formula-1 humoros
- További aktív témák...
- BESZÁMÍTÁS! Asrock B450M R5 5500 16GB DDR4 512GB SSD RTX 2060 Super 8GB THERMALTAKE VERSA H17 600W
- STANDARD Setup! Már kamatmentes rèszletre is! Èrdeklődj!
- Silvercrest Rajztábla
- ÁRGARANCIA!Épített KomPhone i5 10400F 16/32/64GB RAM RTX 3050 6GB GAMER PC termékbeszámítással
- Tablet felvásárlás! Samsung Galaxy Tab S10+, Samsung Galaxy Tab S10 Ultra, Samsung Galaxy Tab S10 FE
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő


Ha egymás mellé tetted a két kártyát, akkor független szemlélőként eszedbe nem jutott volna a Radeont választani, akkora volt a szakadék.

![;]](http://cdn.rios.hu/dl/s/v1.gif)

Ha meg munkára is vetted, akkor azóta is a legjobb kártyád van.




