Új hozzászólás Aktív témák
-
válasz
joysefke
#17202
üzenetére
1) igen
2) igen
3) igenhat trick

Amúgy sem a Vulkan, sem a DX12 teljesítmény nem ítélhető meg 1-2 játék alapján. Sok játék alapján sem csak az fog látszani, hogy kinek jobb a vonatkozó drivere, hanem az is, hogy melyik architektúrák voltak fontosak a fejlesztőknek. Akkor katyvasz lesz, mint állat, élő ember nem fogja megmondani, melyik kártya mennyire jó általában, és ha valamit mégis sikerül megállapítani, az könnyen rombadől a következő teszt szett felújításnál...
-
válasz
rocket
#17154
üzenetére
Most pont megnéztem az Overwatch és a Doom árakat. Boltban még mindig meg lehet ezeket venni 40 EUR körüli áron PC-re, viszont az sokkal érdekesebb, hogy míg a standard kiadások vannak készleten, a duplaárú collectors cuccok mind ki vannak fogyva. Ha ennyire magas árakra is van fizetőképes kereslet, akkor lehet türelmesen várni, hogy bármi lefelé mozduljon...
Lehet, hogy a GTX 1180-ból már nem Founders Edition lesz, hanem Collector's Edition, felfújható e-pénisszel és dedikált A2-es Jensen poszterrel
(troll off) -
válasz
Ghoula
#17124
üzenetére
A +25% ALU / TEX valós teljesítményben durván +14-15% átlagosan, és a 42% órajel-emelés (mindkét domainben), is "csak" kb. +40%, teljesen nem 1:1 a sebességnövekedés. Így jön ki a 60%.
fullHD-ben valószínűleg több helyen CPU-limitesem a mérések, azért nem jön ki a +67-68%.
(#17122) Laja333: azt nem nagyon tudod értelmesen kimérni, hogy a fogyasztás hogyan változik azonos órajel és azonos unitszám esetén, mert minden architektúrának van optimuma feszültség és órajel terén. Ha a Pascal-t visszadobod a Maxwell szintjére, lehet, hogy alig fog kevesebbet fogyasztani.
-
válasz
Laja333
#17112
üzenetére
Igazából azt pont lehet. +42% órajel és +25% ALU/TEX az átlagosan durván 60%-os előrelépést jelent. Ehhez képest van 67-68%, tehát csak az architektúrából 4-5% plusz jön. Nyilván az arch javulás másik aspektusa a magasabb órajel, mert az sem kizárólag a process-ből származik.
-
válasz
Kolbi_30
#17081
üzenetére
Ahogy schawo írta - addig jó, amíg én törlöm ezeket az értelmetlen fröcsögéseket, mert a modik rövid úton hosszabb pihenőre küldenek, ha így folytatod. Bármelyik gyártóról lehet értelmes véleményt írni, negatívat is, pozitívat is - viszont a reggeli hszednek az értelemhez még csak megközelítő köze sem volt. Próbáljunk kulturáltan fórumozni.
-
A jelenlegi trendek alapján viszont egyáltalán nem baj, hogy van benne bőven ALU kapacitás tartalék.
Valóban, mert amikor majd a retromúzeumban kiállítva nézegetjük, akkor látni fogjuk, hogy mennyivel jobb

Szerintem majdnem pont egy éve írtam, hogy mire ezek a különbséget számítani fognak, addigra megjön a csíkszélességváltás, és ezek a kártyák hirtelen átmennek dinoszaurusz-státuszba. Mit ad Isten, ez a mondás jött be, és nem a 25-30 AAA DX12-es játék...
-
-
... és már arról is volt szó, hogy a 980-ban nincs vapor chamber. Körbe-körbe

Értem amúgy, amit mondasz, csak nem fogadom el. Teljesen mindegy, hogy mi az ideológia a 100 dollárral magasabb ár mögött, én magasabb minőséget várnék érte. A 980-on jó kompromisszum volt a kisebb teljesítményű, de halk és a levegőt kifelé fújó ref modell azonos áron. Itt is jó kompromisszum lenne - de nem az, mert 100 dollárral többet kérnek érte. Ha ezek után tényleg 600 dollárért jönnek a szokásos hűtések minden gyártótól, akkor az a FE modell röhejesnek fog hatni.
-
Igen, összevetettem a 250W-os TDP-jű kártyával, amit nem adtak 100 dollárral drágábban, és tényleg hasonlít. Szóval akkor most... ?
Igen, mindegyik limit ki volt tolva az "Über" és az OC teszteknél is. Mivel az OC tesztek 200MHz-cel magasabb órajelen mentek, az "Über" teszteknek közük sem volt a power limithez, és minden bizonnyal hasonló órajelet mutattak volna 100%-os power limittel is. De ehhez kellene egy mérés, mert ez így csak educated guess.
-
Valószínűleg a prémium alkatrészek csak a látható részekre vonatkoztak
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#17002) Petykemano: jelenleg azt csiripelik a madarak még az nVidiánál is, hogy 05.27-től lesznek custom kártyák is. Persze kérdés a választék, és kérdés az ár is. A C) ettől még persze igaz.
(#17003) proci985: nem győzöm eleget írni - elsősorban nem a driver a gond a Keplernél, hanem az újabb játékok optimalizálása. Kevés sávszél + sok ROP... A 290X meg versenyezhet a "minden idők legidőtállóbb VGA-ja" címért

-
válasz
Petykemano
#16994
üzenetére
Because nVidia is greedy. And because they can.
Amúgy tényleg szomorú, hogy megtehetik, hogy a Tier2-es chipre épülő kártyát 700 dollárért árulják...
-
mert nem melegítik fel bent a levegőt.
Nem (annyira), de ettől még nem szobahőmérsékletű levegőt szívnak be, hanem jóval melegebbet. Nem ok nélkül esett le a CB tesztben több játékban a base clockra a sebesség.
Ha nagyobb teljesítményt és egy közepesen hangos kártyát akartak volna, akkor a default power limitet 225W-ra állítják és a 780 Ti ventiprofilját alkalmazzák, de nem tették.
Ne komolytalankodjunk már, az ilyen ideologizálással mindent meg lehet magyarázni
Ettől még a tény tény marad: rossz esetben 10% sebességet elbukik a kártya a béna ventiprofil miatt, anélkül, hogy bármi köze lenne a power limithez. Ha ez szerinted így rendben van, fine, szerintem viszont shitty engineering.OC-nál feltolták a power limitet?
A power limit ki volt tolva OC-nál is meg az "Über" teszteknél is.
-
Az eddigi kártyák mind 28nm-esek voltak, ez meg 16nm, tehát kisebb a hőleadő felület - ez kapásból elég nagy különbség. De az is lehet, hogy tényleg csak így állították be, akkor pedig balf***ok, mert így túl sok teljesítményt veszít zárt házban. Vagy ez egy újabb bench disznóság, mert azzal számolnak, hogy úgyis a tesztek úgyis open testbeden mennek, és úgy kevesebb órajelet ejt.
A hw.fr kártyája is 18xx MHz-et tud, pár másodpercig tudta is tartani. De egyébként elég azt a tesztet megnézni - ha az 1780MHz-en power limites a cucc, akkor hogyan megy OC-vel 1960-at?
-
Ja, ez szépen hangzik, csak éppen ennek a hűtésnek ez az első "fellépése" egy 180W körüli kártyán, és ehhez képest ugyanazt hozza, mint a 980, amiben nem volt vapor chamber. Lehet ezt forgatni bármerre, ez akkor is kiábrándító. Akkor is, ha tényleg azért van, mert az nVidia szarul konfigurálta (amire továbbra is kellene bizonyíték - a fordulatszámot elhiszem, a belőle fakadó hűtési teljesítményt az 1080-on látatlanban nem) - miért nem hangolták be normálisan?
Többszintes a temp limit, 80 fokon messze nem engedi a maximális boost bint. Tök jól látszott a hw.fr és a linkelt pcgh video összevetéséből - a kitolt limitekkel a hw.fr-nél 1780 körül volt a max. boost, a pcgh-nál a custom hűtővel sokkal alacsonyabb hőfokon 1880 körül.
Marketing szempontból nem lenne túl okos dolog az NV-től, ha az arcodba mondanák az őszintét az FE feláráról, de utalgattak rá.
Yep, de akkor azt is tessék elfogadni, ha valaki gúnyolódik rajta. -
Természetesen a hűtésteljesítménye. Vagy talán az rendben van, hogy egy open testbeden sem tudja tartani a Boost clockot?
Nyilván ezen lehet javítani a zaj növelésével, de erre nem láttam tesztet - a 100%-os fordulat mellett [H]-ék igencsak hangosnak találták. Amit leírsz a 70%-ra, az puszta feltételezés, sorry, de nem elfogadható mérés nélkül. Szóval egyelőre annyit tudunk, hogy ootb gyenge a hűtés.
(abban amúgy abszolút nem vagyok biztos, hogy folyamatosan max. közelben volt a fogyasztás - erre is nagyon szeretnék mérést látni)A +100 USD az nVidia szerint azért van, mert prémium alkatrészekből készült a kártya, beleértve a hűtőt is. De amúgy nyilván 80%-ban early adopter tax.
-
válasz
ezmiez36
#16952
üzenetére
Kitűnő. Sajnos ők sem mértek 100%-os power limit mellett, de az látszik, hogy így már OC nélkül is eléri a maximális boost bint.
Igazából erre az egész fogyasztásos mizériára kitűnő összefoglaló ez az oldal. Az oldal közepén ott van az összes mérés a) alapbeállítással b) kitolt power / temp targettel c) OC mellett. A b) méréssor átlagosan 2.7%-kal gyorsabb, mint az a), miközben 20-50W-tal többet fogyaszt a kártya. Ezért cserébe majdnem fix órajelet kapunk - sajnos egy mérési pont (100% power target, 92C temp target) pont nincs meg, de fogadni mernék, hogy az 1780MHz menne úgy is, esetleg a Witcher 3 csúszna kicsit lejjebb.
És akkor itt van a magyarázat a 200W-os 970-re is (meg amúgy a 330W-os 390X-re is) - a custom kártyák gyártói minden bizonnyal úgy gondolták, hogy a játékosok a pénzükért minden csepp teljesítményt ki akarnak facsarni a VGA-ból, tehát a power targeteket jól eleresztették. Eredmény: 10-15%-kal több FPS, 30-35%-kal több fogyasztás. Igen ám, de visszafogottabb power managementtel a fogyasztás csak 5-10%-kal nőne, miközben még mindig 5-10%-kal több lenne az FPS. No de akkor a konurencia, aki leszarja a fogyasztást, 5%-kal gyorsabb azonos áron. Szerintem ezért nem láttunk olyan kártyát az előző generációkban, aminek van egy korrekt OC-je, ugyanakkor nem száll el a fogyasztás a referencia TDP-hez képest. Meg lehet, hogy most sem fogunk.
-
válasz
Malibutomi
#16944
üzenetére
Ezt addig nem lehet kijelenteni, amig nincs lemerve ugyanez csak temp target kitolassal. Sztem csak annyirol van szo, hogy varatlanul szar a +100USDs hutes.
-
válasz
Malibutomi
#16941
üzenetére
Valami nagyon nem százas ezzel a referencia-hűtéssel. A hardware.fr kísérletezgetett vele, és ha kitolták a temp és a power limitet, akkor az átlagos 1703MHz-ből lett 1783, miközben a kártya OC nélküli maximuma elvileg 1886. Azt írják, hogy szinte kizárólagosan a hőmérséklet limitált. Ilyenkor 20-50W-tal evett többet a kártya játéktól függően.
OC mellett felment 1954-re az átlagos órajel, de ott már 2070 lett volna a maximum. Fogyasztást sajnos nem mértek mellé (vagy még nem rakták bele a cikkbe, folyamatosan bővülget).[H]-éknak ment 2GHz felett explicit feszültségemelés nélkül, 100%-os ventillátorral. Sajnos ott sem láttam fogyasztást.
Szerintem tök külön ki kell mérni, hogy mire képesek a kártyák csak megemelt hűtéssel, gyári power targettel. Vagy csak meg kell várni az AIB kártyákat...
-
válasz
Malibutomi
#16916
üzenetére
Így igaz, az AMD-nél pedig egyáltalán nem kell nézni a fogyasztást

-
válasz
oAcido
#16862
üzenetére
Én mondjuk azt nem támogatásnak nevezném, ha valakitől azt várják, hogy nokiásdobozért cserébe szapulja a konkurenciát. Meg arra is van néhány jó szó, aki ilyesmire hajlandó...
(#16863) kwzatz: Ár / teljesítményben az 1070 lesz az új mérce, amint megjelenik - a 600 dolláros 980Ti sebességét fogja hozni 60%-os áron. Ha az alacsonyabb kategóriába érkező AMD kártya nem produkál hasonló előrelépést, akkor olyan túl sok örülnivaló nem lesz.
-
-
Igen, 1.5 lépés volt, de az eddigi egyetlen jelentősebb órajel-ugráshoz (Kepler) komoly uarch átalakítás is társult. A duplázást nem tudom, honnan szedték egyes elemzések, szerintem teljesen elszállt. De ha jön a 2GHz-es Polaris, akkor revidiálok. Addig az 1.7GHz szép teljesítmény.
-
válasz
Malibutomi
#16800
üzenetére
Az látszik nagyjából most is. Gyakorlatilag így néz ki a dolog:
GM204 + 4 SM + gDDR5X + jobb DCC + egy csomó fizikai layer buzerálás a magas órajel érdekében + pár apróság = GP104.
A hardware.fr tesztjében az 1080 67.5%-kal gyorsabb a 980-nál, és az órajelekből meg a +4SM-ből eleve jön 60%. Tehát az architektúrás változások (beleértve a DCC-t) hoztak további 5%-ot. Magyarán a 16nm érdeme, hogy lehetővé tette a sokkal magasabb órajelet kézben tartott fogyasztás mellett. Az viszont valószínű, hogy ez nem egyszerűen adottság az új processzen - ilyen órajelnövekedést a 7800GTX -> 7900GTX váltás óta nem láttam. -
Nézz őszintén a saját szemedbe: Nálad akkor kezdődött a váltás, amikor a 4870 kijött 800 ALU-val. Azóta azt hallgatjuk, hogy ALUALUALUALU. És akkor jött 2011-ben a compute shader. És aztán jött 2014-ben a Maxwell uarch, ami letarolta a piacot azzal, hogy a pixelkapacitást tolta meg iszonyúan. Meg azzal, hogy a fejlesztőket megdotálták, hogy optimalizáljanak az alacsony sávszélre - szóval lehet, hogy erre tényleg nem keresik a megoldást, mert már megtalálták

A Hitman meg a tesztek alapján sokkal inkább tűnik ROP + sávszél-limitesnek, mint ALU-nak...Szóval ragozhatjuk ezt sokáig, de végső soron az elmélet és a gyakorlat nem éppen egyezik.
-
válasz
füles_
#16674
üzenetére
Konkrétan miben van igaza?
Összefoglalta, amit eddig is tudtunk / sejtettünk a pletykákból, összekavarta a TFlops számolást (ahogy a videocardz is, meg korábban az nVidia is), és elmondta, hogy nem számít nagyobb sebességnövekedésre, mint amit az nVidia reklámanyagában lát. Mily meglepő ![;]](//cdn.rios.hu/dl/s/v1.gif)
(#16689) Laja333: már előre látom, hogy itt fog menni a verbális recska 2-3%-okon. Ha a pletykált számol igazak, akkor az 1070 valahol a 980Ti - TitanX magasságában lesz átlagosan. Ettől még lesz olyan játék, ahol 10-15%-kal lassabb lesz, meg talán olyan is, ahol ennyivel gyorsabb.
-
válasz
#45185024
#16526
üzenetére
Mindent megelőzően - a forintos árak vizsgálgatása félrevisz, mert sokat változott az árfolyam az elmúlt években. Maradjunk az MSRP-knél - a gyenge forintról nem az AMD és az nVidia tehet (na jó, talán az nVidia igen - tőlük bármi kitelik
)És igen, az elmúlt 4 évben egy meglehetősen egészségtelen trend folyik a teljesítményskála tetején - a korábban is 600 dollár körüli Tier1a termék 2012-ben lement 550-re, majd 500-ra, csak éppen a Tier1 chip helyett Tier2 chip ment bele. Most meg szépen kúszik vissza az ára is 600-ra (a Founders
TaxEdition című marhaságot most tegyük félre, az (egyelőre) nem szerves része ennek a folyamatnak).A megelőző generációban a Tier1b (970 és a 390) egészen a helyén volt a 330 dolláros árral, sajnos most ez is feljebb megy egy 50-essel. Ezzel együtt az 1070 még mindig elfogadható vételnek tűnik, vennék is egyet, ha lenne miért. Meg még reménykedem egy kicsit, hogy a Polaris 10 hoz némi konkurenciát.
Akinek pedig a Tier1a kártya megér 60%-os felárat a 25%-os teljesítményért, az miért ne vegye meg? Szerintem ha a pénz a fontos, akkor a +25%-tól nem olyan nehéz eltekinteni, ha viszont teljesítény kell minden áron, akkor annak minden ára lesz. Így van ez minden más műszaki iparágban is, sőt, nem is csak a műszakiakban. Amíg a második vonal elfogadható áron elérhető, addig túl sok aggódásra nem látok okot.
-
válasz
Malibutomi
#16394
üzenetére
Szegény Kepler már megint mekkora tockost kapott

A többi kb. papírforma, az utóbbi fél évben a 290X-et a 970 és a 980 közé érdemes várni, nem a 970 mellé. -
Srácok, a downfall videot kéretik NEM linkelni. Tegnap valamelyik moderátor már kipucolta.
-
válasz
rocket
#16329
üzenetére
Mondjuk azért az nem mellékes faktor, hogy a felvetített grafikonok hihetők a műszaki adatok alapján
Továbbra is szűkös lesz a sávszél a kártyákon, a Hitmanban pl. jó eséllyel a 390X még az 1080-tól sem lesz nagyon messze, de ezek extrém esetek. Ahol jó volt a 980, ott jók lesznek ezek is. Meg gondolom tudnak aszinkron kompjútot is, és ez további 3 játékban hoz extra sebességet ![;]](//cdn.rios.hu/dl/s/v1.gif)
-
válasz
Malibutomi
#16288
üzenetére
Írtam a másik topikban is - kb. ugyanannyi lehet a tranyó a Polaris 10-ben. Szóval nem más kategória.
-
válasz
Firestormhun
#16190
üzenetére
A core-ok nem lesznek gyorsabbak, de a rendszer egy core-ra vetített átbocsátó képessége lehet jobb.
Az 1800 körüli core clock azért érdekes, mert akkor gyakorlatilag 40-50%-os sebességnövekedésről beszélünk órajelből (a memória is ennyivel gyorsabb), és ezen felül hozhat még a részegységek száma és az arch hatékonyságának javulása. Szerintem az FP64 core-ok ki lesznek hajítva, én 4 GPC-re tippelnék, vagy 8, vagy 10 SM-mel (2048 vagy 2560 ALU). Utóbbi esetben nagyon kemény lesz az előrelépés teljesítményben...
-
Nem a DX12, mint API hibás ebben, viszont a probléma a DX12 ökoszisztémán belül van. Azaz míg a "f**k DX12" mondás ebben a formában nem jogos, a "játsszon a f***om DX12 játékokkal" mondás már igen (ha az embernek nVidia kártyája van). A gyakorlati eredmény szempontjából meg ez a kettő majdnem mindegy

-
Sziasztok,
ez a színes téma nem idevaló, vagy a releváns nVidia kártya topikjában, vagy a ForceWare topikban folytassátok pls.
g
-
Örülök, ha Neked ilyen éles a szemed, az enyém ennyire eltérő textúraminőség mellett nem meri teljes bátorsággal látni, hogy mi fényesebb és mitől

Őszintén szólva, sosem voltam hurrá-optimista a DX12-vel kapcsolatban, de erre a mennyiségű szenvedésre én sem számítottam. Egyelőre a legalapvetőbb dolgokkal vannak gondok.
-
válasz
#45185024
#15837
üzenetére
Örülök, ha érdekes volt. Egy ilyen grafikon 28 mérés adatait jeleníti meg egy pillantással átfogható formában, nem lehet megúszni, hogy az ember elolvassa a használati útmutatót

Az angol nyelv azért van, mert külföldi ismerőseimnek is el szoktam küldeni a cikkeket. Na meg azért, mert anglomán vagyok
(#15840) tailor74: fogalmazzunk úgy, hogy azonos égtáj felé indultak, de azon belül eléggé más irányba. Ha igazak az AMD új CU-járól szóló pletyik, akkor azzal lehet hatalmasat nyerni és hatalmasat bukni is. Nagyon kíváncsi leszek.
-
Nem hagyott nyugodni a kérdés, hogy vajon miért megy mind az AMD, mind az nVidia olyan irányba az új architektúrákkal, hogy a funkcionális egységek száma alig növekszik (persze ha lehet hinni a pletykáknak). Összeraktam egy elemzést a Maxwell és a GCN viselkedéséről, ami talán magyarázatot ad erre - asszem sikerült egy-két csontvázat kipiszkálni a szekrényből

-
válasz
Malibutomi
#15799
üzenetére
Olyan nagy gebasz nem lehet, ha fullHD-ben very high-on a 960 60FPS körül megy, ráadásul alig van gap a minimum és az átlag között. Az eredményekből annyi látszik, hogy CF / SLI nuku, lényegesen jobban szereti a Radeont, ill. a Keplerek szerepléséből ítélve a sávszélességet sem veti meg.
-
válasz
Firestormhun
#15732
üzenetére
Nyilván van rá racionális magyarázat, de ez akkor is nagyon szarul mutat.
-
Nyilván nem fognak ezen változtatni, hiszen a teszteken a maxos kártyákkal méred össze a konkurenciát, miközben azt a chipminőséget nem kell garantálniuk az összes GPU-ra. Ki van ez nagyon találva, és eléggé inkorrekt is (lenne, ld. később), de láthatóan remekül működik. A sok custom kártya ráadásul teljesen követhetetlenné teszi a dolgot - sőt, az MSRP környékén szinte csak olyan kártyát kapsz, ami gyorsabb lesz, mint a tesztekben mért referencia, tehát végső soron a vásárló nem jár rosszul. Ez egészen addig tud működni, amíg a referenciához képest van jó sok tartalék a chipek nagy részében - gyanítom, hogy a Pascallal ez változni fog, de meglátjuk.
-
válasz
Firestormhun
#15582
üzenetére
Hmmm, speed demon megközelítés... Ha 1500MHz-en fog ketyegni a 600mm2-es GPU, akkor a kisebbek?
A többi spec nem mind annyira nem impresszív - az SM-eket átalakították ugyanarra a granularitásra, amit az AMD használ, és kicsit több lett a csuda core és a tex. A sávszélesség persze brutális lesz, meg a 8 kontrollerhez valószínűleg 128 ROP fog csatlakozni. Persze kérdés, hogy ugyanez a chip jön-e le desktopra, mert volt szó arról is, hogy kétfélét csinálnak. Abban is lenne logika - a szerverchiphez nem kell annyi ROP, a desktophoz meg nem kell annyi FP64-es core. Btw., az FP64-es core-ok nem foghatók be FP32 munkára?

-
válasz
Malibutomi
#15547
üzenetére
A táblázat az eladást mutatja. Azt, hogy pontosan miből mennyi van kint usereknél, nem tudja senki, de ha a Steamet vesszük alapul, akkor 69-31. Ez a 69-31 romlik a 81-19-es eladás mellett is és a 79-21-es eladás mellett is, csak a második esetben lassabban.
-
válasz
Kolbi_30
#15525
üzenetére
Igen, van ahol a 390 utoléri a 980-at, és van, ahol sokkal lassabb. Ebből következően amit leírtál, az nem tény (TÉNY), hanem hülyeség, ugyanis azt elmulasztottad beleírni, hogy a féltucat DX12-es játékról beszélsz, nem a sokszáz AAA játékról általában.
Szóval azzal nincs semmi gond, ha leírod, hogy DX12-re jobb vétel a 390. Csak akkor nem árt, ha beleírod, hogy DX12-re...(#15524) mcwolf79: ami itt felbukkan, azt jellemzően lelövöm. Ami máshol van, azzal nem tudok mit kezdeni.
-
válasz
Petykemano
#15477
üzenetére
Azért nagyon viccesek ezek az eszmefuttatások, mert jellemzően kiindulnak egy valós alapról (ie. hogy az nVidia GPU-k jobban kihasználják a részegységeiket, több az FPS / tranyó, stb.), aztán ráépítenek egypár erősen fals, de legalábbis ellenőrizhetetlen állítást - jelen esetben azt, hogy náluk ez már annyira jó, hogy nem is igazán lehet rajta javítani. Amiért nem lehet egyértelműen rásütni, hogy baromság, az pont az, amit az AMD-nél mérnek - ha ott 10-20%-ot javul a teljesítmény, akkor az eleve magasabb kihasználtsági szintről induló nVidia esetében mennyi a potenciál? És valóban mennyi értelme van foglalkozni vele?
Itt két alapvetően eltérő irány van:
a) Az nVidiás csávónak van igaza, a GPU-k optimálishoz közelítően használják ki a számítási erőforrásokat, és az AMD a saját (nem túl komoly) hatékonytalanságát fedi el az aszinkron compute-tal
b) Nagyon komoly a kihasználtsági deficit mindkét oldalon, de annyira nem egyszerű hozzáférni ezekhez a szunnyadó erőforrásokhoz, mint ahogy a kezdeti hurráoptimizmus sugalltaÉn majdnem biztos vagyok benne, hogy a b) a valóság, viszont az nVidia ki fog tartani az a) mellett, amíg az üzleti érdekük azt sugallja, vagy legalábbis nem lesz megcáfolhatatlan bizonyíték a b)-re.
Az aszinkron compute egyébként elvileg nem csak a buborékokat használja ki, hanem az adott ciklusban le nem foglalt ALU-kat is, vagy még inkább a le nem foglalt ALU-tömböket, sajnos a lehetséges granularitásról fogalmam sincs. Ez utóbbiban bőven van potenciál, viszont ütemezés szempontjából egy rémálom lehet - az sem kizárt, hogy ha elég jó a hardveres ütemező egy ilyen feladatra, akkor az arra fordított tranzisztorkeretből érdemesebb további ALU-kat építeni. Végső soron a VLIW5-nek hasonló volt a filozófiája.
-
Damien addig járt az nVidia nyakára, amíg többet nem mondtak az async compute-ról. Angolra fordítva egészen érthető.
-
válasz
Bratilla95
#15455
üzenetére
Te magad is leírtad - előbb volt a GCN, utána a DX12. Azaz nem lehetett a uarch az API-hoz tervezve, csak fordítva.
-
válasz
Bratilla95
#15451
üzenetére
Egyik most piacon lévő kártya sem lett DX12-re tervezve. Az egy másik kérdés, hogy a DX12 az egyik mai piacon lévő architektúrához lett tervezve

-
válasz
Malibutomi
#15385
üzenetére
Pedig ez nyilván nem így fog történni - ott van egy standard feature, amivel lehet kvázi ingyen teljesítményt nyerni, azzal élni fognak azok a stúdiók, akiknek a technikai tudásuk megvan hozzá. Persze vigyázni kell, hogy a Maxwell (Pascal?) ne térdeljen be, de az Oxide már most csinált egy jó megoldást erre, úgyhogy ezen nem lesz nehéz túllépni.
Az nVidia szempontjából meg azért ez egy állati nagy kockázat, mert nem lehetnek ott mindenhol. Nyilván élénken él az emlékeikben a Half-Life 2 és az FX-széria szerelmi története, és bármennyire is igyekeznek, arra nincs biztosíték, hogy valaki nem bukkan fel egy olyan játékkal, ami bedönti a kártyáikat. Szóval muszáj lesz nekik is ebben javulni. Egyedül az időhorizont kérdéses. -
válasz
Malibutomi
#15374
üzenetére
Ez a két évvel régebbi hogy jött ki?

Amúgy amikor követő pozícióban vagy, akkor az ugyanolyan jó = kevés. Ez minden piacon így megy. Ehhez kell igazítani az új szériát.
-
válasz
Televan74
#15366
üzenetére
Azt nem is kell, sőt, nem is érdemes vele próbálkozni, mert csak pénzkidobás - a vásárlók többsége nem ilyen. A többség le sem szarja a részletes műszaki tartalmat, csak az a default, hogy VGA -> nVidia (esetleg a VRAM méretét megnézi) és CPU -> Intel. Ezt pedig azzal lehet megváltoztatni, hogy valami jelentősen jobbat mutatsz. A 9000-es szériával 12 éve sikerült, a HD4000-essel is 8 éve - miért ne sikerülhetne most is? Csak rohadt sok munka van vele.
-
válasz
Televan74
#15356
üzenetére
Azért mert egyszer a Maxwell kártyákkal összejött nekik
Ó, ez óriási tévedés. A Maxwell már csak betetőzött egy régóta történő folyamatot. Az RV770-nel nagyon odab***ott az AMD, aztán a Cypress-szel még nagyobbat, és aztán egy év alatt ezt az előnyt sikerült is eljátszaniuk a Caymannal. Ezek után kijöttek korábban a 7970-nel, és sikeresen annyira félrepozícionálták, hogy az nVidia rá tudott építeni egy product stack shiftet, és azóta csak a pofonokat kapják.
Nagyon fontos, hogy a Polaris ne csak jó legyen, hanem ésszerűen is legyen elhelyezve mind a mostani VGA-khoz, mind a Pascalhoz képest. Egyelőre két jó lépés, hogy várhatóan korábban érkezik, és a perf / wattos ellenérvet talán ki tudják ütni. De még sok egyéb dolgot is jól kell csinálni a sikerhez.
-
válasz
namaste
#15315
üzenetére
Abból az ábrából még az sem derül ki, hogy ténylegesen crossbarról van szó, ennyi erővel akár switching hub is lehetne. ... ja nem, biztos crossbar, hiszen rá is van írva

Az nyilván jogos, hogy mindenfajta írásos nyom híján kételkedsz. Én azért vagyok hajlamos elhinni a felezős sztorit, mert látok benne logikát.
Amúgy az a gyanúm (de ez tényleg puszta spekuláció), hogy amikor kibukott a memória-sebesség anomália, akkor volt egy kis pánik nVidiáéknál, és mielőtt a hivatalos magyarázat elkészült, azelőtt próbálkoztak olyan verziókkal, amiben nem kellett beismerni, hogy hazudtak a ROP-ok mennyiségével kapcsolatban. Aztán amikor vettek egy nagy levegőt, és megírták, hogy "tévedés" történt, akkor minden egyéb verziót kivontak a forgalomból. -
válasz
namaste
#15310
üzenetére
Beszélünk valamiról, de nem tudjuk honnan indultunk és azt sem tudjuk igaz-e.
Ez egy nagyon hangzatos semmitmondás
Azt tudjuk, hogy honnan indultunk, ezek az információk a 970-gate kapcsán keringtek, de nagyon gyorsan helyettesítésre kerültek ezzel. Azt valóban nem tudjuk, hogy igaz-e a felvetés, meg azt sem, hogy a helyettesítő hivatalos verzió igaz-e. De miután most írom le harmadszor, hogy nem látom sok jelentőségét, hogy igaz-e, kissé feleslegesnek érzem ezen lovagolni.Keresztirányról és egyenes irányról én nem beszéltem. Nekem az van az emlékeimben, hogy mindegyik GPC-hez van kijelölve egy preferred memory controller, amihez 128-bites kapcsolat van, a többihez meg 64-bites. Ez a GM204-ben 1 "széles" és 3 "keskeny" kapcsolatról szólt, míg a többi GPU-ról nem volt szó - a GM107 és GM206 két MC-vel bír, ezért ott sok variációs lehetőség nincs, míg a GM200-ban a 6 MC miatt lehet 1-5 és 2-4 is a felállás. Persze, csak ha az egész igaz...
-
Ha nem csal a memóriám, akkor a preferrált backend blokkhoz az SMM clusternek 128-bites busza van, a többihez 64-bites, míg maga a memóriavezérlő szintén 64-bites. Gondolom, a 128-bitnek akkor van értelme, ha a cache-ből jön az adat, hosszan tartó folyamatos olvasás esetén nem kéne szűk keresztmetszetet jelentenie a 64-bites CB-linknek.
Nem tudom, pontosan hogy fest az interleaving-stratégia az egyes adattípusok esetén, de azt nagyobb adattömegek esetén nehezen tudom elképzelni, hogy az egyik backendben van az egész adat, nem pedig szétosztva. Innentől kezdve a duplikálás lehetősége / értelme is kérdőjeles. -
Pár részlet arról, hogyan csinálja az AoTS az aszinkron compute-ot úgy, hogy a multi-engine-es kártyákon gyorsuljon, a nem multi-engine-eseken meg legalább ne nagyon lassuljon. Némi kompromisszummal jár, de ötletes.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Sapphire PULSE AMD Radeon RX 7900 GRE 16GB - Csere is
- MSI RTX 3070 8GB GDDR6 SUPRIM X - Dobozos, Újszerű - Eladó!
- 27% - GIGABYTE RTX 3080 Ti OC 12GB GDDR6X GAMING Videokártya! BeszámítOK
- EVGA FTW3 ULTRA RTX 3080 Ti 12GB GDDR6X Videokártya!
- ASUS GeForce GTX 660 DirectCU II OC 2GB GDDR5 192bit Videokártya
- DELL PowerEdge R630 rack szerver - 2xE5-2650v3 (20 mag / 40 szál, 2.3/3.0GHz), 32GB RAM, 55992Ft+ÁFA
- BESZÁMÍTÁS! Gigabyte B450 Aorus Elite R5 5600X 32GB DDR4 512GB SSD RX 6700XT 12GB ZALMAN S2 TG 750W
- Apple iPhone XR / 128GB / Kártyafüggetlen / 12Hó Garancia / 95% Akku
- Huawei Quidway S5324TP-SI-AC - 24G, 4SFP, L2, managed switch
- Keresek Xbox Series S / Series X / Playstation 5 konzolokat
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: Laptopműhely Bt.
Város: Budapest

(troll off)

Ettől még a tény tény marad: rossz esetben 10% sebességet elbukik a kártya a béna ventiprofil miatt, anélkül, hogy bármi köze lenne a power limithez. Ha ez szerinted így rendben van, fine, szerintem viszont shitty engineering.


Összefoglalta, amit eddig is tudtunk / sejtettünk a pletykákból, összekavarta a TFlops számolást (ahogy a videocardz is, meg korábban az nVidia is), és elmondta, hogy nem számít nagyobb sebességnövekedésre, mint amit az nVidia reklámanyagában lát. Mily meglepő




