Új hozzászólás Aktív témák
-
Petykemano
veterán
válasz
#00137984
#21921
üzenetére
Cask azt hisszük, mikor teszteket nézegetünk, hogy hardvereket veszünk hardverek teljesítménye és mellékeeen kapcsolódó támogatás alapján.
Te azt gondolod, hogy a terep, ahol versenyezni kell és amelyeken való szereplésről a tesztekben tanúbizonyságot kell tenni, a független, önálló. A versenypálya csak úgy magától van, a játékok csak úgy maguktól dx11-et, vagy 12-t használnak ésatöbbi, ami jellemzi egy játékot hogy hogy fut egy hardveren.
Nem. Amikor tesztet olvasol és azt gondolod, hogy azt hasonlítgatod össze, hogy különböző játékokban egyik és másik gyártó hardvere hogy teljesít, valójában tévedsz. A hardvergyártó a tesztben mutatott teljesítményének összetevői nem állnak meg a drivernél, hanem valójában ott vannak benne a játékokban is.
Amikor azt látod, hogy az amd a doomban mennyit gyorsult, az nem az, hogy fejlesztette a hardvert, és nem is az, hogy javított a driveren. Az az, hogy sikerült egy tesztpályát úgy építtetni, hogy az az amd hardverének jobban fekszik. Ez pont nem az, hogy na végre sikerült egy hibáktól mentes hardvert összerakni, vagy hogx végre ráfeküdtek a driverre.
Ezzel együtt persze az alapján választást, amit a tesztben látsz. De abban ma legalábbis legalább ugyanolyan mértékben benne van a kh ökoszisztémára való ráhatás, mint a hardver és a driver. Lehet, higy jobban
-
Petykemano
veterán
válasz
vader108
#21908
üzenetére
Azt kell látni ebben, hogy ma nagyon erős a hardveren kívüli küzdelem is. A hardver nem minden. Nem az van, mint régen, hogy kiadja egyik meg másik gyártó is a hardverét és győzzön a jobbik.
Ha megnézed a doomot, akkor az látszik, hogy az amdnek nagyonis versenyképes hardver felhozatala van jelenleg is. És itt most ez nem egy ha, hanem a küzdelem lényege szoftveres: nagyobbat tud nyerni, ha a fejekért és a részesedésért küzd, mintha kiadna egy túlméretezett, túlokosított erősebb, de túlfogyasztó hardvert, amit aztán mindenki lehúz és megveszi inkább a konkurenciát.A jelenleg zajló harc ahhoz hasonlít, mint ha egyik gyártónak lenne egy forma 1-es kocsija, a másiknak meg egy túra autója. Teljesen nyilvánvaló, hogy azon küzdeni, hogy kiadjak egy erősebb, gyorsabb kocsit értelmetlen a terep ismerete nélkül. A küzdelem azon zajlik a két gyártó között, hogy a pályákon, amiken versenyeznek mennyi.aszfalt, és mennyi földút van, mennyi kanyar, mennyi egyenes, essen -e az eső, vagy süssön a nap.
-
Petykemano
veterán
válasz
#35434496
#21879
üzenetére
A slide csak megemlíti, aztán a kommentben elmondják ugyanazt, amit eddig tudtunk: hogy a kisebbik vega idén októberben jelenik meg.
Sokminden változott az AMD-nél. A tiereket utoljára Az R7 300 és R9 300 bevezetésénél használták. Ez alapján a 390(X) és a 380(X) jelentette a performance szegmenst. A fury nyilvánvalóan az enthusiast volt. Az R7 370 és az R7 360 a mainstream.
Jelenleg a polarist hívják mainstreamnek: RX 460 => RX 480
Ha nem dobták végleg ezeket a tier elnevezéseket, akkor efölé jön a performance és enthusiast tier is.
Ebből kiindulva a slide nem mond ellent a korábbi információknak, nevezetesen hogy az enthusiast Vega 2017H1. Csak kell legyen egy performance tier is.Ez is egy érdekes slide Itt már említik a fury-t, érdekes módon egy szinten a P10-zel.
Ahogy itt már kifejtettem, annyira nem állnak messze, hogy lehozzanak egy 1080 teljesítményű performance tier kártyát
-
Petykemano
veterán
válasz
lezso6
#21828
üzenetére
Nem mondom, hogy nem függ programtól és apitól, de az újabb játékokban elég gyakran látni, hogy a sokat szidott fury x az 1070 nyakán van. Jó, persze, tudom, ezek csak laboreredmények, de úgy tűnik, csak idő kérdése, hogy ez általánossá váljon.
Azért számoljunk kicsit.
A polerisz computexes bemutatóján láttunk egy videót, amelyben két rx 480 ~80%-os cf skálázódással érte el az 1080 teljesítményét.
A Fury X-ben 4k shader van, ennyi lesz a kis vegában is. Valószínűleg a kis vega egy ugyanolyan befejezett fiji, emilyen befejezett tonga volt a polaris 10.
Tehát a Fury x használható teljesítmény baseline-ként.A polarist lemérték, emlékeim szerint 5-8%-os gyorsulás azonos paraméterek között a tongához képest. Mivel a vega gfx9, számoljunk számoljunk 12%-kal.
A Fury x frekvencia 1050-ről a polarisból ismert 1266-ra emelésével +20% nyerhető.
Ha helytakarékosak akarnak lenni, akkor csak két hbm vezérlő kerül a lapkára (-2 vs fiji) és 1000mhz-es hbm egységekkel hoznák a polaris sávszélességének dupláját
a poláris egész jól skálázódik a memóriasávszélességgel. Ha itt nem számolunk a dcc fejlődésével, ez 100%-os sávszél emelkedés 77%-os shader szám emelkedésre, ami közel 12%-os sávszél emelkedést jelent egy cu -ra nézve, aminek a polaris példája alapján a fele tényleg realizálható: 6%Tehát alsó hangon 1.12*1.2*1.06=1.42-szeres teljesítményt lehet várni a Fury.x hez képest. Ez azért már ott van az 1080 mellett, nem?
Méret
77%-kal több shader
100%-kal több rop (64)
Kevesebb memóriavezérlő
Számoljunk 80%-kal: 232*1.8=419
Ha a tonga-polaris aránnyal számolunk: 232/359 * 596 = 385
És akkor nagyon topán nem számoltunk semmilyen fejlődéssel.Fogyasztás
Tudjuk azt is, hogy az rx480 asic tdp-je 110w, és általában túl van feszelve. A papíron szereplő 150w-os tdp-ből
Számoljunk itt is az 1.8-as szorzóval: 110*1.8=198 + 10w hbm * 0.85%-os vrm hatásfok = 244w
És akkor nagyon topán nem számoltunk semmilyen energiahatékonyságbeli fejlődéssel, csak azokkal a túlfeszelt értékekkelc amiket a polarisnál láttunk. -
Petykemano
veterán
Tehát tulajdonképpen a cél nem az, hogy lehetőséget nyissanak a fejlesztőknek, hogy az amd hardverét jobban megismerve jobb, gyorsabb kódot írjanak. Hanem az, hogy gyorsabban és jobban tudjanak dolgozni pc-re, de legalábbis amd hardverre mindenképp, amely mód az amd hardvernek feltehetőleg jobban vagy inkább kedvez. (Mint a gameworks esetén is, ugye)
-
Petykemano
veterán
Ez szép eredmény, vagyis hogy hardveres fejlesztés nélkül, a tavalyi kártyákat szoftveresen felfejlesztik arra a szintre, amihez a konkurenciának a hardveren is dolgoznia kell.
Csak ebből hogy lesz eladás, bevétel? Szép eredmény, csak nincs meg az a fajta átütő ereje, mint egy 1080-nak amit launchkor elképédve az eredményeken egyből mindenki meg akar venni -
Petykemano
veterán
Ezt nagyon nehéz objektívan megítélni.
Tényszerűleg ki lehet mondani, hogy az AMD kártyák jobban idővel érnek, és nem csak öregednek. Azonos éra egykori vetélytársak közül - legalábbis a mai játékokban - jobban muzsikál az AMD. Hogy ez jó-e vagy se, elég-e vagy leszakadt fitymafék, na ezt nehéz objektívan megítélni.
Én azt szoktam mondani bárkinek, aki kérdezi a véleményemet, hogy akinek van kedve, affinitása a gpu cserélgetésére, hogy egy adott árszínvonal legjobb kártyáját tudhassa magának és azon árszínvonal grafikai képességeit realizálhassa is, akkor az vegyen nvidiát. Vegye meg, fizessen érte kicsivel többet, mert kicsivel jobb is. Aztán adja el és vegye meg a következőt, ami szintén picivel jobb, ezért picivel drágább.
Aki viszont 2-3 évre szeretne kártyát venni, természetesen elfogadva azt a kompromisszumot a tervezett amortizációjával, hogy a végefelé már nem lesz olyan penge és vissza kellhet venni a beállításokból, annak viszont azt szoktam javasolni, hogy vegyen inkább AMD-t, mert lehet, hogy most nem a legjobb, de annyival olcsóbb is és a tervezett amortizáció végén garantáltan jobb lesz, mintha nvidia kártyát vett és tartott volna meg.
Nyilván aki úgy áll hozzá, hogy én MOST akarom a LEGJOBBAT, annak ez sovány vígasz, sőt, teljesen hidegen hagyja, hogy 2-3 éves kártyák még léteznek.
De aki már használtan vette, vagy úgy, hogy bakker most ráfizetem a gatyámat, de legalább sokáig jó lesz, az nagyon örül ennek a helyzetnek.Ennek persze valóban csak a csúcskártyáknál van értelme. Egy 2-3 éves közép vagy alsókategóriás kártya esetén már nem biztos, hogy lehet lejjebb menni a kompromisszumokban. Ha egy játék már csak 10 fps-sel tötymörög, akkor valóban mindegy, hogy 10 helyett 12fps-sel tötymörög. (Épp ezért én az AMD helyében úgy csinálnám, hogy a csodamajdeljönaszépújvilág fícsöröket mindig csak a legnagyobb legerősebb variánsba pakolnám. Az alsóbb tierekbe pedig rebrand helyett kipakolt verziókat adnék el, ami viszont így keveset fogyaszt, kicsi és olcsó gyártani.)
-
Petykemano
veterán
-
Petykemano
veterán
válasz
stratova
#21299
üzenetére
Ott a gond, hogy egyáltalán nem kéne az AMD videokártyákat úgy beállítani, mintha scak AMD procit lehetne mellétenni, vagy hogy úgy nézne ki a választási lehetőség, hogy AMD GPU + CPU vagy intel CPU + Nvidia GPU. Ez a táblázat pedig ezt sugallja, ezeket prekoncepciókat erősíti.
És még az is lehet, hogy ezzel az AMD-nek akartak nyalizni, csak közben lehet, hogy ártanak.
-
Petykemano
veterán
válasz
cyberkind
#21066
üzenetére
A látogatásoddal szavazol. Amíg Abu (és/vagy mások) megosztó, de karakán, ám talán nem példanélküli értékválasztása tömegeket vonz az oldalra, addig nem fogják lecserélni, elhallgattatni. (Fogd fel úgy, mint a politikai elemzőket. Nincs olyan, hogy objektív, mert minden politikai elemző érez valahogy, vall valamilyen értéket. Olyan viszont van, hogy független, ami azt jelenti, hogy amiket mond, meggyőződésből mondja, nem megbízásból, pénzért.)
Ha abut elküldenék, mert "meggyőződésében részrehajló", egyrészt biztos nem lenne egyszerű egy hasonló tudású, beágyazottságú, de objektívebb figurával pótolni, másrészt könnyű abba a csapdába esni, hogy néhány hangosan méltatlankodó nvidia tulaj kedvvéért a megjelentetett cikkek értéktartalma átveszi az nvidia üzleti sikereinek méltatását, amivel , valljuk be, tucatoldallá süllyedne.
Könnyen elképzelhető, hogy az analitika azt mutatja, az amd-s híreket olvassák legtöbben (egy hasonló adat publikusan megfigyelhető a kommentszámok.formájában) persze könnyen lehet, hogy azért, mert abu a szívéhez nem közeli témákat nem oly mértékű lelkesedéssel írja. Én azt próbálnám ki az üzemeltető helyében, hogy felvennék egy olyan embert, aki nem elfogult az Amd innovatív megközelítései felé és vele is iratnék cikkeket. Esetleg minden nagyobb cikk végén a másik szerzőtől 1 oldal kontra véleményt.
-
Petykemano
veterán
válasz
cyberkind
#21005
üzenetére
De felmerül: épp ezért írtam, hogy - persze ne vedd személyeskedésnek - majd 1180Ti tulajként fogsz örülni annak, hogy a kártyádat nem limitálja a CPU-k egyszálú teljesítményének fejlődésképtelensége, hanem hogy milyen gyönyörűen fut a 8 magos CPU-n és tényleg jobban kiajcsa, mint a korábbi 4 magos 6700K. (Nem tudom mid van, de most ez az elérhető legjobb)
És azt is lehelyeseltem, hogy az Nvidia valóban ügyesebb az ütemváltásokban és ezt pénzzé is tudja tenni. És míg az AMD a jövőre építve a jelenben kompromisszumos termékeket ad ki ezzel némileg savanyú szájízt hagyva vásárlóiban, az nvidia ügyesebb a felhasználóinak igényeinek kielégítésében is. Ennek árát persze keményen megfizetteti elégedett vásárlóival, aminek eredménye az üzleti jelentésekben látható.Azzal, hogy az AMD egy hosszútávú stratégia (API környezet megváltoztatása) végrehajtásának érdekében áldozatot kellett hozzon: be kellett építenie az új API környezetet a kártyáiba már jóval a konkourencia előtt. Szóval ezzel csak akkor nincs baj, ha ennek eredményét le tudná aratni: ha lépéseőnybe tudna kerülni, kisebb chip, nagyobb játéktér az árakkal, nagyobb teljesítmény, itt megállni és fejni a tehenet.. Vagy ha a hátrány behoizatalának ledolgozása érdekében erőn felüli költekezésre tudná kényszeríteni versenytársait. De egyelőre ilyesmi nem látszik.
Úgy tűnik, hogy bár az AMD sikerrel hajtotta végre az API váltás kikényszerítését, de nem sikerült szoftveres dominanciát elérnie. És hát valljuk be, azért az, hogy egy hardver mit tud leadni, hogy "mi a jó hardver" az ugyanúgy függ a szoftveres környezettől, mint hogy a mérnökök hogy tervezik meg a chipet.
-
Petykemano
veterán
válasz
Oliverda
#21002
üzenetére
Ez teljesen igaz.
Én csak azt mondtam, hogy egy 980Ti tulajt teljesen felesleges győzködni arról, hogy a DX12 miért jó most, vagy miért lesz jó majd később. Most finnyázik, hogy semmi értelme, hol a grafikai előrelépés, stb
Amikor majd az illető 1180Ti tulaj lesz és 10%-kal gyorsabban pörög a kártyája, mint a Fury XXX, (és persze 1.5x gyorsabb, mint a DX11-ben) akkor majd elégedetten hátradől, hogy milyen király dolog ez az async compute, meg hogy milyen szuper dolog, hogy már számít, ha a CPU-d 6-8-10 magos a kommersz 4 helyett. -
Petykemano
veterán
Nyugi, abu, maid ha lesz az nvidiának olyan hardvere, amelyik dx12/vulkan alatt (is) gyorsabb, mint az amdé, akkor majd ezek lesznek a világ legjobb apijai és az amd lesz a hülye, aki ment előre,.mint a felajzott bika, az nvidia meg a megfontolt óvatos duhaj, aki precízen hajtotta végre az apiváltást.
-
Petykemano
veterán
Érdekes.
Az nvidia miért bánik szűkmarkúan azzal, amiből jobb, a sávszéllel? Az amd pedig miért nem tesz a kártyákra egy kicsivel több ropot? Azt értem, hogy úgy nagyobb lenne, de annak mi értelme van, hogy telepakolják fiktív számítási kapacitással, és sávszélességgel, amikor azt végül ki se tudja használni? Ha lenne rajta +20% rop, akkor lehetne 10%-kal alacsonyabb az órajel és máris megúszták volna a blamázst a fogyasztással.
Vagy csupán arról van szó, hogy két éve hoztak egy döntést erről, arra számítva, hogy majd eddigre a szoftveres részleg valóra váltja azokat a feltételeket, amiket Ábu is említett, hogy majd minden nagyon compute meg sávszél igényes lesz, csak ez mostanra mégse sikerült? -
Petykemano
veterán
válasz
Laja333
#20516
üzenetére
Én ezt nem teljesen értem.
A polaris persze nem sikerült rosszul, de kiemelkedően jól se. Sokat adnak el belőle, az igaz, de másik oldalról meg azt hallani, azért nem többet, mint a gp104-ből. Annyi, hogy talán a polarisban van még potenciál (rev2)A vegáról men csak pletykák se nagyon vannak, csak hogy valamit ünnepeltek. A zenről sincsenek konrét infók még. Van valami prifesszionális téren, ami ígéretes? Én egyelőre nem látom, hogy az Amd valóban és tartós sikereket ért volna el a puszta életben maradáson túl. Mire föl a bizakodó árfolyamemelkedés? Spekuláció? -
Petykemano
veterán
válasz
Malibutomi
#20374
üzenetére
Na most bánja, hogy sikertermék lett.
Egyébként mindenkinek kell fizetnie, vagy csak annak, aki a perben részt vett és/vagy kéri?Nem hiszem, h párezer embernél többen jelentkeznének. Valószínűleg a többség elégedett volt. Majd most, hogy már a pawcal van fókuszban, most kezdődnének az elégedetlenségek.
-
Petykemano
veterán
válasz
FollowTheORI
#20034
üzenetére
Szerintem ezeknek a jellegzetességeknek a háttéerében a VR áll. Sokan azt gondolják, h az aszinkron compute célja a rossz ütemezés, rossz hardverkihasználtság, kiegyensúlyozatlanság miatti számítási buborékok munkára fogásánal halva született ötlete, egy tartós hiba, bénaság elmaszkolásának kétségbeesett kísérlete.
Pedig szerintem a kiegyensúlyozatlanság, a buborékok kvázi szándékosak, a VR irányába. El tudom képzelni, hogy ha a cél a frametime leszorítása, akkor ennek egyik leghatékonyabb módja, ha a egy kép előállítása érdekében a különböző végrehajtóegységeket terhelő feladatokat a lehető leginkább képes legyek rajtuk párhutamosan végrehajtani.A buborék persze lehet melléktermék. Ha én az arcitektúrámat a párhuzamos végrehajtásra gyúrom ki, lehet, hogy nem leszek olyan jó hogyismondjam egyszálú "outoforder" végrehajtásban. De lehet szándékos is, annak érdekében, hogy ha már beállok emögé a koncepció mögé, akkor tudjam is előnyét/hasznát felmutatni, ha valaki felveszi a fonalat.
Én is jobban örülnék, ha generációnként csak egy ilyen tegyünk bele minden kísérleti nyulat arcitektúra lenne, a többi a korábbiak butított, kiherélt verziói.
-
Petykemano
veterán
válasz
Malibutomi
#20025
üzenetére
Sajnos az, ha egy architektúra alacsonyabb órajellel hoz egy teljesítményszintet, az csak akkor jelent előnyt, ha közben kevesebbet is fogyaszt. Nem?
-
Petykemano
veterán
válasz
FollowTheORI
#19948
üzenetére
Pedig az utasításkészletek támogatottságának különbözőségéből fakadó tesztekben realizált előny gyakori.
Majd kövesd figyelemmel, hogy milyen előszeretettel fognak mérni 256bites műveleteket a reviewerek a zen megjelenésekor. Mert hát ha azzal hatékonyabban lehet végrehajtani egy feladatot, akkor az a jövőbemutató, ha azt teszteljük, nem a 2-3 éves programokat, hiszen nem tegnapra veszel procit, hanem 2-3-4-5 évre. Azok a reviewerek, akik amikor az nvidia kártyáiról van szó, akkor azt mondják, hogy ne majd, meg később, a szoftveres háttér kialakulásával legyen jó, hanem ma, most, a 2-3 éves kedvenc játékainkkal.
-
Petykemano
veterán
válasz
FollowTheORI
#19919
üzenetére
Abu ezt írta:
"Mert két futószalag fut párhuzamosan. Azt senki sem írja elő a szabványban, hogy csak grafikai és compute futószalag dolgozhat párhuzamosan. Annak az oka, hogy ilyen konstrukciót alkalmaznak a játékok csupán az, hogy itt lehet messze a legtöbbet nyerni ezzel a technikával, mert bizonyos jellegű, sokszor alkalmazott grafikai futószalagok mellett a shaderek csak malmoznak."
Ebből arra következtettem, hogy két vagy több compute futószalag futhat a tesztben, de semmiképpen nem arról van szó, hogy egy shadereket nem használó futószalag mellett futna egy async compute futószalag. Abu állítása szerint utóbbival lehetne a legtöbbet nyerni, de a teszt ilyet nem mér.
(#19920) Ren Hoek
Miért baj, ha van egy olyan kód, amivel az ennek a kódnak a futtatására kevésbé alkalmas NV kártyák lassulnak? Nem vagyok gpu benchmark imádó, de még régebbről úgy emlékszem voltak olyan tesztek, amik a pixel fillrate-et mérték, mások a meg a textúrázást, stb, ezeket még széljegyzetben ma is feltüntetik. Most ez pont olyan, hogy ne futtassunk olyan kódot a tesztben, ami nagyon tesszeláció-igényes, mert amiatt lassulnak a Radeon kártyák. Vagy de. Csak nevezzük a tesztet annak ami: tesszeláció-teszt.Ami a gyártóspecifikus kódot illeti, egyetértek azzal, hogy DX12 pont erről szólna, hogy ha egy kicsit búvárkodunk az architektúrában, akkor többre is képes. A gyártók most is validálják a kódot, tehát át tudják nézni, hogy nincs-e csalás, vagy könnyített terep. Adott egy rajzolási feladat és lássuk, hogy melyik gpu a maga módján hogy tudja a leghatényabban megjeleníteni. Elnézést, nem az lenne a benchmarkolásnak a lényege, hogy megnézzük, meglássuk, mit tud a hardver? Én csak azt mondom, az async compute ilyen szempontból síkos talaj, mert nem minden gyártó támogatja ugyanúgy. Lehetne egy teszt, ami megmutatja, hogy ebből ezt lehetne kihozni.
(#19923) NetTom
Az egységsugarú összehasonlíthatóságot elvesztenéd. Nem azt mondaná meg egy eltérő kódutakat alkalmazó teszt, hogy egy egységes kódot melyik hardver mennyire gyorsan/hatékonyan hajt végre, hanem azt, hogy egy egységes outputot (képi megjelenítés) melyik hardver a magának megfelelő alkalmazási móddal mennyire gyorsan tudja végrehajtani. Vagyis azt, hogy mit tud a hardver.De egyébként nekem nincs bajom azzal, hogy egységes kódot szeretnének futtatni, mert őket nem érdekli, hogy mit lehet kihozni a hardverből, csak az, hogy egy egységes kódot melyik hardver hogy futtat. Rendben. Csak akkor ezt a tesztet, ami a compute futószalagok konkurrens futtatásával nyerhető többletteljesítményt különböztessék meg attól, amikor heterogén futószalagok párhuzamos futtatásával nyerhető többletteljesítmény a malmozó részegységek munkára fogásával, amivel a gyakorlat szerint a legtöbb teljesítmény nyerhető és amit a gyakorlatban a fejlesztők is csinálnak és amit a legtöbb a téma iránt érdeklődő felhasználó is ért az "aszinkron compute" elnevezés alatt.
Szerintem. -
Petykemano
veterán
Továbbra is azt magyarázod, hogy a teszt formailag helyes, a szabványoknak megfelel, nem csal, stb. Csak épp nem mér semmit.
Az nyilvánvaló, hogy futhat egymás mellett akármennyi compute futószalag. De szerintem ebből nem lett volna se teszt, se technológia, de technika, se hype. Az egy teljesen természetes dolog, hogy feladatokat lehet párhuzamosan futtatni a végrehajtó egységen.
Ahogy te is mondod ezzel a technikávak akkor lehet legtöbbet nyerni, ha heterogén futószalagok tudnak párhuzamosan futni a megfelelő végrehajtó egységen. És ezt meg a teszt nem méri. Pont azt, amivel a legnagyobbat lehet nyerni. Azzal, hogy akkor futtatunk compute feladatokat, amikor egyébként máskülönben malmoznának. Annak nincs semmi értelme, hogy azt mérjük, hogy vajon mennyivel tud többet az architektúra, ha compute feladatokat futtatunk, amikor a shaderek amúgy is dolgoznak. Ez így azt méri, milyen gyengesége van az ütemezőnek ( nem tud feladatot osztani a kihasználatlan végrehajtóra), vagy hogy mennyire drága a context switch több (compute) futószalag futtatása közben.
Ezt bármennyire is megfelel a definíciónak félrevezető "async compute" tesztnek hívni. Akkor lenne nem félrevezető, ha csinálnának egy olyan tesztet is emellé, amelyik grafikus futószalag mellett futtat aszinkron compute -t. -
Petykemano
veterán
"A 3DMark leginkább compute-ot lapol át compute-tal."
Nem gondolod, hogy félrevezető a teszt elnevezése? Async Compute alatt a köznyelvben - szerintem - mindenki azt érti, hogy compute feladokat lehet-e előindítva más jellegű, más részegységeket terhelő feladatokkal párhuzamosan végrehajtatni.
Ezt miért hívják "asynchronus compute" tesztnek? Miért nem parallel vagy concurrent compute teszt? És akkor mindjárt értené mindenki, hogy mivel a játékokban a fejlesztők úgy sem így használják a furcsán ismeretlenül hangzó elnevezéséhez híven nem mér/mutat semmi érdemlegeset, amiből bármninemű érdemi következtetést lehetne leszűrni.
-
Petykemano
veterán
Azt gondolom, nem hazudnak, amikor azt állítják, hogy a teszt nem részrehajló egyik gyártó irányában sem.
Csak az elnevezése félrevezető. Nem async Compute tesztnek kéne hívni, hanem parallel compute tesztnek. -
Petykemano
veterán
válasz
gainwardgs
#19671
üzenetére
Ez egyelőre nem tűnik amd favor eredménynek.
-
-
Petykemano
veterán
válasz
huskydog17
#19224
üzenetére
Ez mondjuk megmagyarázza azt a magabiztossságot, miért nem csökkentett az Amd fx árat, amikor megjelentek a pascalok és tönkrevertek mindent.
Ha nem akkor, hanem tekintélyesebb raktárkészlet felhalmozását követően mostanság jelenne meg, nem csillogott volna olyan szépen. Való igaz, hogy az idő ( dx 12 és vulkan terjédés) az nvidia ellensége.
-
Petykemano
veterán
válasz
wjbhbdux
#19106
üzenetére
. 1. Testing conducted by AMD Performance Labs as of July 6th, 2016 on the AMD Radeon™ RX 480, on a test system comprising Intel i7 5960X CPU, 16GB DDR4-2666 Mhz system memory, Radeon Software Crimson Edition driver 16.7.1 and Windows 10 x64 using the game DOOM on the ultra preset. PC manufacturers may vary configurations, yielding different results. At 1920×1080, Radeon Software Crimson Edition 16.7.1 running DOOM OpenGL scored 106.40 and Radeon Software Crimson Edition 16.7.1 running DOOM Vulkan scored 135.65 on AMD Radeon™ RX 480, which is 27.5% faster performance. Performance may vary based on use of latest drivers. Test results are not average and may vary. RS-43
A score az fps?
-
Petykemano
veterán
válasz
daveoff
#19087
üzenetére
Félő, hogy nem annyi lesz
[link]
Ez alapján 283EUR/88073 HUF-nak kéne lennie. Ehhez képest 100eFt >Németországban meg 267EUR-nak kéne lennie.
Ha ott annyi, itt ebben a táblázatban, meg még több (279), akkor Magyarországon euróban arányosan 295EUR áron lenne várható elméletben. Így kijön a 92e.
De ezt még ugyanúgy fel kell akkor szorozni a hazai kisker hiányfelárral, ami azt jelenti, hogy nem érdemes RX 480 ár alá várni.Aztán fene tudja, lehet, hogy eláraszt minket Nvidia végre krátyákka. -
Petykemano
veterán
válasz
->Raizen<-
#19039
üzenetére
Hahaha
Ezt nem a fejlesztők fogják kitalálni, hanem az nvidia. -
Petykemano
veterán
válasz
Malibutomi
#19005
üzenetére
Teljesen nyilvánvaló: csak nem akarják porig alázni az RX480-at. Van benne egy nagy ellenállás, ami a teljesítményhez nem tesz hozzá, de legalább 100 kilo Ohmygod-os
Esetleg nem lehet, hogy a ram, meg az.uncore fogyasztása ilyen magas?
-
Petykemano
veterán
-
Petykemano
veterán
Előbb lesz listázva "out of stock", mint a custom RX 480.
Najó, nem vagyok jövőbelátó. Csak bejárta a világsajtót, hogy szó sincs semmiféle Nvoodoa -TSMC kihozatali forrásokról, csak annyi, hogy az nvidia nem kap elég gyártósort, ezért alig kapható az 1070-1080.
Ha ez így van, akkor ugyanez érvényes az 1060-ra is.Kivéve persze, ha ez nem igaz, és halmokban állnak a hibás GP104-ek és arra építenek egy rettenet vágott kártyát.
Bevallom S|A olvasó vagyok. Ott Fottemberg pár hónapja még azt mondta, hogy az nvidia kártyák ősszel érkeznek. Ha belegondolunk, hogy hogy indult el, valójában mire tényleg rendesen kapható lesz, addig megjön az ősz.
Anno Abu azt mondta, hogy mindkét gyártó kb a back to school időszakra jön majd ki az új kártyákkal. Ami lásd előbbit.
Tökre az látszik, hogy mindkét gyártó kapkodva sietett piacra dobni a termékét:
- Az AMD termékein nagyon látszik, hogy nagyon vegyes minőséget sikerült piacra dobni. A minőségi termékhez pont az a néhány hónap hiányzik, amennyivel előbb került piacra, mint az előzetes jóslatok.
- Az nvidia terméke jól sikerült. Látszólag. De alig lehet kapni, vagy jóval drágábban. Ezt gyártósor hiányával magyarázzák. De mindenesetre látszik, h pont az a néhány hónap hiányzik, amennyivel előbb került piacra, mint az előzetes jóslatok.Az S|A az nvidia gyűlölő Charlie még azt is megpendítette, hogy lehet most majd látni/tesztelni valami GP104-es 1060-at, aztán majd szép csendben lecserélik később GP106-ra. Persze ez nyilvánvaló otromba hazugság, vagy orbitális ostobaság. Egyik cég sem csinálna sose olyat, hogy más kártyát küld tesztelésre, mint a piacra, olyat meg pláne nem, hogy egy kártyanevet többféle chippel forgalmazzon.
-
Petykemano
veterán
hoppá
Vajon ki ül már most is a multigpu vagonon? Ki az, akinek kb minden megszólalásában szerepel, hogy "dö fjúcsör iz moltáj dzsipijú"?
És ki pattan még fel a fél hatos multigpu járatra? -
Petykemano
veterán
Az AMD üzletileg mit profitál abból, hogy ennyire túlterhelt?
Laikusként nézve úgy tűnik, ez a hatalmas befektetés épp csak arra elegendő, hogy legalább versenyben maradjanak. Az nvidia látszólag kisujját se mozdítva viszont játékról játékra erősíti meg a publikumot, hogy az nvidia kártyáik magasan vezetnek.Nem mondom, hogy felesleges, mert nyílván egy superior hardvert szoftverből meg lehet verni üzletileg. Kell a szoftver, meg a mindshare. De úgy tűnik, az amd nehezebben váltja fps-re és aztán a vásárlások réven dollárra az ilyen jellegű befektetéseket.
-
Petykemano
veterán
válasz
stratova
#18549
üzenetére
Pedig szerintem fölösleges volt trükközni.
470-ként - persze olcsóbban is - is elkelt volna. Nem akkora árbevétel, de elégedett vásárlók, jó PR, és ugyanúgy gpu részesedés.
Vagy a 4gb-os boost órajele is lett volna kisebb, ahogy a memóriáé is. Úgyis 5.5tflopsról volt szó.Kérdés: hogy lehet túlfeszelni is, meg avfs -t is működtetni?
-
Petykemano
veterán
válasz
->Raizen<-
#18393
üzenetére
A 970 szintet célozta. Ez pipa.
De azt nem célozta, amit Te írtál, hogy 970-ről erre válts. -
Petykemano
veterán
válasz
->Raizen<-
#18390
üzenetére
Nem is azt célozta.
970-et 1060-ra váltani se lenne értelme. -
Petykemano
veterán
-
Petykemano
veterán
-
Petykemano
veterán
válasz
Milka 78
#17974
üzenetére
A teszt megállja a helyét akkor is, ha mások voltak a játékok. Csak mert a kártya két éves, a használója nem csak két éves játékkal akar játszani. És a tesztek azt mondják, az egyik kétéves kártya az új játékokban jobban teljesít, mint a másik. Ebből azt a következtetést le lehet vonni, hogy a ma jobban teljesítő kétéves kártya időtállóbb. Inkább annak javasolt, akinek nem a maximális teljesítmény az elsődleges, hanem az időtállóság, mert nem akar évente váltani. Persze mivel a gpu generációkban 50% ugrás is van, el kell fogadnia, hogy újabb játékokban nem megy ultrán, de hát neki nem is elsődleges szempont a maximális teljesítmény.
Egyébként pont azért, mert az amd esetében vegyesen voltak és vannak a szériákban különféle gcn verziók, nehéz is lett volna hasonlóan bánni a régi szériával driveres úton. (= a régi architektúrára nem optimalizálnak)
Tehát nekik optimalizálni kellett minden gcn verzióra, ami érintette a hd 7000, 200, és 300 szériát is.
Ez most minden bizonnyal változni fog majd. -
Petykemano
veterán
Csak akkor nem $599-ért veszem a 2x Titánt és nem $379-ért a titánverőt.
Ha ezek a problémák valóban léteznek, akkor az nvidia ügyesen játssza a kártyáit. Jelenleg $300-ra várja mindenki a Polarist, ami talán eléri, esetleg itt-ott fölébe keveredik 1070-nek. Általános vélekedés, hogy az AMD-től egy ilyen teljesítmény az asztalra rakása ennél többet nem ér meg, különben nvidia. Mert a 300-at mindenki a 379-hez méri, nem ahhoz a ~$450-hez, amiért ténylegesen hozzá is fog tudni jutni (legalábbis eleinte).
A tízerrel kapcsolatban egyetértek veled. Ha Raja nem alaptalanul örült, akkor a computex során Polaris update néven kaphatunk olyan infókat, amelyek elgondolkodtatják a potenciális vevőket.
Elképzelhetőnek tartod, hogy a Polaris 10 és 11 nem egyszerre rajtol? Vonatkozhatott-e a június 29-ei NDA csak az egyikre, mondjuk a Polaris 10-re? Arra gondolok, hogy az nvidiának legutóbb bejött az - igaz azért más körülmények között -, hogy a mainstream kártya érkezett elsőnek és ámulatba ejtette a közönséget.
-
Petykemano
veterán
válasz
#85552128
#17450
üzenetére
Ha egy pillanatra engedünk a kísértésnek, hogy azt gondoljuk, hogy
- az amd a polarisszal versenyképes terméket épített, vagyis a polaris nem low End termék, ami közelébe se ér és ezért nem is versenytársak a gp104-nek
- nem csúsznak, nem kínlódnak, nem erőlködnek
...
Akkor elképzelhető talán, hogy szándékos a hallgatás, az, hogy nem akarnak sietve válaszolni. A januári és capsaicin bemutatóknak talán pont az volt a célja, hogy kapkodásra késztesse az nvidiát. És a mostani hallgatásnak talán pont az a célja, hogy az nvidia elszenvedje a kapkodás okozta presztízs károkat. Ha az nvidia valóban kapkod, akkor nem fogja tudni telíteni a piacot, mert csak kis számú termék fog rendelkezésére állni, a következő hónapokban felmerülő problémák pedig a nem fanboi vásárlókat szépen meggyőzik, hogy jól tették, hogy nem siették el a vásárlást.Az nvidia úgy tűnik, kíméletlenül precízen hajtotta végre a startot. Mégis, a drága FE léte arra enged következtetni, hogy az nem más, mint az early adopterek megfejése. Azt az érzetet kelti, mintha egy alacsonyabb árfekvésűként reklámoznának egy amúgy drágább terméket.
A Dx12-es eredmények nem annyira kiemelkedők.
Már lehet hallani olyan híreket, hogy zárt házban korántsem tudja tartani úgy az órajeleket, mint a tesztekben, és hogy ebben óriási különbségek vannak kártya és kártya között.Én nem tudom, hogy ezek igazak-e, vagy csak FUD. Csak azt mondom, hogy lehet, hogy azt várják, hogy ezeknek legyen visszhangja. Eközben Raja Kodurinak nem elkent az ábrázata, pedig mint mondtam, minimum úgy kéne kinézniük, mint a 2014-es választás veszteseinek.
Persze majd meglátjuk.
Remindme 30 days
-
Petykemano
veterán
válasz
#85552128
#17108
üzenetére
Ebben igazad van.
A Fury elég fura. Ha Abunak igaza lesz abban, hogy az async compute felé tolódik majd el a játékipar, biztos szép öregkort fognak megérni, de....
Elég véglegesnek tűnik. Mondhatni papírforma: feleakkora helyen feleakkora fogyasztással ugyanaz a teljesítmény. Nem rossz, de nagyjából ezt vártuk a finfettől. Viszont az eredmény elég véglegesnek tűnik abból a szempontból, hogy ahhoz meg túl nagy, hogy legyen valami tuti fícsör, ami jelenleg driverből tiltott (mint ahogy az órajelek sem feltétlen tekinthetők véglegesnek), ami majd még dob rajta egyet. Ugyanakkor ha mégiscsak ennyi a 3 éves architektúrához képest, az elég kiábrándító, akkor is, ha az akkori árához képest olcsóbban megkapod
-
Petykemano
veterán
válasz
#85552128
#17106
üzenetére
Ha ezek a számok igazak, akkor 2304 1.26Ghz-en ~ 3584 1.0Ghz-en. Ez 20%-os IPC növekedés.
Nem mondmo, hogy nem GCN, de több, mint polírozás.Hogy ettől jobb lesz-e, azt nem tudom. Sok még a kérdés.
Más:
Jellemzően a samsung és tsmc nodejai közti különbséget az Apple chipek alapjá jóvá szokták írni az nvidiának (hádde ez a 300mm2 valójában nem is annyi lenne a samsungén, hanem csak 9%-kal kevesebb és akkor már nem is olyan nagy a két csip közötti méretkülönbség.) Viszont azt, hogy a a tsmc csip magasabb fekvenciát elérhet, mert - szintén az Apple alapján - hűvösebb, kevésbé melegszik - már nem szokták levonni a samsungra képzeletben átvitt összehasonlítással (értsd: mondjuk ugyanazzal a 9%-kal alacsonyabb az iso TDP mellett elérhető frekvencia, mint amennyivel kisebb a méret) -
Petykemano
veterán
+Ttomax
Akkor tehát arról van szó, hogy
A) ha jóideig csak a FE kártyákat lehet majd kapni, akkor valójában ezek drága mérnöki példányok, amiket még a sorozatgyártás beindítása előtt kiszórtak. Egy kvázi paper launch, annyiból nem paper, hogy tényleg van azért termék, de a kínálat szűkössége miatt lehet felárat kérni. (Aztán meglátjuk, hogy jóideig csak ezeket lehet kapni)
B) Valójában $450 és $700 árú termékekről beszélünk, a $380 és $599 csak púder a médiának, hogy azért persze perf/$ értéket természetesen a MSRP-vel számoljanak, meg a közönségnek, akik tapsolhatnak a papíron olcsó árnak, és türelmetlenségükből fakadóan kifizetik a felárat. (Ez utóbbi amúgy nem baj)
C) A $380 és $599 most még csak púder, elkérik érte a magasabb árat, mert ilyen a kereslet-kínálat. Viszont ha jönne valami kompetens konkurencia a alacsonyabb árban, akkor arcvesztés nélkül lehet árat csökkenteni (kivezetni a FE szériát, pontosabban bevezetni a referenciát a partnerek irányából, ami viszont természetesen már nem a FE prémium design. (Jobban throttingol is esetleg, de kit érdekel, mert a review-k már megvoltak addigra)
-
Petykemano
veterán
Tulajdonképpen, hogy ha mennyire jó / szar a referencia hűtés, (amit prémium designnak is hívtak), akkor mire is fizeted a $100 felárat a "Founder's Edition"-ért?
Pont ez ütött szöget a fejemben ma.
Ha ez a referencia kártya és ez drágább, mint a gyártói kártyák ajánlott ára, és általában a gyártók a saját kártyáikat megbütykölik, húzzák, jobb hűtést tesznek rá, stb, és az így elérhető magasabb teljesítményért felárat fizettetnek, akkor vajon lesz majd referencia/ajánlott áron kapható készülék? -
Petykemano
veterán
Ha a ps4k tényleg két gpuval jön, akkor tényleg megágyaz a két(-4) gpus kártyáknak, rendszereknek. És simán védhető azzal, hogy ez a vr -nak is így jó. Persze kérdéses, az nvidia miért ne tudna lépést tartani. És a végén a processzoros utalást se teljesen értettem
-
Petykemano
veterán
válasz
rocket
#15914
üzenetére
Minek örömködnek a részvényesek? Előre isznak?
- Az biztos, hogy a Polaris jobb eresztés lesz, mint a 300+Fury, és az is igaz, hogy utóbbi széria azért kezdi behozni lemaradását a tesztekben, azt még nem tudni, hogy a Polaris hogy fog helytállni a Pascallal szemben.
- Az is biztos, hogy a Bristol Ridge nem fogja növelni a mainstream kategóriában a versenyképességet, mert nem fog kimagasló teljesítményt nyújtani, nem nagy dobás. Sejthető, hogy a mobil pc szegmensben decens teljesítményt fog biztosítani, de csak reménykedhetünk, hogy nem lesz ugyanúgy a "körülmények" áldozata, mint az amúgy ígéretes, de megkésett Carrizo.
- Szerintem az utolsó negyedéves AMD eredményének csökkenése és a hamarosan érkező új MS és s Sony konzolok között lehet összefüggés. S ugyanígy érkezhet bevétel a három új konzol piacra kerüléséből, de ez szerintem önmagában csak az életben maradásra elég. Akkor jelenthet segítséget, ha a más által megfizetett tudást, designt, IP-t saját termékekben / külön termékekként ezúttal is fel tud használni.
- Kína, India, persze mndenki ezekre a piacokra igyekszik betörni, meg a HPC-k piacára. Bár kétségtelen, hogy az AMD számára jó hírek, hogy sikerül ide-oda bejutnia, itt-ott szerződéseket lekötni.
De én összességében akkor is egy picit előre örvendésnek látom. -
Petykemano
veterán
válasz
MiklosSaS
#15629
üzenetére
Szerintem tényleg nincs még.
Azt mondják, hogy sorozatgyártásban van, de ez vonatkozhat csak a lapkára is. Az utóbbi években számos lapkáról kiderült, hogy megjelenéséhez képest már hónapokkal előtte 'kész' volt. Lehet, hogy valójában a Fiji lapka is már jóval a megjelenés előtt kész volt és az első hónapok hiánya, majd az azt követő félév döcögése annak köszönhető, hogy a trió lassan állt össze. Tehát nem elképzelhetetlen, hogy maga a lapka kész van, sorozatgyártás alatt is állhat már, de a a HBM2 memória még nem, összeszerelni és késztermékként kiadni csak később fogják. Erre utal az is, hogy 2016H2-re teszik a tényleges megjelenést. -
Petykemano
veterán
válasz
daveoff
#15513
üzenetére
(Elnézést a cinizmusért, nem személyeskedésként szánom)
Nem lehet egyszerű, amit most át kell élnie az nvidia tulajoknak. Driverhibák, lassulás, satöbbi...
Kész szerencse, hogy hónapokon belül megérkezik a Pascal, és minden maxwell tulajdonos eldobhatja öregecskedő kártyáját és elégedetten mosolyogva nyújthatja át bankkártyáját a kasszánál, hiszen nem csupán egy sokkal erősebb hardvert vásárol, hanem a megoldást a problémákra és a tökéletesség élményét.
Újra.Komolyra fordítva a szót. Nem lehet, hogy a most jelentkező problémák, lassulás, driveres töketlenkedés, AC support hiánya, stb ez mind arról szól, hogy az nvidia épp megágyaz a "vedd meg a következő generációs kártyát, mert az kell neked" marketing gépezetnek?
-
Petykemano
veterán
Ez a cikk azt fogalmazza meg, hogy az nvidia kártyák annyival hatékonyabban hasznosítják a tranzisztorokat, egységeket, hogy nem alakul ki ún üres buborék a hardverben, amit mellékszálon (multithreading) hasznosítani lehetne. Burkoltan ez azt sugallja, hogy ahol ez megtörténik, az lényegében hiba. Vagy a hardverben, vagy a futtatott szoftverben.
Mit lehet vajon nyerni mégis olyan architektúrával, amelyben ilyen buborékok keletkeznek? Az egész async compute a buborék létére alapszik, ha az amd történetesen sikeresen csökkentené a buborékok méretét, akkor az egész még inkább veszítene a jelentőségéből. Mit nyerhet azzal, ha vannak buborékok?
-
-
Petykemano
veterán
a preempció problémájára legalábbis hardveres tekintetben nem lenne megoldás az Nvidia részéről is egy dual GPU-s megoldás, ahol az egyik GPU számolná a képkockát, a másik meg ügyelne, hogy ha az új jelenet lekérné az időablakot, akkor kitegye a fejmozgás miatti új képkockát?
-
Petykemano
veterán
Ha valakit esetleg érdekel ez az ócskavas

-
Petykemano
veterán
válasz
Malibutomi
#13632
üzenetére
Az "overclocker's dream"-ről olvastam egy olyan amúgy hihetőnek tűnő véleményt, hogy eredetileg 850Mhz-en akarták kiadni. Úgy is szép teljesítményt nyújtott volna (lásd Nano), nagyon kellemes fogyasztással. Csak meglepetésként érte őket a 980Ti, ami a Titan-hoz képest versenyképes áron a 980-hoz képest jóval magasabbra tette a lécet, ezért kénytelen kelletlen gyárilag elvégezték az álom OC-t.
-
Petykemano
veterán
válasz
Malibutomi
#13511
üzenetére
Szerintem a csíkok hossza a min + avg értékek összege alapján jön ki.
-
Petykemano
veterán
Az nvidiának ez az állásfoglalása nem épp arról tanúskodik, nem úgy áll a fejlesztőkhöz, hogy azok eddig pont a vulkánszerű low level apiért gyújtották volna fel magukat... vagy az nvidának a vulkán se előnyös? Miért int óvatosságra?
-
Petykemano
veterán
Az nvidia vajon titokban tényleg a konkurenciát megalázó módon már jóideje csücsül a finfet pascalon fejve a maxwell vásárlókat ameddig lehet? Vagy vajon épphogy le van maradva?
-
Petykemano
veterán
Akkor az fps eredmények mellé tenni kéne egy cpu util grafikont is, nem? És minden esetben odaírni, hogy hahó, van itt még tartalék! Ha ez igaz, akkor az amd értelmetlenül hagyja magát elverni. Ezzel ő lehet, hogy jófej a fejlesztők körében, egész addig, míg azok rá nem néznek a piaci részesedésre, s azt nem mondják, bocsi, de a 80% az 80%.
Ez nem saját érdekeik ellen való? Legalább lenne egy kapcsoló a driverben, maximum overdriver néven, ami engedi addig terpeszkedni a drivert, mint az nvidiáé. -
Petykemano
veterán
És az Amd inkább önként adja át a lehetőséget, hogy az nvidia driver zabálja föl a program elől a cpuidőt azáltal, hogy a vásárlók a benchmarkokat látva inkább a zöld kártyát vesznek, csak azért, hogy a microsoft megsimogassa a buksijukat?
Vagy ez azt jelenti, hogy az egyenlő mértékben rendelkezésre álló processzoridőt az nvidia driver tényleg jobban használja ki és ezen az amd az elmúlt fél-egy évben nem tudott az nvidiához képest érdemi előrelépéssel javítani? -
Petykemano
veterán
válasz
huskydog17
#12820
üzenetére
Épp azon voltam, hogy elhőbörgöm magam, hogy ha ennyire nyilvánvalóan driver és cpu overhead limites, akkor nemigazhogynemtudjákmegcsinálni
De Ugye abu Ez azért van így, mert a gcn sok dx11 funkciót emulál és ez bármit csinálnak a driverrel megmarad. Ugye?
-
Petykemano
veterán
De nem minden GPU lesz HBM-mel szerelt, nem? Lesz GDDR5(X) is, ahhoz nem kell várni se az interposerre, se az összeszerelésre.
És ahogy a maxwell1-es 750(ti) tette, egy előre kiadott kártya viríthat.
A 370X-ről írtad, hogy tényleg csak kína a célpiac. Tehát az atlanti piacon a 370X helyén - legalábbis a kínálatban - van egy slot. Oda a HD4770, vagy a 750(ti) mintájára be lehetne tolni - mondjuk 375 néven - egy GDDR5(X)-szel szerelt finfeten gyártott próbakártyát. Ilyesmi lesz-e bármely gyártótól? -
Petykemano
veterán
Szerintem arra fognak rámenni, hogy 8 magosként árulták, de egy tökéletesen skálázódó program 4 magos terheltségről 8 magra való skálázódása nem jár 2x teljesítménynövekedéssel, mint járna - nem számítva a turbó-t - pl egy 4 magos Phenom kettő képzeletbeli megduplázásával.
De ez ugyanúgy igaz, ha 1 vs 4 magos kihasználtságot nézzük. A lényeg, hogy ahhoz képest, hogy ha valamit 1 magon futtatna, helyette 8 magon futtat, nem 800%-os teljesítményt kap. Míg mondjuk egy konkurens gyártó 4 magosnak mondott terméke lehet, hogy hozza a 1->4 viszonylatban a 400%-ot.
A kérdés az, hogy kötelezhető-e egy gyártó, hogy termékeinek részegységének elnevezésében, illetve egy bizonyos néven emlegetett részegységienek felépítésében és tudásában igazodjon a konkurenseihez, vagy valamiféle a fogyasztó által vélt/képzelt/elvárt iparági sztenderdhez.
-
Petykemano
veterán
A szavak, a presztízs.
Milyen már, hogy a csúcsállat amd verő kártya, persze ami még emberi áron elérhető, csak medium beállítású szép képet ad kétszer akkora fpssel?? Ha felhúzod a képminőséget nagyon jóra, akkor meg csak ugyanolyan jó? Ki akarna közepes beállításokkal virító kommerszkártyát?
De így, hogy a emberi mértékkel elérhető legjobb minőségben csúcsszuper, azért sokkal jobb. Az emberi léptéken túli ultra meg kit érdekel. -
Petykemano
veterán
válasz
Malibutomi
#11786
üzenetére
Végigfuttattam:
×××××××××× => alacsony
×××××××××× => közepes
Alacsony => Magas
×××××××××× => Nagyon magas (Maxwell +)
Közepes (GCN +) => /dev/null
Magas (GCN +) => /dev/null
Nagyon magas (GCN +) => Ultra magas (GCN +)Az új nagyon magas szintet direktben maxwellre optimalizálták.
A régi közepes, magas, nagyon magas szintek direkt GCN-re optimalizáltak voltak, vagy csak önhibájukon kívül azokon jól futott, máson meg elhasalt?Ez csak nekem olyan óceán alatti tesszelálás (vagymi) szagú?
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Fűtőtestnek sem lehet utolsó a legújabb ROG termék
- Battlefield 6
- Xbox Series X|S
- Kuponkunyeráló
- Szerkesztett és makrofotók mobillal
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Fedora Linux
- World of Tanks - MMO
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- Samsung Galaxy A54 - türelemjáték
- További aktív témák...
- ÁRGARANCIA!Épített KomPhone Ryzen 5 9600X 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! Samsung Galaxy A22/Samsung Galaxy A23/Samsung Galaxy A25/Samsung Galaxy A05s
- Telefon felvásárlás!! Xiaomi Redmi Note 12, Xiaomi Redmi Note 12 Pro, Xiaomi Redmi Note 12 Pro+
- GYÖNYÖRŰ iPhone 12 Mini 64GB Blue-1 ÉV GARANCIA - Kártyafüggetlen, MS3658, 100% Akkumulátor
- Bomba ár! Dell Latitude E7240 - i5-4GEN I 8GB I 256SSD I 12,5" HD I HDMI I Cam I W10 I Garancia!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest

![;]](http://cdn.rios.hu/dl/s/v1.gif)




