-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Malibutomi
nagyúr
válasz
Malibutomi
#9298
üzenetére
Bocs teloról írok
-
Malibutomi
nagyúr
válasz
tailor74
#9297
üzenetére
Hát valamit biztos okosítanak ha már újabb rav a chip más névvel. Mert ok hogy ugyanaz a tdp, de magasabb órajellel azért jobban is melegszik. Bár ha annyit tudnak csiszolni, hogy nem kell sok fesz az órajel eléréséhez akkor müködik a dolog.
(#9296) daveoff
Elég kicsit kevesebb órajel, CTC kicsivel a 290x ès a 780ti is erösebb mint a 980.De továbbra is úgy gondolom hogy tartalék nem lesz annyi bennük mint a 980-ban. Ahhoz csodát kellene tenni az amd-nek, hogy +300mhz hüthetöen még legyen a chipben(a hawaii átlagis elérhetö 1150-hez képest), mert akkor tudna OC vetekedni a 980-al.
Ha 1250-1300-at elérnek az is nagy dolog lesz, viszont akkor olyan dorrend alakulhat ki hogy 970-380-380x-980-390-980ti?-390x? -
válasz
Malibutomi
#9295
üzenetére
Azt nem tudom elképzelni ezzel kapcsolatban, hogy hogyan fogják megoldani a hatékony hűtését ezeknek a kártyáknak?
A te lightning kártyád egy nagyon komoly hűtésű kari, ha annak viszik fel az órajelét alap 1300-ra, szerintem még annak is feladja a leckét...Nem beszélve a többi, kissé gyengébb konstrukcióról... Vagy megint üvölteni fog minden kártya?
Nem tudom a gerenda mennyiben lesz más felépítésű, de nekem gyanús ez a hűtés dolog..

-
daveoff
veterán
válasz
Malibutomi
#9295
üzenetére
Én úgy nézem, hogy legalább az az órajel kellene, amit a 980 tud, ez szerintem lehetetlen egy átdolgozott Hawaii GPU-val, de majd meglátjuk.

Még az 1250 talán ok, de azzal csak ott lohol a nyakán, ami végül is már elég is lenne, ha jó áron lesz. Csak a 980-ban még benne van legalább 200MHz tartalék...
Kíváncsian várom, az biztos érdekes lesz, ha egy ilyen kártyával állítanak konkurenciát a 980-nak.
Tesztet nem tudok, de lemérhetem neked.....
(#9297) tailor74: Na igen, a hűtés, nem lesz egyszerű megoldani. Lehet, hogy erre a GPU-ra szánják a kompakt vizet?
-
Malibutomi
nagyúr
válasz
daveoff
#9293
üzenetére
Csak a graphics scoret néztem. A pontok egyénenként változóak, itt a tesztben 13900 volt a g1 eredménye, azt nálam a 290x olyan 1260 körül hozta de még tavasszal, szóval jó régi driverekkel. Ebböl saccoltam. De mondjuk úgy 1250 kell minimum hogy vetekedhessen a custom kártyákkal is.
Tényleg ha már szóbakerült, van bárhol olyan teszt, hogy egy húzott 980 mennyit fogyaszt?
-
-
daveoff
veterán
válasz
Malibutomi
#9292
üzenetére
Ilyen szempontból csak a Graphics score-t érdemes nézni(PH! toplista), nekem a 290X 1225Mhz-en csinált 13269 pontot, a 980 pedig (alapon)1340MHz-en csinál 14232 pontot, konfig ugyanaz, tudok linkelni validot is. Tehát ha ezt be akarják, érni, és még tartalékot is karnak, akkor keményen meg kell emelni az órajelet. Kelleni fog az 1300MHz-es alap órajel, esetleg némi optimalizálással valamivel kevesebb is elég lehet.
-
Malibutomi
nagyúr
Megnézegettem eredményeket 3dmarkban (persze egy teszt nem teszt de mégis), ott a hawaiinak kb 1150-1200mhz között kell mennie egy stock ref 980 eredményhez, és kb. 1250mhz egy giga g1 stock eredményhez.
Nem tudni miben más a gerenda mint a hawaii, a stock 980-at beérheti ilyen órajelekjel, de azt kétlem hogy maradna annyi tartalék mint a 980-ban. Persze lehet hogy CTC is tudnak javítani a hawaiihoz képest, de kiváncsi vagyok.
A saját eredményeket vetettem össze ezekkel:[link]
-
válasz
namaste
#9284
üzenetére
így van, megbontja a szimmetriát - feltételezem, hogy a scheduler figyel arra, hogy az SM minél nagyobb valószínűséggel a priorizált ROP-pal beszéljen (különben tényleg nincs értelme a dolognak). gyakorlatilag GPU a GPU-ban.
ill. a szűkebb csatorna a nem-priorizált backend blokkokhoz nagyobb adattranszferek esetén nem gond, mert a MC is csak 64-bites.igen, egy specifikus tesztprogramot én is szívesen látnék. a bizonyítás alatt arra gondolsz, hogy nem hiszed el, hogy léteznek ilyen utak, vagy másra?
(#9288) Menthirist: a 128 ROP-ot gondolom az 1024-bites buszból számolta ki valaki
de amúgy nem kizárható - nem tudjuk, hogy milyen lesz a backend felépítése, és azt sem, hogy a Hawaii-ban mennyire overkill a 64 ROP. ha megint a 2 hatványa kell legyen a ROP-ok száma, akkor nem kizárt, hogy emelik a tétet. -
Crytek
nagyúr
válasz
Menthirist
#9288
üzenetére
Kíváncsi vagyok ki és melyik évben fogja elérni a gyári 1.5ghz órajelet

-
http://vr-zone.com/articles/new-details-surface-on-amds-upcoming-r9-370x-380x-390x-390x2-graphics-cards/86703.html
"Recently AMD confirmed that its R9 300 series GPUs will be launched in the second quarter of this year."
Reméljük is
Már gyűlik a pénz a 390X-re, az első custom hűtősök közül venni kellene egyet
Ha 150k, 150k, ha 210k 210k 
bár a 128 ROP-pal kapcsolatban azért szkeptikus vagyok

-
zimi1991
aktív tag
válasz
Malibutomi
#9246
üzenetére
Ha ez így lessz vagy lenne akkor megkímélem magamat a pénz kiadástól, mert semmilyen előre lépés nem lesz...
Igaz sosem volt oly mértékű, hogy hasra kelljen esni
-
namaste
tag
Ha az SMM-eknek van kitüntetett ROP/L2/MC egysége, az megbontja az egész rendszer szimmetriáját, főleg az SMM-ek letiltása esetén.
A működés során egy SMM egyforma eséllyel olvashat adatot mindegyik ROP/L2/MC egység felől, ilyen szempontból szimmetrikus.
Meggyőző lenne egy tesztprogram, ami bizonyítaná a priorizált adatutakat.Az NV hétfői válasza hihetően magyarázza a működését, a szombati az valóban mismásolós volt.
-
proci985
MODERÁTOR
igen, ez volt az eredeti cikk

jaja, a roundtripre mondjak, hogy alacsonyabb lehet. ugy emlekszem talan tomsnal pont emiatt vettek egy nagyfelbontasu kamerat es abbol epitettek adatokat. FCAT ugy nez ki ezek szerint megse tokeletes megoldas (anno vegigneztem a cikkeket, de magas lazzal inkabb nem probalok velemenyt formalni
).--
Akkor némi elmélet: Kutatásban a minőséget -research quality- alapvetően két tulajdonsággal szokták jellemezni, amit még jellemzően kiegészítenek két további tulajdonsággal. Ha az adatokról beszélünk, akkor két tulajdonság fontos. Egyik a validity, avagy azt mérjük-e amit kell. A második a reliability, avagy mennyire pontosan mérünk.
Gyenge validity, de jó reliabilityre példának ott pl egy folyamatosan késésben lévő óra, ami konzekvensen nem a helyes adatot adja vissza.
Gyenge reliability, de jó validity pl a fürdőszobai mérleg, ami kb jó képet ad, csak elég nagy szórással.
--
Tehát ami miatt én egy képre nem alapoznék véleményt, az az, hogy nem tudjuk hogy jöttek ki a frametimeok (ismeretlen a validity) és nem tudjuk, hogy hány mérésből jött ki, mennyire stabil az eredmény (reliability). Vannak más faktorok is, de azok csak bonyolítanák a képet.
-
válasz
namaste
#9275
üzenetére
szerintem nem jó ötlet
bővebben?
a 970-es komment jogos, azt kellett volna írnom, hogy a "hivatalos álláspont szerint".
(#9278) HSM: dehogy szalmabáb, a Tonga jelenlegi egyetlen asztali megvalósulása a 285. a mobil chip adatai totál nem relevánsak.
szerintem majdnem mindent logikus a compilerbe költöztetni, ami statikus, és egyszer kell vele dolgozni, szemben azzal, ha folyamatosan realtime csinálnád.
nem az AMD "nem tudja" előnyre váltani, hanem a piaci viszonyok nem teszik számára lehetővé, hogy megtegye.
a kettő között semmi különbség nincs. egy jó innovátor rá tudja a piacra kényszeríteni az akaratát.
-
HSM
félisten
válasz
proci985
#9279
üzenetére
Én inkább ezt javasolnám: [link].

Ugyanis nem a sebességgel volt a baj DX-en, nem a sebesség ingadozott, vagy bármi ilyesmi, hanem az egér-képernyő kapcsolat lett sokkal direktebb Mantle alatt. Ahhoz pedig nem elég egy FCAT megmérni.

Ezt csak így lehetne lemérni rendesen: [link].
(#9280) namaste: Egyfelől igaz, leginkább akkor fogyaszt többet, ha meghajtod őket, ugyanakkor szvsz a puszta jelenlétük is jelentős plussz teher lehet. Itt nyilván nem mindegy, mennyire integrált része a számolónak, mennyire lehet letiltani, mennyivel növeli az egyéb áramkörök méretét. Az Nv-n ebből a szempontból jobb a helyzet, mivel tudtommal teljesen különálló "DP egységek" vannak.
Ez egy érdekes kérdés, mit nevezünk több "tudásnak". Erős a gyanúm, hogy a nagy Kepler sok-sok duplapontosságú számolójának a helyigényéből elég sok "fejlesztése" kijönne a Maxwell-nek.

Jelenleg nincs HPC Maxwell, de mindenképpen fura számomra, hogy a Kepleren egy ilyen komoly változtatást eszközöljenek, amikor már kinn az utódja. Erre nem tudok korábbról példát, hogy előfordult volna.
-
namaste
tag
A mobilt ne keverd ide, oda sokkal kisebb belső crossbar kell. K1-ben egy SMX, X1-ben két SMM van (plusz a processzorok, videó dekóder, display driver, egyéb I/O, memóriavezérlő: 2x32 bit).
(#9278) HSM
OK, többet fogyaszt, ha ott van a több DP egység, mintha nem lenne ott. De ez nagyon minimális többletfogyasztás, akkor fogyaszt sokat, ha meg is hajtod azokat.
Össze lehet hasonlítani a 780 és a TITAN játék közbeni fogyasztását a TITAN összes DP-egységének engedélyezése mellett. Mennyivel fogyaszt többet a TITAN bekapcsolt, de nem használt DP számolókkal?
Igen, GTX 780/GK110-re gondoltam. A "többet tud" arra vonatkozik amit Abu a #9233-ban írt, a funkcionális tudásra és nem a nyers erőre (több DP).
Nincs a Maxwellnek HPC változata, még. Lesz majd? Nem tudom.Szerintem nincsenek priorizált adatutak. Semmit se lehet vele nyerni.
-
proci985
MODERÁTOR
válasz
daveoff
#9276
üzenetére
picit higgadtabban
(meg a korabbiakra)--
namost, ami errol a grafikonrol nem latszik, az az, hogy megis mit neztek latency alatt.
a problema az, hogy a frame latencyt lehet tobbfelekeppen merni. amit az afterburner mer, az a gyarkolatban nemi kepet kapni jo, viszont nem igazan azt meri, amit kene. ez az anandtech cikk ami melyebben belemegy a teruletre. de elotte tomsHW is foglalkozott melyebben a terulettel.
felreertes ne essek: lehet jo informaciokat neztek, lehet valid az eredmeny, de igy kontextusatol megfosztva ebbol a kepbol nem mernek mely kovetkezteteseket levonni.
-
HSM
félisten
válasz
daveoff
#9271
üzenetére
Én egy fórumtárs kérdésére válaszoltam, Te kötöttél bele.

Szerinted a High beállítással nem adtam elég előnyt a DX módnak? Nem is értem, mi van veled... Nyilván Ultra-n a DX-nek esélye se lett volna a Mantle-s 70-90FPS-el szemben 50-70-el.
(#9272) stratova: Szerintem nem ehhez van köze. Amúgy csináltam még DX-el ilyeneket, és rendben volt teljesen. Komplett meccseket értékeltem ki többféle pályán is utólag LOG-okból.
A Mantle előnye másban volt szerintem.(#9273) NetTom: Van bizony ilyen téren előny az Nv részére. PL. BF4-ben Nv-vel jó az FPS Ultrán is multiban DX alatt, míg AMD-n nekem már procilimitem volt több helyen is, ezért kellett vissza vegyem High-ra. A procilimit annak ellenére volt, hogy egy 4,4Ghz-re húzott i5 4690K volt a gépemben, 4*4GB 2133MHz-es rammal.
Ugyanakkor nem hiszem, hogy ez jelentős hatással lenne más paraméterekre, mint pl. a DX-mód input lagjára. Sőt, egyes források szerint az Nv 5 képkockával dolgozik előre, míg az AMD DX alatt csak 3-al, Mantle alatt 1-el, de ezt se megerősítő, se cáfoló bizonyítékot nem sikerült még hoznia senkinek.(#9274) gbors: Pedig a nagyobb tranzisztorsűrűség amellett, hogy valóban nehezebben hűthető csipet eredményez, rövidíti a vezetékhosszakat, aminek kapcsán csökken azok parazita-kapaciása, ami direkten csökkenti a csip fogyasztását. Ez tény.
A 285 szalmabáb érvelés, ugyanis én a Tonga GPU-t említettem, NEM a 285-öt, amire a selejtesebb csipek kerültek, atom túlfeszelve.
Nézd inkább az R9 M295X-et.Már bocsánat, de pl. az ütemező compilerbe költöztetése pl. nem erős butítás? Dolgozzon a proci inkább többet az ütemezéssel? Vagy a belső erős ringbus helyett egy sokkal "korlátozottab" crossbar felépítés, ahol csak meghatározott utakon járhat az adat?
"az volt az alapvető felvetésem, hogy az architektúrás innovációt az AMD nem tudja kézzelfogható előnyre váltani. ezek szerint egyetértünk?
"
Alapvetően igen.
De én úgy gondolom, nem az AMD "nem tudja" előnyre váltani, hanem a piaci viszonyok nem teszik számára lehetővé, hogy megtegye. 
(#9275) namaste: Ha már tévedések...
" A Hawaii hiába rendelkezik több DP számolóval, ha nem használjuk nem fogyaszt,"
De fogyaszt. Mivel ott van a csipben a képesség, növeli a vezetékhosszakat, bonyolítja a logikát, ezenkívül kérdés, mennyire lehet/nem lehet kikapuzni a hozzájuk tartozó részeket, ha egyáltalán lehet.A memóriacsipes dolog valós. Legjobb tudomásom szerint a csipek száma és az órajel számít. Kérdés, melyik mennyire. Szerintem a Maxwell ebben is hoz jópár wattot.
A Maxwell-re sem írhatod, hogy "többet tud", mint a Kepler (feltételezem, a 780-akra gondoltál Kepler alatt) bizonyos szempontból többet, de más szempontból jóval kevesebbet. Pl. egyáltalán nem tud értékelhető duplapontosságot, mivel kihagyták az egységeket. Az sem véletlen, hogy HPC piacra nem Maxwell-t hoztak ki, hanem kicsit feltuningolt Keplert, a GK210-et. [link]
A priorizált adatutakban én is látok buktatókat, bár eddig a számok szerint jól teljesít.
(#9277) Abu85: Igen, pont itt látom a nehézségeket. Most DX11-ben tök jó ez a priorizált adatbusz móka, de mi van akkor, ha valami fejlesztő kitalál valami eljárást, amihez egy szokatlan egység részeredményére van szüksége egy másiknak? AMD-n látszólag ez nem okozhat gondot, hogy egymás adatait elérjék, míg Nv-n a megoldhatatlan kategóriát is súrolhatja.
-
Abu85
HÁZIGAZDA
válasz
namaste
#9275
üzenetére
Az teljesen világos, hogy két nagy tényező van, amely nagyban meghatározza a fogyasztást. Az egyik az ütemezés. A GCN teljesen hardveres ütemezést használ, a wavefrontok szintjén OOO logikával. Az NV a Kepler óta félig szoftveres ütemezésű, és a feladatütemezés is in-order. A CUDA-ban vannak olyan lehetőségek, hogy az egyes warp-okat lehessen priorizálni.
A másik fontos tényező a belső adatbusz. Ez jelentős fogyasztáskülönbséget okozhat. A GCN egy nagyon széles belső ringbuszt használ, amivel minden egység összekapcsolódik, míg a Maxwell az ultramobil GPU-k irányelveit követve strukturált buszokkal dolgozik és nem minden egység van egymással összekapcsolva. -
namaste
tag
Fogyasztás-tudás témában több érv elhangzik, amelyek nem valósak:
-általában ha valamely funkcióhoz több tranzisztor kell, de azt valami miatt nem használjuk, akkor az nem fogyaszt jelentősen többet,
-dupla pontosságú számítások többet fogyasztanak. Igen, ha használjuk, de játékokban nem jellemző. A Hawaii hiába rendelkezik több DP számolóval, ha nem használjuk nem fogyaszt,
-UAV csak egy szoftveres absztrakció, a GCN és a Fermi/Kepler/Maxwell is D3D11-ben max 8 UAV-ot használ, ez nem indokolja a többletfogyasztást.
Ami valós érv lehet:
-memória rendszer, belső busz: 512 bites külső memóriabuszhoz és a meghajtásához több vezérlő tranzisztor szükséges, amelyek terhelés alatt folyamatosan működnek,
-több memóriacsip többet fogyaszt (vagy nem, inkább a memória mérete a meghatározó).Még valami a fogyasztáshoz: a Green500-as listát egy AMD FirePro S9150-al (Hawaii) szerelt gép vezeti.
Még egy szempont, ha összehasonlítjuk a Keplert és a Maxwellt a fogyasztás-tudás alapján: a Maxwell többet tud, mégis kevesebbet fogyaszt.
Ha az AMD kihoz egy nagyon alacsony fogyasztású Fijit, akkor az AMD fanoknak lesz fontos a teljesítmény-fogyasztás arány, az NV fanok pedig ...
(#9240) gbors
"priorizált adatutak a crossbarban (ugye ebből fakad a 970-es probléma, de maga az ötlet nagyon jó)"
Szerintem nem jó ötlet, és nem ebből fakad a 970-es problémája. -
... és már át is siklottunk ismét valami másra a HW-ről

amúgy persze, folyamatosság über alles - mondjuk a pontszerűen mért minimum-FPS-ek nem túl reprezentatívak, de azt elhiszem, hogy a SE3 folyékonyabb Mantle alatt. a Thief vszleg mindegy. a Civ-ről korábban már beszéltünk, nekem is tetszik, amit csináltak benne. és ez mind szoftver, amit ugyanúgy lehetne Kepleren / Maxwellen is csinálni.
(#9263) HSM: a tranzisztorsűrűség minimális hatással van a fogyasztásra - még azt sem tartom kizártnak, hogy nem csökkenti, ugyanis szűkebb helyen jelentkezik ugyanaz a hőtermelés. az R9 285 amúgy is rossz példa, mert a fogyasztása siralmas.
Ezt jól látod, én úgy gondolom, hogy a fogyasztás drasztikus csökkentése azonos technológia mellett csak a funkcionalitás megnyirbálásával lehetséges.
akkor sztem jobb, ha abbahagyjuk a témát. with all due respect, ez óriási butaság. pont az előbb soroltam fel pár fajsúlyos dolgot....
Itt az a bibi, hogy az AMD nem elég ehhez.
az volt az alapvető felvetésem, hogy az architektúrás innovációt az AMD nem tudja kézzelfogható előnyre váltani. ezek szerint egyetértünk?

-
Az mondjuk igaz hogy az nVidia az utóbbi időben ráfeküdt a CPU overheadre... és vannak arra utaló "nüansznyi" jelek egy két specifikus tesztben amik ezt alátámasztják.
Szóval ilyen téren, ha nem is Mantle szintű, de valamekkora eltérés lehet a javukra az AMD normál DX drivereivel szemben.
-
stratova
veterán
válasz
daveoff
#9268
üzenetére
Szerintem ahhoz egy késleltetésdiagramot kellene mérnie DX11 és Mantle kód esetére azonos beállítások mellett, ami ha nem tévedek azért nem két perc. Nem gyakran csinálnak ilyet a fórumtársak (bár páran igen).
-
HSM
félisten
válasz
daveoff
#9268
üzenetére
A számok az AMD-s DX-en is rendben voltak, mivel csak High-on toltam.
Én azt próbáltam itt átadni, hogy volt, ami a számokból nem jött át.
Nem városi legenda, hanem saját tapasztalat.
Sajnos nem volt megfelelő technikai felszerelésem, hogy bármit is bizonyító erejűen dokumentáljak ebből, de ettől függetlenül a jelenség tapasztalható volt.Nem szarja le az Nv-seket a Dice, ott van nekik a DX mód, mivel Mantle azokon nincs.

-
Abu85
HÁZIGAZDA
A DICE két dolog miatt indult el a low-level irányba. Egyrészt nem tudtak mit kezdeni azzal, hogy az olyan alapvető dolgok, amelyeket nem lehet megkerülni (például allokált memóriatartalom törlése, szükségszerű shader újrafordítás, állapotváltások többletterhelése, hazárdok lekövetése, memóriamásolások), extra késleltetést vagy akadást okoznak, amely ronthatja a játékélményt. Másrészt az a programozási modell, amit a DX11 rájuk kényszerített teljesen lekorlátozta a kutatásaikat, mert nem tudtak közvetlenül hozzáférni a videomemóriához.
Az fontos, hogy a DICE senkivel senkinek sem akar rosszat, csak az évek során túl sok korláttal találták szembe magukat, amelyet a Frostbite 3-nál már nem tudtak egyszerre lenyelni. -
-
HSM
félisten
válasz
daveoff
#9266
üzenetére
Nekem SEMMI bajom nem volt DX alatt a minimum FPS-el, mint írtam, átlagosan 10-el jobb is volt a kisebb grafikai minőség végett a DX.
De ne menjünk bele újra ebbe a parttalan vitába. Kérdezte a fórumtárs, mit tapasztaltam, és én bizony ezt.
"NV-vel a DX kód meg ugyanolyan jó, mint a Mantle, ha nem jobb...."
Hát hogyne. Úgy tűnik, ezt nem tudta a Dice, mikor lefejlesztették a Mantle kódot.
-
daveoff
veterán
-
HSM
félisten
Közvetlenebb, gyorsabb az egész.
Ha megmagyarázni próbálnám, akkor arra gondolnék, hogy szignifikánsan csökkent az input lag. Gyors célzásoknál nagyon kijött a difi. A legviccesebb, hogy mindezt úgy, hogy Mantle alatt átlagosan kb. 10-el kevesebb FPS-em volt, mint DX-ben, mivel DX-ben mindenhol 70+ FPS-hez le kellett vegyem High-ra (Dx Ultrán pl, Shanghai be tudott lesni 50-es mélységekbe is, miután ledőlt a torony), Mantle-t pedig Ultrán toltam (+4X-es MSAA), mert úgy már simán bírta, de azzal a nagyjából 10-el kevesebb FPS-el. -
HSM
félisten
A tranzisztorszintű (+HDL) optimalizálás az AMD-nél is megvan folyamatosan. PL. HDL-ben tudtommal manapság a Tonga a legerősebb GPU, ott tudták a legnagyobb tranzisztorsűrűséget elérni. Ez kapásból fogyasztásra is hat, rövidebb "vezetékek"-->kisebb fogyasztás.
A priorizált adatutak helyett én úgy egyben kezelném, hogy áttervezték az egész memória-szervezését, elérését a GPU-nak. Ennek a fogyasztásra nagyon jó hatása van, kérdés, nem-e fog más területeken kevésbé előnyösen hatni. Ennyire sajnos nem látok bele a GPU-k lelkébe, de az eléggé nyilvánvalónak látszik, hogy így azért kevésbé rugalmas rendszerről beszélünk.Ezt jól látod, én úgy gondolom, hogy a fogyasztás drasztikus csökkentése azonos technológia mellett csak a funkcionalitás megnyirbálásával lehetséges, lásd pl CISC vs RISC architektúrák. Ugyanez volt fordítva a Fermi Cypress esetében, ott a Fermi volt egy nagyobb tudású, bonyolult csip hatalmas fogyasztással, a Cypress pedig egy kisebb, hatékonyabb, de kevésbé robosztus megoldás. Ott konkrétan 3 év alatt sem volt ebből szerencsére semmi gondom, de nem véletlen lépett tovább az AMD egy másmilyen szervezésre. A sors furcsa fintora, hogy most az Nv kezdte el kidobni a fogyasztókat a csipjéből.

"az AMD az újdonságaival az adott generációban szanaszét rúgja a konkurencia seggét. ezt hiányolom 2010 óta."
Itt az a bibi, hogy az AMD nem elég ehhez. Szoftverek is kellenek, ahhoz pedig szoftverfejlesztők. Márpedig a szoftverfejlesztő sem hülye, neki akkor buli az egész, ha Nv-re is el tudja adni a szoftverét. Márpedig ha az AMD-n seggszétrugósan megy, Nv-n pedig döcög, ott a PC-s gamer társadalom legalább fele igencsak zabos lenne, ami nem igazán tenne jót az eladásoknak. Ez némileg meg is magyarázza, miért nem látunk seggszétrúgást, olyan helyeken sem, ahol egyébként láthatnánk, gondolok pl. a Mantle-re. Ettől függetlenül meg kell jegyezzem, a sokak által ledegradált Mantle pl. BF4-ben olyan játékélményt adott, amit réges rég nem tapasztaltam egyetlen DX-es FPS-ben sem.
-
Abu85
HÁZIGAZDA
Miért csak az FPS-ben lehetnek konkrétumok? Ott a folyamatosság, a minimum sebesség, vagy a képminőség. Minimum sebességben láthatod az előnyt: [link], [link] A folyamatosságot ebből ki lehet találni. Aztán ott a Civilization BE. Mantle alatt van SFR több GPU és jobb az élsimítás minősége a fedettségminták miatt. A Sniper Elite 3-ban is jobb minőségűek maradnak a textúrák a stream algoritmus miatt a DX11 módhoz képest.
-
a Mantle-t ugyanúgy meg lehetett volna csinálni a Kepleren is (mint ahogy a DX12-es build már megy is rajta), tehát a Nitrous sztori megintcsak független a műszaki tartalomtól. a többi téma pedig ismét a lesz, lesz, lesz műfaj. én kézzel fogható konkrétumot szeretnék látni (FPS) - ha ilyen lesz, akkor majd jön az USD is

-
-Solt-
veterán
Valahol mintha azt láttam volna, hogy Q2 második fele.
dammer123-nak ment...
-
Abu85
HÁZIGAZDA
Az, hogy a GCN-en mindenkinél egy évvel korábban futtatták a Nitroust úgy, hogy nem halt meg RTS módban egy műszaki előny. Ma már a szoftver kéz a kézben jár a hardverrel. Számtalan műszaki előny van még, amely idén fókuszt kap. Például az aszinkron compute/DMA, amik az egyik legfontosabb újítások lesznek, hiszen végre nem kell GPU-limitet kiáltanunk akkor, ha a hardver számítási kapacitásának csak a 20-40%-a van kihasználva, mint ahogy az manapság nagyon jellemző.
A VR nem olyan távoli jövő már. Számtalan szoftveres és hardveres probléma van, amit meg kell oldani, de a GDC-n fel lesz vázolva, ezek jó részére egy-egy GCN-en működő megoldás. Persze a szabványos megoldásokra még várni kell, de az Oculus ezekre már építhet, amikor kiadja az első VR eszközét. -
most akkor olvasd újra a postodat, és mutass rá, hogy mi szerepel benne, ami a GCN műszaki tartalmával kapcsolatos
van a VR, ami még igen távoli, azon felül csak piaci lefedettségről és partner-stratégiáról írsz.
leírom még egyszer, mert egyetlen szó cáfolatot nem láttam még rá: az architektúrában hozott innovatív döntéseket egyelőre semmilyen eredménnyel nem sikerült alátámasztani - sem FPS-ekkel, sem USD-kkel.csak hogy on is legyen, ismét hangot adok azon reményemnek, hogy a HBM változtatni fog ezen a trenden.
-
Televan74
nagyúr
válasz
KillerKollar
#9254
üzenetére
Van egy két oldal aki már kalkulál árakkal.De még közel sem biztosak. Mivel ez egy találgatós topik,így talán lehet beszélgetni ezektől is.Amúgy nem hinném,hogy a 390X esetében annyira nagy mellélövés lenne a 215.000 ár(600$). De ezek még csak találgatások,még az AMD nem mond semmit.
Abu talán jobban tudja,de ő meg nem beszélhet róla.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
proci985
MODERÁTOR
egy eszrevetel:
amig kitalaljak mi lesz a GTX970el, addig visszaraktam a hd3870et a gepbe, "ez legalabb ad kepet addig is" alapon.
anno emlekszem, hogy csomo jatek gyengen futott alacsony gpu terheles mellett is. tegnap megneztem a supreme commandert, 3840x1080@low mellett 30 fps, kartya 60%ot megy, minden mas limit kizarva, proci kb 75%al erosebb egy szalon mint az akkori csucs qx9770, NB nem foghajta meg (alapproblema volt s775on), mem savszel is kb a negyszerese az akkor platformoknak. igazabol nem tudom mitol van, de anno par jatek csinalta. es kizart, hogy vegyeslimites legyen, mert akkor a GTX970 se mehetett volna 60fpssel (meg elotte a 6950 es a 7850ek).
borderlands 1 tekeri 100%on mondjuk.
szoval R600/670 idoben azert AMDnel is voltak bajok. arrol nem is beszelve, hogy flash videok megint nem mennek rendesen (kb minden masodik driverrel keptelen volt a 3870 normalisan lejatszani oket feketedes nelkul, a 6950/7850/7850CF szinten nem volt erintett). olyan szempontbol mondjuk jo, hogy en voltam az, akinek kb semmi baja nem volt a multimonitor + CF komboval. emlekszem mit szivtunk a driverekkel akkoriban, volt nekem is dualbootom tesztelni a drivert mielott ment az eles rendszerre... hala engek ennek mar vege, erre mar nem lennek hajlando.
--- [es most valasz valami egesz masra
]370 biztos nem fogja beerni a 980at. a Maxwell nagyon jol sikerult minden szempontbol*, ha olyan 20% kulonbseg lenne a 370-380-390 kozott az mar kb azt jelentene, hogy a 390 nemi kompromisszummal/FC blokkal es tuninggal egyedul mar eleg lenne 4Kra.
* a 980 egyetlen baja az ara, egyebkent kb minden szempontbol kiegyensulyozott, kerek es bivalyeros kartya. a 970 is zsenialisan jo lenne, ha nem piszkaltak volna meg a crossbart, en meg nem akartam volna 5760x1080ra hasznalni. nem tudom mi lesz jatekokban 1-2 ev mulva, de utobbi 5 evet elnezve nem lehet egyik naprol a masikra atkepezni a programozokat, szoval mire az architekturaja miatt problemas lenne, mar a teljesitmenye is elavult lesz szvsz.
---
btw viszont ha a 390x rahuz 20%ot a GTX980ra hasonlo fogyasztas mellett, akkor az multimonitor / 4kra eleg jol hangzik.
--
innovacios tekintetben egyebkent van bleeding edge es cutting edge. a multimonitor tamogatas pl cutting edge volt, mantlet en inkabb bleeding edgenek ereztem (en pl egy jatekkal nem jatszottam kb egy ev alatt, aminel tudtam volna hasznalni a 7850ekkel).
-
Abu85
HÁZIGAZDA
Ez tévedés. A kettő nagyon összefügg. A fejlesztők mindig kiválasztanak egy domináns architektúrát, amelyre megéri kutatni. Ez most a GCN, részben a konzolok miatt, részben pedig azért, mert dokumentált és van disassembler is hozzá, és persze nem lehet amellett elmenni szó nélkül, hogy azt a stratégiai szerepet, amit az NV betöltött a G80 időkben, most az AMD tölti be, részben azért, mert az NV elzárkózott.
A kutatások szempontjából ott a StarSwarm, ami először mutatta meg, hogy milyen a magas többletterhelés nélküli jövőkép. Idén lesz egy új példaprogram, ami a GPU-limit megszüntetésére helyezi a hangsúlyt, és ott lesz a VR. Utóbbiról maga az Oculus programozója mondta, hogy az AMD megoldása az etalon. Ezek a váltások három alapra épülnek: tudás, nyíltság és igények kiszolgálása. -
ez mind nagyon szép, viszont ez a post a partneri stratégiáról beszél, eddig pedig a műszakiról szólt a csevej. a kettő elég jól függetleníthető egymástól - ott találkoznak, hogy mindkettőt az üzleti célokból érdemes levezetni, amúgy nem nagyon. megismétlem - az architektúrában hozott innovatív döntéseket egyelőre semmilyen eredménnyel nem sikerült alátámasztani. sem FPS-ekkel, sem USD-kkel

-
stratova
veterán
válasz
demmer123
#9245
üzenetére
Bocs, hogy belevau. Attól függ mely típusok, a HBM-es zászlóshajóra nem nagyon lehet számítani 2015 Q2-nél korábban, de ami a jelenlegi csíkszélességen vagy/és GCN verzióval elérhető (pl Tonga) esélyesen márciusban beköszönthet.
Szvsz R9 370-nek GTX 960-at, míg R9 370X-nek GTX 960 Ti-et illene befogni (előbbi R9 285 alapján kb. teljesül is), míg az R9 380/380X párost 970/980 szintre kellene gyúrni, itt én még találgatni sem mernék GCN 1.1 órajelemelés vagy GCN 1.2 lesz-e.
-
Malibutomi
nagyúr
válasz
zimi1991
#9238
üzenetére
Kicsit től optimista vagy nem?
A 370X (amennyire tudjuk) a full Tonga lesz, vagyis a 285X. Az a 960-970 közé tud beülni
Jóesetben, ha az AMD tényleg hozza ezt a terveket, akkor a Grenada 380-970, 380X-980 szinten lesz. A 390X Fiji pedig mehet a 980Ti ellen.Szerintem ez a reális kb.
-
Abu85
HÁZIGAZDA
Az miért fontos egy felhasználónak? Egy cég tegyen értünk, ne mi tegyünk a cégért. Aki úgy gondolkodik, hogy tartozik egy gyártónak az nem normális világnézetet vall, mert saját érdekeit helyezi a háttérbe. Persze lehet építeni a birkákra is stratégiát, a világ minden táján, sőt hazánkban is láthatjuk, hogy ez az irány sikeres.

-
Abu85
HÁZIGAZDA
Nézd meg hova jutottak. Biztos emlékszel még az R600-as időkre, és utána. Az EA, a Square Enix, a Capcom, a SEGA, mind az NVIDIA partnerei voltak. Ma egyik említett cégnek sincs szerződése az NVIDIA-val, és mindegyik cég az AMD-vel fejleszt. És ebből ma mi látszik? Az AMD Gaming Evolveden belül érkezett játékok jól optimalizáltak. Ezzel szemben az NV-nek maradt az Ubisoft és a Warner, mert belőlük az AMD sem kér. Kapott a piac Watch Dogs-ot, AC: Unity-t, most Dying Lightot, amelyek abszolút nem erősítik meg arról a usert, hogy PC-s játékosnak lenni jó.
Az AMD a stratégiájával az összes olyan kiadót maga mellé állította, akik képesek optimalizált PC-s portokat lerakni az asztalra, míg meghagyták az NV-nek a csőcseléket. Mi ez ha nem eredmény? -
csak pár dolog a teljesség igénye nélkül:
- egyszerűsített scheduler (a Keplerben a compilerbe pakoltak át egy csomó latency hidingot)
- szétszedett setup (ez még Fermi) - ez önmagában talán nem csökkent, viszont megágyaz egyebeknek
- priorizált adatutak a crossbarban (ugye ebből fakad a 970-es probléma, de maga az ötlet nagyon jó)
- a Maxwell SM-ben több olyan feature van, ami a "lekapcsolható" core-ok számának maximalizálására törekszik
- ill. mindegyik architektúránál beszélnek tranzisztor-szintű fogyasztási optimalizálásokról, aminek a részleteit nem kötik az orrunkra
nyilván az nVidia az ultramobil szinergia miatt priorizálja ennyire a fogyasztást, ezt nem is vitatja senki (még a whitepaperekben is leírják ezt, btw.). viszont egyre inkább abba az irányba mutatnak a hszeid, mintha az nVidia csak és kizárólag funkcióvesztéssel érne el jobb perf / wattot (amiből az következik, hogy ezt az AMD is bármikor meg tudná tenni, ha akarná) - ez viszont egy óriási tévedés.
amúgy az AMD stratégiája nekem is szimpatikusabb lenne, ha képesek lennének normálisan végrehajtani, ld. még lejjebb.
(#9233) Abu85: igen, a technológiai iparágakban mindenhol így működik az innovátor / követő modell. a hangsúly a részben szón van - az AMD bedob egy csomó újdonságot, amiből a konkurensek 1-2 generációval lemaradva válogatnak. ennek úgy kellene lefordulnia a gyakorlatban (ue. akkor lenne hatékony az innovátor szerep), hogy az AMD az újdonságaival az adott generációban szanaszét rúgja a konkurencia seggét. ezt hiányolom 2010 óta.
-
HSM
félisten
Véletlenül sem gondoltam hülyének egyik céget sem.
Csak az AMD stratégiája tetszik, az Nv-é pedig nem. 
(#9236) Ghoula: X86 licenszük/processzoruk szerintem nekik sosem volt, csak busz-licenszük, amivel a régebbi Intelekhez tudtak csipszeteket eszkábálni.
Amúgy inkább az ARM/Mobil piac van a háttérben, no meg ezekszerint (thx Abu) a felhő.
-
Ghoula
senior tag
Teljesen más a két cég stratégiája, ez nagyon jól látszik a GPU-k felépítéséből, AMD bonyolult vasat ad, tessék, programozd, míg NV a jelenleg szükséges minimumra lő, ne akard programozni, majd mi adunk rá kódot, használd azt.
Nem véletlen mozdult el abba az irányba NV, mikor bukták az x86 licenszet, kénytelenek voltak ARM felé nyitni, abba szegmensbe meg ez kell.
Aztán lehet rosszul gondolom, Abu biztos mélyebben rálát ezeknek a dolgoknak a hátterére, majd megcáfol ha nem így van.
-
Abu85
HÁZIGAZDA
Azért hozzá kell venni azt a stratégiát is, hogy az AMD-t elsődlegesen ennek a piacnak a fennmaradása érdekli, míg a többi másodlagos. Az NVIDIA listájának tetején a mobil és a felhő áll, és a PC a másodlagos.
A tervezési koncepciók csupán ezt reprezentálják. Ha az AMD-t is annyira érdekelné a mobil és a felhő, mint az NVIDIA-t, akkor nekik is olyan architektúrájuk lenne, amelyet az energiahatékonyságra gyúrtak ki, mert az kis fogyasztást jelent és például olcsó fenntartani a felhőt. Ugyanez fordítva, ha az NV-t komolyan érdekelnék az olyan PC-s irányok, mint a VR vagy a 4K, akkor ők is máshogy tervezték volna az architektúrát. Szóval ez fókuszkülönbség. Egyik cég sem hülye, csak más prioritások szerint dolgoznak. -
HSM
félisten
Mire gondolsz fogyasztáscsökkentő megoldásként, ami nem ment a tudás rovására a Keplerben, Maxwellben?

Én abból indultam ki, hogy olyasmiket tudok (hasznos dolgokat is), amit a GCN tud, és a Maxwell sem, nemhogy az elődei, de olyat nem, amit a Maxwell tudna, de a GCN nem. Persze, rá lehet fogni, hogy úgysincs kihasználva, meg hasonlókat, de azt azért nem árt látni, hogyha be sem épülnek dolgok, akkor nem fog az ipar sem fejlődni.
Nyilván az AMD is kidobhatná a belső buszait, +kidobhatna pár funkciót a GCN-ből, és csinálhatna egy hasonló fogyasztású cuccot, mint a Maxwell, de szerintem ennek pont semmi értelme nem lenne. Az Nv ultramobil irányba indult el, érdekes, hirtelen az asztali GPU-ikba is mennyire fontos lett az energiatakarékosság (insert troll face here), az AMD pedig abba az irányba, hogy hogyan lehetne tovább okosítani, illetve hatékonyabbá tenni a már meglévő architektúráját.Nekem 100X szimpatikusabb az AMD üzleti modellje, stratégiája, persze, el tudom fogadni, ha mások nem így gondolják.

-
Abu85
HÁZIGAZDA
Vegyük a Tahitit. Az első hardver volt, ami támogatta a bindless modellt, az erőforrások korlát nélküli kezelését, a stateless compute képességet, az aszinkron DMA lehetőséget, a PRT-t.
A bindless modellt az NV-nél a GK204 vezette be, míg az aszinkron DMA lehetőséget a GM204.
A PRT főbb képességeit a GK204 részlegesen, míg a GM204 teljesen támogatja.
Az erőforrás-kezelés szempontjából nő limit: SRV: Fermi->Kepler-Maxwell esetében 128->1024768, UAV: Fermi/Kepler/Maxwell1->Maxwell2 esetében 8->64 ... nyilván nem korlát nélküli, de látszik az irány.
Később lesz a konkurensek oldalán is stateless compute, és a többi dolog, amit a GCN bevezetett. Ennek az architektúrának a képességei után mennek a konkurensek és másolják le azokat, részben vagy teljesen. -
ez az állítás egyrészt már önmagában sem igaz (stratova leírta, hogy miért), ill. ezen felül mind a Kepler, mind a Maxwell tartalmaz számos olyan fogyasztáscsökkentő megoldást, ami nem megy a tudás rovására.
(#9230) Ghoula: onnan indultunk, hogy túl sokszor hangzik el itt a pH!-n, hogy a GCN fejlettebb. pont arra reflektáltam, hogy ezt így általánosságban nem lehet kijelenteni.
-
stratova
veterán
Azért azt lássuk be, ha egyes - a legtöbb játék által jelenleg ki nem használt - funkciók elhagyásával/csökkentésével (pl. dupla lebegőpontos számítási teljesítmény) javítható a teljesítmény/fogyasztás arány, akkor az szépen meg tudja dobni az eladásokat, mert gyorsabb modellek hozhatók ki azonos keretből és kisebb fogyasztást lehet elérni azonos teéjesítmény mellett, ami asztali és mobil GPU-kanak egyaránt kedvező. Ezzel azért ügyesen játszik Nv. Ahova pedig kell a dupla lebegőpontos kraft, Keplert frissített (aztán most lassan érkezik GM200).
Ha már benragadt egy generáció erejéig mindkét gyártó a 28 nm-en ott ügyeskedni kell, Nv egyik irányba ment, AMD a másikba, de utóbbi gyártónak jó esetben mentőöv a CPU-GPU "közelítése" és látszólag nincs kapacitás arra, hogy egy kifejezetten teljesítmény/fogyasztás és egy "okos" lapkát dolgozzanak ki párhuzamosan. -
Ghoula
senior tag
válasz
Laja333
#9217
üzenetére
Igazából lényegtelen, csak arra próbáltam rávilágítani, hogy 2-300 Mhz kisajtolása nem földtől elrugaszkodott elképzelés.

Ez utóbbit eléggé elképzelhetetlennek tartom. Ha tovább bonyolítják, még nehezebb a magas órajelet elérni. Maxwell pont ezért jó, mert a jelenleg szükséges minimum van benne tudásilag, emiatt nincs felesleges fűtés,órajel magas.
Van most olyan szoftver,nem benchmark, ahol a tesszeláció sebessége limitál? -
Laja333
őstag
Nem ln2-st néztem, hanem légest. Haswell 4,6 körül megállt, Canyon meg 4,7. De ez részletkérdés.
Egyébként ha tényleg kapna egy frisebb GCN-t, ( ami már tényleg nem csak kisebb finomhangolás ) akkor lehet még annyit sem kell növelni az órajelén. Gondolok itt pl a tesszellációra. -
válasz
Laja333
#9212
üzenetére
Csak apró finomítás kérdése...
![;]](//cdn.rios.hu/dl/s/v1.gif)
(Never gets old...
) -
Ghoula
senior tag
válasz
Laja333
#9212
üzenetére
De nem csak feszültség emeléssel lehet egy chipből többet kihozni, illetve egy kicsit áttervezett architektúrával nem csak az előző által kimaxolt órajelet érheted el alacsonyabb fesz-el. Pont a Devils canyonnal, hozzá sem nyúltak a chiphez, csak a pasztát cserélték, és pár smd kondit alápakoltak, hogy stabilabb legyen a tápellátás. És vietnámi chipekből könnyen (léghűtés és normális fesz) ki lehet hozni 5Ghz-et is, ami azért haswellnél 1 a 100ból.
Szerk: és ne csak max órajeleket nézz ln2-vel, hanem átlag tuning-okat, léggel, vízzel.
Sokat számít, hogy új gyár, új berendezések, szóval az a 2-300 Mhz nem egy olyan nagy tudomány, főleg ha a tervezőasztalig visszamennek emiatt.
-
Laja333
őstag
Azért itt olyan értékről beszélünk, amit fesz emeléssel sem tud elérni stabilan a legtöbb 290x. Na most ezt akarják alap órajelnek, amit még valószínűleg a bátor tulajok tovább is húzhatnak. Intelhez nem értek, de a Devil Canyonnál egy olyan órajelre húzták, amit alapból tud bármelyik Haswell és tuningban is kimerül kb 100 MHZ-el Haswell max fölött.
-
Ghoula
senior tag
válasz
Laja333
#9209
üzenetére
Lehet azért finomhangolással is nyerni Mhz-eket, hogy ne menjünk túl messze ott van a Devils Canyon.
Elvileg nem nyúltak a szilikonhoz, mégis könnyedén megy jobban mint a sima Haswell.
Emellett lehet a litográfián is tekerni, lásd új gyárban készülő vietnámi procik, vagy akár a nyákon pl tápellátás stabilizálásán. -
Laja333
őstag
válasz
daveoff
#9195
üzenetére
Ezt próbáltam kifejteni fentebb. Ahhoz hogy 2-300-al megemeljék, mialatt nem vagy minimálisan nő a fogyasztás (értsd 300 watt alatt marad) nem csak egy átnevezés kell vagy kis finomhangolás. Ott azért belenyúlnak rendesen. Már csak a Hawaii tuning potenciáljából kiindulva.
Ipon pl addig merészkedik a cikkben, hogy esélyes frissebb GCN-t jósol a Gerendának. És am kabbe, azóta mindig gerendának olvasom mióta leírtad.
-
demmer123
őstag
Mikor fog megjelenni az új radeon kártyák?Ezt írják második negyedévbe jelenik meg.
Szerintetek a radeon r9 390 sima mennyibe fog kerülni? 150-160ezer kb? Mivel az új 970/980 azért az árazásuk pont jó.
És ez a r9 380x a középkategória legerősebb kártyája? És az r9 390,390x érdemes full hd-ra venni ultrahoz vagy oda a r9 380x is elég lesz?
Tudom így nehéz tippelni is hogy nem jelentek még meg csak mivel az r9 290 leszeretném majd cserélni egy r9 390re ha 130-140körül lesz.
-
HSM
félisten
A preempció nem elsősorban a játékok, inkább a VR miatt fontos, bár nem tartom elképzelhetetlennek, hogy más jellegű dolgokra is hasznos lehessen, pl. számolhat extra procedurális fűszálakat a GPU egy jelenetbe, amíg nem érkezik fontosabb feladat.
A perf / watt az nem fejlettségi, hanem hatékonysági mutató szvsz. Igazad lesz, a Tahiti is DP1.2-es. De ettől függetlenül nem gondolom, hogy ez egy túl nagy update lenne, hogy működjön.
Írtam, hogy fogyasztás terén jobb lehetne, de azért közelsem lenne olyan drámai előrelépés, mint amilyennek a HBM ígérkezik.

-
daveoff
veterán
válasz
Malibutomi
#9204
üzenetére
Ja, tényleg, Gerenda...
Igazad van!Persze, ez benne van, hogy semmi köze a valósághoz, de ezért is találgatós topik a neve, hivatalos infóig mi döntjük el mi lesz...

-
daveoff
veterán
válasz
Malibutomi
#9202
üzenetére
Szerintem a 290X, és a 980 között kisebb a különbség, mint a 7970, és a 780 között volt. Vagy rosszul emlékszem? De tényleg érdekes lesz, ha ezt összehozzak. Én nem nézek ki a 290X-ből +300MHz-et, még a +200MHz is necces ismerve Hawaii-t, annyi meg legalább kellene, hogy partiban legyenek.
(#9201) -Solt-: +20-30% órajelért +30-40% felár, vagy még több.....

-
Malibutomi
nagyúr
Engem nagyon érdekel,hogy ezt összehozza-e az AMD.
Attól függetlenül hogy a maxwell féle energiatakarékossági ugrás mellett nem tünik nagy dolognak, ez olyan mintha a 7970-ből olyan 280X lett volna ami a 780-al hadakozik. Érdekes na.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- GYÖNYÖRŰ iPhone 13 256GB Pink -1 ÉV GARANCIA - Kártyafüggetlen, MS3209, 94% Akkumulátor
- Bomba ár! Dell Latitude E6220 - i7-2GEN I 8GB I 128SSD I 12,5" HD I HDMI I Cam I W10 I Garancia!
- GYÖNYÖRŰ iPhone XR 64GB Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3117
- Asus ROG G20AJ - Intel Core i7-4790, GTX 980 + eredeti doboz
- BESZÁMÍTÁS! ASUS H510M i3 10105F 16GB DDR4 256GB SSD 1TB HDD GTX 1660 SUPER 6GB Zalman T4 Plus 450W
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest



de amúgy nem kizárható - nem tudjuk, hogy milyen lesz a backend felépítése, és azt sem, hogy a Hawaii-ban mennyire overkill a 64 ROP. ha megint a 2 hatványa kell legyen a ROP-ok száma, akkor nem kizárt, hogy emelik a tétet.




A Mantle előnye másban volt szerintem.
Nézd inkább az R9 M295X-et.
De én úgy gondolom, nem az AMD "nem tudja" előnyre váltani, hanem a piaci viszonyok nem teszik számára lehetővé, hogy megtegye.

![;]](http://cdn.rios.hu/dl/s/v1.gif)


