-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Ez tévedés. A kettő nagyon összefügg. A fejlesztők mindig kiválasztanak egy domináns architektúrát, amelyre megéri kutatni. Ez most a GCN, részben a konzolok miatt, részben pedig azért, mert dokumentált és van disassembler is hozzá, és persze nem lehet amellett elmenni szó nélkül, hogy azt a stratégiai szerepet, amit az NV betöltött a G80 időkben, most az AMD tölti be, részben azért, mert az NV elzárkózott.
A kutatások szempontjából ott a StarSwarm, ami először mutatta meg, hogy milyen a magas többletterhelés nélküli jövőkép. Idén lesz egy új példaprogram, ami a GPU-limit megszüntetésére helyezi a hangsúlyt, és ott lesz a VR. Utóbbiról maga az Oculus programozója mondta, hogy az AMD megoldása az etalon. Ezek a váltások három alapra épülnek: tudás, nyíltság és igények kiszolgálása.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
egy eszrevetel:
amig kitalaljak mi lesz a GTX970el, addig visszaraktam a hd3870et a gepbe, "ez legalabb ad kepet addig is" alapon.
anno emlekszem, hogy csomo jatek gyengen futott alacsony gpu terheles mellett is. tegnap megneztem a supreme commandert, 3840x1080@low mellett 30 fps, kartya 60%ot megy, minden mas limit kizarva, proci kb 75%al erosebb egy szalon mint az akkori csucs qx9770, NB nem foghajta meg (alapproblema volt s775on), mem savszel is kb a negyszerese az akkor platformoknak. igazabol nem tudom mitol van, de anno par jatek csinalta. es kizart, hogy vegyeslimites legyen, mert akkor a GTX970 se mehetett volna 60fpssel (meg elotte a 6950 es a 7850ek).
borderlands 1 tekeri 100%on mondjuk.
szoval R600/670 idoben azert AMDnel is voltak bajok. arrol nem is beszelve, hogy flash videok megint nem mennek rendesen (kb minden masodik driverrel keptelen volt a 3870 normalisan lejatszani oket feketedes nelkul, a 6950/7850/7850CF szinten nem volt erintett). olyan szempontbol mondjuk jo, hogy en voltam az, akinek kb semmi baja nem volt a multimonitor + CF komboval. emlekszem mit szivtunk a driverekkel akkoriban, volt nekem is dualbootom tesztelni a drivert mielott ment az eles rendszerre... hala engek ennek mar vege, erre mar nem lennek hajlando.
--- [es most valasz valami egesz masra]
370 biztos nem fogja beerni a 980at. a Maxwell nagyon jol sikerult minden szempontbol*, ha olyan 20% kulonbseg lenne a 370-380-390 kozott az mar kb azt jelentene, hogy a 390 nemi kompromisszummal/FC blokkal es tuninggal egyedul mar eleg lenne 4Kra.
* a 980 egyetlen baja az ara, egyebkent kb minden szempontbol kiegyensulyozott, kerek es bivalyeros kartya. a 970 is zsenialisan jo lenne, ha nem piszkaltak volna meg a crossbart, en meg nem akartam volna 5760x1080ra hasznalni. nem tudom mi lesz jatekokban 1-2 ev mulva, de utobbi 5 evet elnezve nem lehet egyik naprol a masikra atkepezni a programozokat, szoval mire az architekturaja miatt problemas lenne, mar a teljesitmenye is elavult lesz szvsz.
---
btw viszont ha a 390x rahuz 20%ot a GTX980ra hasonlo fogyasztas mellett, akkor az multimonitor / 4kra eleg jol hangzik.
--
innovacios tekintetben egyebkent van bleeding edge es cutting edge. a multimonitor tamogatas pl cutting edge volt, mantlet en inkabb bleeding edgenek ereztem (en pl egy jatekkal nem jatszottam kb egy ev alatt, aminel tudtam volna hasznalni a 7850ekkel).
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
Televan74
nagyúr
válasz KillerKollar #9254 üzenetére
Van egy két oldal aki már kalkulál árakkal.De még közel sem biztosak. Mivel ez egy találgatós topik,így talán lehet beszélgetni ezektől is.Amúgy nem hinném,hogy a 390X esetében annyira nagy mellélövés lenne a 215.000 ár(600$). De ezek még csak találgatások,még az AMD nem mond semmit.
Abu talán jobban tudja,de ő meg nem beszélhet róla.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
nagyúr
most akkor olvasd újra a postodat, és mutass rá, hogy mi szerepel benne, ami a GCN műszaki tartalmával kapcsolatos van a VR, ami még igen távoli, azon felül csak piaci lefedettségről és partner-stratégiáról írsz.
leírom még egyszer, mert egyetlen szó cáfolatot nem láttam még rá: az architektúrában hozott innovatív döntéseket egyelőre semmilyen eredménnyel nem sikerült alátámasztani - sem FPS-ekkel, sem USD-kkel.csak hogy on is legyen, ismét hangot adok azon reményemnek, hogy a HBM változtatni fog ezen a trenden.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Az, hogy a GCN-en mindenkinél egy évvel korábban futtatták a Nitroust úgy, hogy nem halt meg RTS módban egy műszaki előny. Ma már a szoftver kéz a kézben jár a hardverrel. Számtalan műszaki előny van még, amely idén fókuszt kap. Például az aszinkron compute/DMA, amik az egyik legfontosabb újítások lesznek, hiszen végre nem kell GPU-limitet kiáltanunk akkor, ha a hardver számítási kapacitásának csak a 20-40%-a van kihasználva, mint ahogy az manapság nagyon jellemző.
A VR nem olyan távoli jövő már. Számtalan szoftveres és hardveres probléma van, amit meg kell oldani, de a GDC-n fel lesz vázolva, ezek jó részére egy-egy GCN-en működő megoldás. Persze a szabványos megoldásokra még várni kell, de az Oculus ezekre már építhet, amikor kiadja az első VR eszközét.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-Solt-
veterán
Valahol mintha azt láttam volna, hogy Q2 második fele.
dammer123-nak ment...
[ Szerkesztve ]
www.smart-bus.hu
-
nagyúr
a Mantle-t ugyanúgy meg lehetett volna csinálni a Kepleren is (mint ahogy a DX12-es build már megy is rajta), tehát a Nitrous sztori megintcsak független a műszaki tartalomtól. a többi téma pedig ismét a lesz, lesz, lesz műfaj. én kézzel fogható konkrétumot szeretnék látni (FPS) - ha ilyen lesz, akkor majd jön az USD is
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Miért csak az FPS-ben lehetnek konkrétumok? Ott a folyamatosság, a minimum sebesség, vagy a képminőség. Minimum sebességben láthatod az előnyt: [link], [link] A folyamatosságot ebből ki lehet találni. Aztán ott a Civilization BE. Mantle alatt van SFR több GPU és jobb az élsimítás minősége a fedettségminták miatt. A Sniper Elite 3-ban is jobb minőségűek maradnak a textúrák a stream algoritmus miatt a DX11 módhoz képest.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
A tranzisztorszintű (+HDL) optimalizálás az AMD-nél is megvan folyamatosan. PL. HDL-ben tudtommal manapság a Tonga a legerősebb GPU, ott tudták a legnagyobb tranzisztorsűrűséget elérni. Ez kapásból fogyasztásra is hat, rövidebb "vezetékek"-->kisebb fogyasztás.
A priorizált adatutak helyett én úgy egyben kezelném, hogy áttervezték az egész memória-szervezését, elérését a GPU-nak. Ennek a fogyasztásra nagyon jó hatása van, kérdés, nem-e fog más területeken kevésbé előnyösen hatni. Ennyire sajnos nem látok bele a GPU-k lelkébe, de az eléggé nyilvánvalónak látszik, hogy így azért kevésbé rugalmas rendszerről beszélünk.Ezt jól látod, én úgy gondolom, hogy a fogyasztás drasztikus csökkentése azonos technológia mellett csak a funkcionalitás megnyirbálásával lehetséges, lásd pl CISC vs RISC architektúrák. Ugyanez volt fordítva a Fermi Cypress esetében, ott a Fermi volt egy nagyobb tudású, bonyolult csip hatalmas fogyasztással, a Cypress pedig egy kisebb, hatékonyabb, de kevésbé robosztus megoldás. Ott konkrétan 3 év alatt sem volt ebből szerencsére semmi gondom, de nem véletlen lépett tovább az AMD egy másmilyen szervezésre. A sors furcsa fintora, hogy most az Nv kezdte el kidobni a fogyasztókat a csipjéből.
"az AMD az újdonságaival az adott generációban szanaszét rúgja a konkurencia seggét. ezt hiányolom 2010 óta."
Itt az a bibi, hogy az AMD nem elég ehhez. Szoftverek is kellenek, ahhoz pedig szoftverfejlesztők. Márpedig a szoftverfejlesztő sem hülye, neki akkor buli az egész, ha Nv-re is el tudja adni a szoftverét. Márpedig ha az AMD-n seggszétrugósan megy, Nv-n pedig döcög, ott a PC-s gamer társadalom legalább fele igencsak zabos lenne, ami nem igazán tenne jót az eladásoknak. Ez némileg meg is magyarázza, miért nem látunk seggszétrúgást, olyan helyeken sem, ahol egyébként láthatnánk, gondolok pl. a Mantle-re. Ettől függetlenül meg kell jegyezzem, a sokak által ledegradált Mantle pl. BF4-ben olyan játékélményt adott, amit réges rég nem tapasztaltam egyetlen DX-es FPS-ben sem. -
HSM
félisten
Közvetlenebb, gyorsabb az egész. Ha megmagyarázni próbálnám, akkor arra gondolnék, hogy szignifikánsan csökkent az input lag. Gyors célzásoknál nagyon kijött a difi. A legviccesebb, hogy mindezt úgy, hogy Mantle alatt átlagosan kb. 10-el kevesebb FPS-em volt, mint DX-ben, mivel DX-ben mindenhol 70+ FPS-hez le kellett vegyem High-ra (Dx Ultrán pl, Shanghai be tudott lesni 50-es mélységekbe is, miután ledőlt a torony), Mantle-t pedig Ultrán toltam (+4X-es MSAA), mert úgy már simán bírta, de azzal a nagyjából 10-el kevesebb FPS-el.
[ Szerkesztve ]
-
daveoff
veterán
A BF4 Mantle kód valóban jobb a DX-nél, ha AMD használsz, de nincs olyan eget rengető különbség, mint amiről Te beszélsz, a min FPS valóban határozottan jobb, de másban nincs radikális előrelépés. NV-vel a DX kód meg ugyanolyan jó, mint a Mantle, ha nem jobb....
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
HSM
félisten
válasz daveoff #9266 üzenetére
Nekem SEMMI bajom nem volt DX alatt a minimum FPS-el, mint írtam, átlagosan 10-el jobb is volt a kisebb grafikai minőség végett a DX.
De ne menjünk bele újra ebbe a parttalan vitába. Kérdezte a fórumtárs, mit tapasztaltam, és én bizony ezt."NV-vel a DX kód meg ugyanolyan jó, mint a Mantle, ha nem jobb...."
Hát hogyne. Úgy tűnik, ezt nem tudta a Dice, mikor lefejlesztették a Mantle kódot.[ Szerkesztve ]
-
daveoff
veterán
A számok magukért beszélnek, ha tudod máshogy bizonyítani az igazad, azt szívesen elfogadom! De ez, hogy érzésre jobb, meg ilyen városi legendák, inkább hagyjuk is, igazad van.....
Több embernek van NV kártyája, gondolod, hogy a DICE őket leszarja.....?
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Abu85
HÁZIGAZDA
A DICE két dolog miatt indult el a low-level irányba. Egyrészt nem tudtak mit kezdeni azzal, hogy az olyan alapvető dolgok, amelyeket nem lehet megkerülni (például allokált memóriatartalom törlése, szükségszerű shader újrafordítás, állapotváltások többletterhelése, hazárdok lekövetése, memóriamásolások), extra késleltetést vagy akadást okoznak, amely ronthatja a játékélményt. Másrészt az a programozási modell, amit a DX11 rájuk kényszerített teljesen lekorlátozta a kutatásaikat, mert nem tudtak közvetlenül hozzáférni a videomemóriához.
Az fontos, hogy a DICE senkivel senkinek sem akar rosszat, csak az évek során túl sok korláttal találták szembe magukat, amelyet a Frostbite 3-nál már nem tudtak egyszerre lenyelni.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
válasz daveoff #9268 üzenetére
A számok az AMD-s DX-en is rendben voltak, mivel csak High-on toltam. Én azt próbáltam itt átadni, hogy volt, ami a számokból nem jött át.
Nem városi legenda, hanem saját tapasztalat. Sajnos nem volt megfelelő technikai felszerelésem, hogy bármit is bizonyító erejűen dokumentáljak ebből, de ettől függetlenül a jelenség tapasztalható volt.Nem szarja le az Nv-seket a Dice, ott van nekik a DX mód, mivel Mantle azokon nincs.
[ Szerkesztve ]
-
stratova
veterán
válasz daveoff #9268 üzenetére
Szerintem ahhoz egy késleltetésdiagramot kellene mérnie DX11 és Mantle kód esetére azonos beállítások mellett, ami ha nem tévedek azért nem két perc. Nem gyakran csinálnak ilyet a fórumtársak (bár páran igen).
[ Szerkesztve ]
-
nagyúr
Az mondjuk igaz hogy az nVidia az utóbbi időben ráfeküdt a CPU overheadre... és vannak arra utaló "nüansznyi" jelek egy két specifikus tesztben amik ezt alátámasztják.
Szóval ilyen téren, ha nem is Mantle szintű, de valamekkora eltérés lehet a javukra az AMD normál DX drivereivel szemben.
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
nagyúr
... és már át is siklottunk ismét valami másra a HW-ről
amúgy persze, folyamatosság über alles - mondjuk a pontszerűen mért minimum-FPS-ek nem túl reprezentatívak, de azt elhiszem, hogy a SE3 folyékonyabb Mantle alatt. a Thief vszleg mindegy. a Civ-ről korábban már beszéltünk, nekem is tetszik, amit csináltak benne. és ez mind szoftver, amit ugyanúgy lehetne Kepleren / Maxwellen is csinálni.
(#9263) HSM: a tranzisztorsűrűség minimális hatással van a fogyasztásra - még azt sem tartom kizártnak, hogy nem csökkenti, ugyanis szűkebb helyen jelentkezik ugyanaz a hőtermelés. az R9 285 amúgy is rossz példa, mert a fogyasztása siralmas.
Ezt jól látod, én úgy gondolom, hogy a fogyasztás drasztikus csökkentése azonos technológia mellett csak a funkcionalitás megnyirbálásával lehetséges.
akkor sztem jobb, ha abbahagyjuk a témát. with all due respect, ez óriási butaság. pont az előbb soroltam fel pár fajsúlyos dolgot....
Itt az a bibi, hogy az AMD nem elég ehhez.
az volt az alapvető felvetésem, hogy az architektúrás innovációt az AMD nem tudja kézzelfogható előnyre váltani. ezek szerint egyetértünk?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
namaste
tag
Fogyasztás-tudás témában több érv elhangzik, amelyek nem valósak:
-általában ha valamely funkcióhoz több tranzisztor kell, de azt valami miatt nem használjuk, akkor az nem fogyaszt jelentősen többet,
-dupla pontosságú számítások többet fogyasztanak. Igen, ha használjuk, de játékokban nem jellemző. A Hawaii hiába rendelkezik több DP számolóval, ha nem használjuk nem fogyaszt,
-UAV csak egy szoftveres absztrakció, a GCN és a Fermi/Kepler/Maxwell is D3D11-ben max 8 UAV-ot használ, ez nem indokolja a többletfogyasztást.
Ami valós érv lehet:
-memória rendszer, belső busz: 512 bites külső memóriabuszhoz és a meghajtásához több vezérlő tranzisztor szükséges, amelyek terhelés alatt folyamatosan működnek,
-több memóriacsip többet fogyaszt (vagy nem, inkább a memória mérete a meghatározó).Még valami a fogyasztáshoz: a Green500-as listát egy AMD FirePro S9150-al (Hawaii) szerelt gép vezeti.
Még egy szempont, ha összehasonlítjuk a Keplert és a Maxwellt a fogyasztás-tudás alapján: a Maxwell többet tud, mégis kevesebbet fogyaszt.
Ha az AMD kihoz egy nagyon alacsony fogyasztású Fijit, akkor az AMD fanoknak lesz fontos a teljesítmény-fogyasztás arány, az NV fanok pedig ...
(#9240) gbors
"priorizált adatutak a crossbarban (ugye ebből fakad a 970-es probléma, de maga az ötlet nagyon jó)"
Szerintem nem jó ötlet, és nem ebből fakad a 970-es problémája. -
Abu85
HÁZIGAZDA
válasz namaste #9275 üzenetére
Az teljesen világos, hogy két nagy tényező van, amely nagyban meghatározza a fogyasztást. Az egyik az ütemezés. A GCN teljesen hardveres ütemezést használ, a wavefrontok szintjén OOO logikával. Az NV a Kepler óta félig szoftveres ütemezésű, és a feladatütemezés is in-order. A CUDA-ban vannak olyan lehetőségek, hogy az egyes warp-okat lehessen priorizálni.
A másik fontos tényező a belső adatbusz. Ez jelentős fogyasztáskülönbséget okozhat. A GCN egy nagyon széles belső ringbuszt használ, amivel minden egység összekapcsolódik, míg a Maxwell az ultramobil GPU-k irányelveit követve strukturált buszokkal dolgozik és nem minden egység van egymással összekapcsolva.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
válasz daveoff #9271 üzenetére
Én egy fórumtárs kérdésére válaszoltam, Te kötöttél bele.
Szerinted a High beállítással nem adtam elég előnyt a DX módnak? Nem is értem, mi van veled... Nyilván Ultra-n a DX-nek esélye se lett volna a Mantle-s 70-90FPS-el szemben 50-70-el.
(#9272) stratova: Szerintem nem ehhez van köze. Amúgy csináltam még DX-el ilyeneket, és rendben volt teljesen. Komplett meccseket értékeltem ki többféle pályán is utólag LOG-okból. A Mantle előnye másban volt szerintem.
(#9273) NetTom: Van bizony ilyen téren előny az Nv részére. PL. BF4-ben Nv-vel jó az FPS Ultrán is multiban DX alatt, míg AMD-n nekem már procilimitem volt több helyen is, ezért kellett vissza vegyem High-ra. A procilimit annak ellenére volt, hogy egy 4,4Ghz-re húzott i5 4690K volt a gépemben, 4*4GB 2133MHz-es rammal.
Ugyanakkor nem hiszem, hogy ez jelentős hatással lenne más paraméterekre, mint pl. a DX-mód input lagjára. Sőt, egyes források szerint az Nv 5 képkockával dolgozik előre, míg az AMD DX alatt csak 3-al, Mantle alatt 1-el, de ezt se megerősítő, se cáfoló bizonyítékot nem sikerült még hoznia senkinek.(#9274) gbors: Pedig a nagyobb tranzisztorsűrűség amellett, hogy valóban nehezebben hűthető csipet eredményez, rövidíti a vezetékhosszakat, aminek kapcsán csökken azok parazita-kapaciása, ami direkten csökkenti a csip fogyasztását. Ez tény.
A 285 szalmabáb érvelés, ugyanis én a Tonga GPU-t említettem, NEM a 285-öt, amire a selejtesebb csipek kerültek, atom túlfeszelve. Nézd inkább az R9 M295X-et.Már bocsánat, de pl. az ütemező compilerbe költöztetése pl. nem erős butítás? Dolgozzon a proci inkább többet az ütemezéssel? Vagy a belső erős ringbus helyett egy sokkal "korlátozottab" crossbar felépítés, ahol csak meghatározott utakon járhat az adat?
"az volt az alapvető felvetésem, hogy az architektúrás innovációt az AMD nem tudja kézzelfogható előnyre váltani. ezek szerint egyetértünk? "
Alapvetően igen. De én úgy gondolom, nem az AMD "nem tudja" előnyre váltani, hanem a piaci viszonyok nem teszik számára lehetővé, hogy megtegye.(#9275) namaste: Ha már tévedések...
" A Hawaii hiába rendelkezik több DP számolóval, ha nem használjuk nem fogyaszt,"
De fogyaszt. Mivel ott van a csipben a képesség, növeli a vezetékhosszakat, bonyolítja a logikát, ezenkívül kérdés, mennyire lehet/nem lehet kikapuzni a hozzájuk tartozó részeket, ha egyáltalán lehet.A memóriacsipes dolog valós. Legjobb tudomásom szerint a csipek száma és az órajel számít. Kérdés, melyik mennyire. Szerintem a Maxwell ebben is hoz jópár wattot.
A Maxwell-re sem írhatod, hogy "többet tud", mint a Kepler (feltételezem, a 780-akra gondoltál Kepler alatt) bizonyos szempontból többet, de más szempontból jóval kevesebbet. Pl. egyáltalán nem tud értékelhető duplapontosságot, mivel kihagyták az egységeket. Az sem véletlen, hogy HPC piacra nem Maxwell-t hoztak ki, hanem kicsit feltuningolt Keplert, a GK210-et. [link]
A priorizált adatutakban én is látok buktatókat, bár eddig a számok szerint jól teljesít.
(#9277) Abu85: Igen, pont itt látom a nehézségeket. Most DX11-ben tök jó ez a priorizált adatbusz móka, de mi van akkor, ha valami fejlesztő kitalál valami eljárást, amihez egy szokatlan egység részeredményére van szüksége egy másiknak? AMD-n látszólag ez nem okozhat gondot, hogy egymás adatait elérjék, míg Nv-n a megoldhatatlan kategóriát is súrolhatja.
-
válasz daveoff #9276 üzenetére
picit higgadtabban (meg a korabbiakra)
--
namost, ami errol a grafikonrol nem latszik, az az, hogy megis mit neztek latency alatt.
a problema az, hogy a frame latencyt lehet tobbfelekeppen merni. amit az afterburner mer, az a gyarkolatban nemi kepet kapni jo, viszont nem igazan azt meri, amit kene. ez az anandtech cikk ami melyebben belemegy a teruletre. de elotte tomsHW is foglalkozott melyebben a terulettel.
felreertes ne essek: lehet jo informaciokat neztek, lehet valid az eredmeny, de igy kontextusatol megfosztva ebbol a kepbol nem mernek mely kovetkezteteseket levonni.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
namaste
tag
A mobilt ne keverd ide, oda sokkal kisebb belső crossbar kell. K1-ben egy SMX, X1-ben két SMM van (plusz a processzorok, videó dekóder, display driver, egyéb I/O, memóriavezérlő: 2x32 bit).
(#9278) HSM
OK, többet fogyaszt, ha ott van a több DP egység, mintha nem lenne ott. De ez nagyon minimális többletfogyasztás, akkor fogyaszt sokat, ha meg is hajtod azokat.
Össze lehet hasonlítani a 780 és a TITAN játék közbeni fogyasztását a TITAN összes DP-egységének engedélyezése mellett. Mennyivel fogyaszt többet a TITAN bekapcsolt, de nem használt DP számolókkal?
Igen, GTX 780/GK110-re gondoltam. A "többet tud" arra vonatkozik amit Abu a #9233-ban írt, a funkcionális tudásra és nem a nyers erőre (több DP).
Nincs a Maxwellnek HPC változata, még. Lesz majd? Nem tudom.Szerintem nincsenek priorizált adatutak. Semmit se lehet vele nyerni.
-
HSM
félisten
válasz proci985 #9279 üzenetére
Én inkább ezt javasolnám: [link].
Ugyanis nem a sebességgel volt a baj DX-en, nem a sebesség ingadozott, vagy bármi ilyesmi, hanem az egér-képernyő kapcsolat lett sokkal direktebb Mantle alatt. Ahhoz pedig nem elég egy FCAT megmérni.
Ezt csak így lehetne lemérni rendesen: [link].
(#9280) namaste: Egyfelől igaz, leginkább akkor fogyaszt többet, ha meghajtod őket, ugyanakkor szvsz a puszta jelenlétük is jelentős plussz teher lehet. Itt nyilván nem mindegy, mennyire integrált része a számolónak, mennyire lehet letiltani, mennyivel növeli az egyéb áramkörök méretét. Az Nv-n ebből a szempontból jobb a helyzet, mivel tudtommal teljesen különálló "DP egységek" vannak.
Ez egy érdekes kérdés, mit nevezünk több "tudásnak". Erős a gyanúm, hogy a nagy Kepler sok-sok duplapontosságú számolójának a helyigényéből elég sok "fejlesztése" kijönne a Maxwell-nek.
Jelenleg nincs HPC Maxwell, de mindenképpen fura számomra, hogy a Kepleren egy ilyen komoly változtatást eszközöljenek, amikor már kinn az utódja. Erre nem tudok korábbról példát, hogy előfordult volna.
[ Szerkesztve ]
-
nagyúr
válasz namaste #9275 üzenetére
szerintem nem jó ötlet
bővebben?
a 970-es komment jogos, azt kellett volna írnom, hogy a "hivatalos álláspont szerint".
(#9278) HSM: dehogy szalmabáb, a Tonga jelenlegi egyetlen asztali megvalósulása a 285. a mobil chip adatai totál nem relevánsak.
szerintem majdnem mindent logikus a compilerbe költöztetni, ami statikus, és egyszer kell vele dolgozni, szemben azzal, ha folyamatosan realtime csinálnád.
nem az AMD "nem tudja" előnyre váltani, hanem a piaci viszonyok nem teszik számára lehetővé, hogy megtegye.
a kettő között semmi különbség nincs. egy jó innovátor rá tudja a piacra kényszeríteni az akaratát.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
igen, ez volt az eredeti cikk
jaja, a roundtripre mondjak, hogy alacsonyabb lehet. ugy emlekszem talan tomsnal pont emiatt vettek egy nagyfelbontasu kamerat es abbol epitettek adatokat. FCAT ugy nez ki ezek szerint megse tokeletes megoldas (anno vegigneztem a cikkeket, de magas lazzal inkabb nem probalok velemenyt formalni ).
--
Akkor némi elmélet: Kutatásban a minőséget -research quality- alapvetően két tulajdonsággal szokták jellemezni, amit még jellemzően kiegészítenek két további tulajdonsággal. Ha az adatokról beszélünk, akkor két tulajdonság fontos. Egyik a validity, avagy azt mérjük-e amit kell. A második a reliability, avagy mennyire pontosan mérünk.
Gyenge validity, de jó reliabilityre példának ott pl egy folyamatosan késésben lévő óra, ami konzekvensen nem a helyes adatot adja vissza.
Gyenge reliability, de jó validity pl a fürdőszobai mérleg, ami kb jó képet ad, csak elég nagy szórással.
--
Tehát ami miatt én egy képre nem alapoznék véleményt, az az, hogy nem tudjuk hogy jöttek ki a frametimeok (ismeretlen a validity) és nem tudjuk, hogy hány mérésből jött ki, mennyire stabil az eredmény (reliability). Vannak más faktorok is, de azok csak bonyolítanák a képet.
Don't dream it, be it. // Lagom amount.
-
namaste
tag
Ha az SMM-eknek van kitüntetett ROP/L2/MC egysége, az megbontja az egész rendszer szimmetriáját, főleg az SMM-ek letiltása esetén.
A működés során egy SMM egyforma eséllyel olvashat adatot mindegyik ROP/L2/MC egység felől, ilyen szempontból szimmetrikus.
Meggyőző lenne egy tesztprogram, ami bizonyítaná a priorizált adatutakat.Az NV hétfői válasza hihetően magyarázza a működését, a szombati az valóban mismásolós volt.
-
zimi1991
aktív tag
válasz Malibutomi #9246 üzenetére
Ha ez így lessz vagy lenne akkor megkímélem magamat a pénz kiadástól, mert semmilyen előre lépés nem lesz...
Igaz sosem volt oly mértékű, hogy hasra kelljen esniA privátokra illik válaszolni!
-
veterán
http://vr-zone.com/articles/new-details-surface-on-amds-upcoming-r9-370x-380x-390x-390x2-graphics-cards/86703.html
"Recently AMD confirmed that its R9 300 series GPUs will be launched in the second quarter of this year."
Reméljük is Már gyűlik a pénz a 390X-re, az első custom hűtősök közül venni kellene egyet Ha 150k, 150k, ha 210k 210kbár a 128 ROP-pal kapcsolatban azért szkeptikus vagyok
[ Szerkesztve ]
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
Crytek
veterán
válasz Menthirist #9288 üzenetére
Kíváncsi vagyok ki és melyik évben fogja elérni a gyári 1.5ghz órajelet
Next PC Upgrade: 2022
-
nagyúr
válasz namaste #9284 üzenetére
így van, megbontja a szimmetriát - feltételezem, hogy a scheduler figyel arra, hogy az SM minél nagyobb valószínűséggel a priorizált ROP-pal beszéljen (különben tényleg nincs értelme a dolognak). gyakorlatilag GPU a GPU-ban.
ill. a szűkebb csatorna a nem-priorizált backend blokkokhoz nagyobb adattranszferek esetén nem gond, mert a MC is csak 64-bites.igen, egy specifikus tesztprogramot én is szívesen látnék. a bizonyítás alatt arra gondolsz, hogy nem hiszed el, hogy léteznek ilyen utak, vagy másra?
(#9288) Menthirist: a 128 ROP-ot gondolom az 1024-bites buszból számolta ki valaki de amúgy nem kizárható - nem tudjuk, hogy milyen lesz a backend felépítése, és azt sem, hogy a Hawaii-ban mennyire overkill a 64 ROP. ha megint a 2 hatványa kell legyen a ROP-ok száma, akkor nem kizárt, hogy emelik a tétet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Malibutomi
nagyúr
Megnézegettem eredményeket 3dmarkban (persze egy teszt nem teszt de mégis), ott a hawaiinak kb 1150-1200mhz között kell mennie egy stock ref 980 eredményhez, és kb. 1250mhz egy giga g1 stock eredményhez.
Nem tudni miben más a gerenda mint a hawaii, a stock 980-at beérheti ilyen órajelekjel, de azt kétlem hogy maradna annyi tartalék mint a 980-ban. Persze lehet hogy CTC is tudnak javítani a hawaiihoz képest, de kiváncsi vagyok.
A saját eredményeket vetettem össze ezekkel:[link]
[ Szerkesztve ]
-
daveoff
veterán
válasz Malibutomi #9292 üzenetére
Ilyen szempontból csak a Graphics score-t érdemes nézni(PH! toplista), nekem a 290X 1225Mhz-en csinált 13269 pontot, a 980 pedig (alapon)1340MHz-en csinál 14232 pontot, konfig ugyanaz, tudok linkelni validot is. Tehát ha ezt be akarják, érni, és még tartalékot is karnak, akkor keményen meg kell emelni az órajelet. Kelleni fog az 1300MHz-es alap órajel, esetleg némi optimalizálással valamivel kevesebb is elég lehet.
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
veterán
Szerintem a 4096 GCN 1.2-es mag és 96 ROP reálisabb (bár nem tudom, hogy felépítésből adódóan kizárja-e a 96-ot valami, és hogy 64 után mindenképp 128-nak kell-e jönnie. 4 giga HBM memória és 256 TMU mellett (bár ezt sem tudom hogy tud-e/akar-e ekkorát ugrani)
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
Malibutomi
nagyúr
válasz daveoff #9293 üzenetére
Csak a graphics scoret néztem. A pontok egyénenként változóak, itt a tesztben 13900 volt a g1 eredménye, azt nálam a 290x olyan 1260 körül hozta de még tavasszal, szóval jó régi driverekkel. Ebböl saccoltam. De mondjuk úgy 1250 kell minimum hogy vetekedhessen a custom kártyákkal is.
Tényleg ha már szóbakerült, van bárhol olyan teszt, hogy egy húzott 980 mennyit fogyaszt?
[ Szerkesztve ]
-
daveoff
veterán
válasz Malibutomi #9295 üzenetére
Én úgy nézem, hogy legalább az az órajel kellene, amit a 980 tud, ez szerintem lehetetlen egy átdolgozott Hawaii GPU-val, de majd meglátjuk.
Még az 1250 talán ok, de azzal csak ott lohol a nyakán, ami végül is már elég is lenne, ha jó áron lesz. Csak a 980-ban még benne van legalább 200MHz tartalék...
Kíváncsian várom, az biztos érdekes lesz, ha egy ilyen kártyával állítanak konkurenciát a 980-nak.
Tesztet nem tudok, de lemérhetem neked.....
(#9297) tailor74: Na igen, a hűtés, nem lesz egyszerű megoldani. Lehet, hogy erre a GPU-ra szánják a kompakt vizet?
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
őstag
válasz Malibutomi #9295 üzenetére
Azt nem tudom elképzelni ezzel kapcsolatban, hogy hogyan fogják megoldani a hatékony hűtését ezeknek a kártyáknak?
A te lightning kártyád egy nagyon komoly hűtésű kari, ha annak viszik fel az órajelét alap 1300-ra, szerintem még annak is feladja a leckét...Nem beszélve a többi, kissé gyengébb konstrukcióról... Vagy megint üvölteni fog minden kártya?Nem tudom a gerenda mennyiben lesz más felépítésű, de nekem gyanús ez a hűtés dolog..
Aminek kerekei, vagy mellei vannak, azzal előbb-utóbb gond lesz.
-
Malibutomi
nagyúr
válasz tailor74 #9297 üzenetére
Hát valamit biztos okosítanak ha már újabb rav a chip más névvel. Mert ok hogy ugyanaz a tdp, de magasabb órajellel azért jobban is melegszik. Bár ha annyit tudnak csiszolni, hogy nem kell sok fesz az órajel eléréséhez akkor müködik a dolog.
(#9296) daveoff
Elég kicsit kevesebb órajel, CTC kicsivel a 290x ès a 780ti is erösebb mint a 980.De továbbra is úgy gondolom hogy tartalék nem lesz annyi bennük mint a 980-ban. Ahhoz csodát kellene tenni az amd-nek, hogy +300mhz hüthetöen még legyen a chipben(a hawaii átlagis elérhetö 1150-hez képest), mert akkor tudna OC vetekedni a 980-al.
Ha 1250-1300-at elérnek az is nagy dolog lesz, viszont akkor olyan dorrend alakulhat ki hogy 970-380-380x-980-390-980ti?-390x?[ Szerkesztve ]
-
Malibutomi
nagyúr
válasz Malibutomi #9298 üzenetére
Bocs teloról írok
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Egyre gyorsabban ügyködik saját HBM memóriáján Kína
- Eleglide C1 - a középérték
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Modern monitorokra köthető 3dfx Voodoo kártya a fészerből
- Energiaital topic
- Robogó, kismotor
- Nyíregyháza és környéke adok-veszek-beszélgetek
- antikomcsi: Való Világ: A piszkos 12 - VV12 - Való Világ 12
- MinDig TV
- OLED TV topic
- További aktív témák...
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- XFX RX 6600 XT SPEEDSTER SWFT 210