Új hozzászólás Aktív témák
-
HSM
félisten
válasz
FollowTheORI
#36641
üzenetére
Pont ezaz... A 12nm az gyakorlatilag egy finomított 14nm, nem hinném, hogy lényegesen drágább lenne.
Lényegesen jobb képességű. Látom a saját 8GB Nitro+ Rx580-amon, hogy elfogy 1450Mhz magasságában csúnyán a GPU, hiába adom alá a feszültséget, a fogyasztás is csúnyán megnő. Már az Rx590 alap órajele (1469Mhz) is nagyon gázos vele, nemhogy az 1540Mhz Boost órajel, ami konkrétan esélytelen a kártyámmal. Ezeket az RX590-eket meg a tesztekben simán felrántották 1600Mhz-re, amikor az utolsó csavarig ugyanaz pl. a Nitro+ kártya a GPU-n kívül, mint az 580-as.
A zöldeknél nem tudom milyen fejlesztésről beszélsz, épp írtam, hogy a GDDR5X-es 1060 számomra értelmezhetetlen.
A pirosak legalább átültették a GPU-jukat az elérhető legjobb 14nm-es családú gyártástechnológiára. -
HSM
félisten
válasz
FollowTheORI
#36639
üzenetére
Még mindig jobban tetszik, mint a zöldek árazása... Legyünk két lábbal a földön, egyre drágább a csipgyártás is, így érdemesebb lehet megbecsülni és adott esetben a maximumot kihozni a már bevált, meglévő, jól működő dizájnokból.
Itt legalább ott jött valami apró újdonság, ami szvsz az arany középút, amivel már élvezettel lehet FHD-n játszani, de még nem kell bankot rabolni hozzá. A zöldek mit hoztak ebbe a szegmensbe? GDDR5X-es GTX1060-at, az még viccnek is rossz, főleg lassabb (8.8GPBS) GDDR5X rammal, mint amivel már korábban szerelték GDDR5-el (9GBPS).
Itt legalább konkrétan és lényegesen jobb képességű GPU-t kapsz, remélhetőleg az újdonság varázsának lecsengése után jó áron is.
Nem csak a nagy semmi van, porcukorral meghintve. -
HSM
félisten
válasz
keIdor
#36634
üzenetére
Na, hát ezaz, konzol oké, de PC?

A BF1-et tolom most padló max grafikán, nagyon szép, de nem esik le tőle az állam.

A SOTTR még nincs meg, a ROTTR-ot viszont ha majd időm engedi kipróbálom.
Plusz van még nyárról betárazva két Deus Ex, azokról is jókat hallottam. Most vettem nemrég egy 8GB Rx580-at, szerintem egy darabig ezekkel elleszek.A BF3 amúgy nekem sosem tetszett grafikailag, a 4 viszont teljesen jó, az se mai csirke pedig, 2013-as.
-
HSM
félisten
válasz
keIdor
#36630
üzenetére
Igen.
Amiben erősen benne volt, hogy a konkurencia képtelen volt (vagy inkább nem is akart) ilyeneket tudó hardvert letenni az asztalra, így a piaci részesedésük révén elérték, hogy ne is nagyon legyenek a pirosak extra képességeit kihasználó alkalmazások. Így pedig ők nyertek a jobb perf/watt arányukkal.Ettől függetlenül én pl. túlzottan nem örülök, hogy kis túlzással ma éppen ugyanúgy néznek ki a AAA-s játékok, mint a 6-8 évvel ezelőtt komolyabb címek, ami valahol egészen elszomorító. Régebben rendesen voltak alkalmak, amikor az állam kerestem a földön egy-egy újabb cím grafikájánál (pl. Crysis 1), ma meg inkább a fejem fogom, hogy megint csak az FPS-t sikerült elfelezni pár semmirekellő, erőltetett effektért, lásd a két videót [link].
Manapság legfeljebb a felsőkategóriás VGA-k áraitól esik le az állam a földre, ami szerintem nem valami jó kombináció.
(#36632) lezso6: Async-ot tudott, de nem volt teljesen stateless, én úgy emlékszem.
Szerk.: Ja, nagyon nem....
[link] -
HSM
félisten
-
HSM
félisten
válasz
FollowTheORI
#36617
üzenetére
Ez pont, hogy egy szuper középút. Pin és driver kompatibilis a meglévő 580-akkal, nem kell új kártyákat, gyártósorokat csinálni hozzá, tehát csak az új GPU-val hoztak durván 10%-ot pluszba.
Minden más megoldás lényegesen dobta volna feljebb a költségeket, miközben nem biztos, hogy olyan sokat hozott volna. Arra ott a Vega56.
(#36624) rumkola: Pedig ennyire tényleg nem sikerült jól az 590...

-
HSM
félisten
Pedig ez így van, amióta a PC kb. létezik, hogy a gyártó valahova belövi a csipet annak valahol egy lehetséges feszültség-órajel pontjára, amiből kijön egy perf/watt arány. De az a csip nem csak azt az egy pontot tudja, hanem egy teljes görbét.
Én ennek amúgy örülök, hogy normális kártyákon ez szabadon állítható, és gyártói támogatás is van rá AMD-n, így mindig be tudom állítani az igényeimnek megfelelően. Ha nekem éppen kell az a +200Mhz +80W árán, be tudom állítani, és fordítva. Két kattintás a megfelelő profilokra és jó is vagyok.
Az 580/590-nél az AMD a piaci helyzet hatására, hogy egyértelműen erősebb legyen a GPU a 1060-nál, kicsit feljebb lőtte be, mint ami a legideálisabb lenne perf/watt arány tekintetében a csipnek, az 590 ugyanez. Ez nem baj, nem kell ahhoz IT zseninek lenni, hogy kedvedre átírj wattmanban három órajel mezőt, ha jobb perf/wattra vágysz...
A csippel együtt megvetted annak kisebb DPM lépcsőit is.Én amúgy nem gondolom ezeket a kártyákat egymás versenytársainak. GTX900-as nálam fel se merült, nincs 8GB ram, és régi is, az architektúra sem tetszett. A 290/390 régi, és nem valami jó a perf/watt aránya, a videós gyorsítós képességek terén is elmarad ettől. A 380/470 gyenge, a 1060 3GB kevés memóriás. Maradt kb. a 8GB-os RX480 és RX580 és ha valaki a zöldet szereti a 6GB-os GTX1060.
Ebből azért már lehet választani. 
-
HSM
félisten
válasz
t72killer
#36604
üzenetére
No, de ha tuningolod a 1060-at, akkor már a 1060 sem ennyit fog fogyasztani. Vagy megfogja a TDP limit, és akkor meg gyorsulni nem fog, lehet választani.

Nyilván, a 1060 mindig valmaivel jobb perf/watt-ra lesz képes az architektúrájából adódóan, de ha az 580-at kicsit kevésbé agresszív órajelre állítod be azok is bőven jó perf/watt-ot tud.

Amúgy ezt teszteltem is nem olyan rég, extrém mód javul az 580-as perf/watt aránya 1200Mhz magasságában, a mellékelt képeken szvsz szépen látszik a GPU-fogyasztáson, 1340Mhz-hez képest 1250MHz -50W azonnal csak a GPU-ból.
[link]
És itt még semmi trükk nem volt, csak a wattmanban lejjebb vettem a max órajeleket, minden mást a kártya csinált magától.
Borítékolható, hogy ez a friss 590-esnél is hasonlóan működne, csak vélhetőleg még magasabb órajelnél lenne a sweet spot.

-
HSM
félisten
válasz
Milka 78
#36600
üzenetére
Lehet továbbra is GTX1060-at venni, ha valaki úgy gondolja az a +/-80W fogja megváltani a világot, míg játszik...
Szvsz egy jó hűtésű verziónál teljesen vállalható ez a fogyasztási szint.
Azt meg végképp hagyjuk, hogy kb. 10% sebesség beáldozásával már az RX580 is belőhető 100-150W közé (sweet spot a GPU-nak olyan 1200Mhz órajel környékén), és akkor már alig vagy a 1060 fogyasztása felett, hasonló tempóval, ha ez annyira fontos, az 590 pedig a friss GPU-val nyilván még többet tud azonos keretből.Csak úgy finoman engedd meg hogy linkeljem a TPU Rx590 Nitro+ tesztjét:
"With the default BIOS the card is already very quiet, reaching only 31 dBA. The real kicker is the "quiet" BIOS, which is whisper quiet—as quiet as the best GTX 1060 cards that we tested!"
[link]Szóval, erről ennyit.

-
HSM
félisten
válasz
Puma K
#36598
üzenetére
Például abban, hogy magasabb az áramfelvételi kerete, amit alapból az olcsósított 580-ak nem tudnának normálisan megugrani, mert se a VRM, se a hűtés nem bírná. Nem mindegy, hogy 145W-nál (olcsó Rx580-ak) húzza be a féket a limit, vagy 196W-nál (XFX FatBoy Rx590).
Plusz, még itt van a frissített, magasabb órajelet bíró GPU is az 590-es szériára.(#36597) zovifapp111: Ezt gyanítottam én is.

-
HSM
félisten
válasz
bozont
#36595
üzenetére
Szerintem nem lenne jó. Ha az 590 alapból egy kimaxolt, prémium termék, 8GB rammal, az úgy egy jó brand, akkor egyből tudod, hogy ami 590, az erős.
És akkor nem lenne az a felhígult kínálat az olcsóbb és főleg 4GB-os verziókkal, mint az 580-aknál, amik szvsz azért nem ugyanazt a szintet képviselik, mint egy prémium 8GB-os változat. Így meg lehetne oldani okosan. -
HSM
félisten
válasz
zovifapp111
#36590
üzenetére
Szerintem megfelelően árazva mindkettőnek meglenne a helye a piacon.
Ami az időtállóságot illeti, szerintem ugyanakkor lesz vége mindkettőnek, a 8GB-os 580-nak és a 8GB-os 590-nek is. A 4GB-osok persze sokkal előbb ki fognak kopni, mivel az már néha ma is kompromisszumos.
Plusz, az 580-ból lehet egyszerűbb/olcsóbb verziókat csinálni, mivel alacsonyabb a TDP gyárilag, míg az 590-es az inkább a prémium 580-asokat váltja le. Valószínűleg ez lehet a terve az AMD-nek, hogy így jobbak lehetnek a prémium 580-asok az új GPU-val, és az olcsóbb típusváltozatok maradhatnak 580-asok.(#36591) PuMbA: Amiről beszélsz, az a user error kategória. Amikor csak a feszt és órajelet húzza felfelé a user, és elfelejti, hogy a low-cost kártyájának vannak beépített limitjei... Ezért kell olyan modellt venni, aminek kellően magasak a gyári limitjei, és ésszel belőni a tuningot. Akkor szépen fog ez a GPU skálázódni az órajellel.

Az RX460 tipikus példája ennek...
Az alapból TDP korlátozott kártya, főleg az elterjedt gagyibb kiadások. Az RX560-asomnak nekem is kellett kis plusz TDP limit BIOS alól, mert a gyári ha jól emlékszem 48W nem sok mindenre volt elég. Egyből meglett OC-val a 7000 pont 3DMark FireStrike [link], amikor a gyári BIOS-al jó, ha bő 6000 fölé ment, függetlenül az órajeltől... 896 shaderes fajta volt, szóval ennyit kéne mennie a 460-adnak is ilyen órajelen, ha nem fogja meg valamelyik limit. 
-
HSM
félisten
válasz
zovifapp111
#36588
üzenetére
Azért erre elég kevés esélyt látok, mivel alapvetően az RX580-assal lábkompatibilis az új GPU, így gyakorlatilag a már bevált RX580-as kártyákat kapjuk, kicsit magasabb órajelen.

Mondjuk hogy újabb az nem egészen értem, miért jobb, amikor a GPU nem változott, csak a gyártástechnológia, amivel gyártják. Pontosan ugyanazt tudja ilyen téren, mint az elődje, ami amúgy szvsz teljesen oké.

-
HSM
félisten
válasz
Locutus
#36581
üzenetére
Nem hiszem, hogy bárkit érdekelt volna ez a kártya, ha ugyanazt az RX580 teljesítményt hozza, csak mondjuk 20%-al jobb perf/watt aránnyal.

Nekem amúgy tetszik, egy átlag gamer gépbe tökéletes így jól kihajtva, a különböző sync-ekkel, vagy FRTC-vel pedig a fogyasztás is kordában tartható, ha valakinek nem kell a teljes teljesítmény. Fordítva nehezebb lenne.
Amúgy egy átlag gamer gépbe teljesen oké így 200W körül a fogyasztás. -
HSM
félisten
válasz
rumkola
#36571
üzenetére
Egyfelől minek a max AA?
Ha el akarod felezni az FPS-t, akkor hajrá, amíg volt normálisan támogatva játékokban addig remek kompromisszum volt a 2X-es MSAA, nem túl nagy sebességvesztés árán korrektül rendbe rakta az éleket, látványosan javítva ezzel a képminőséget. Számomra a magasabb fokozatai csak a teljesítményre voltak jelentős hatással, így nem is igazán erőltettem őket.A "csúnya is lesz a kép" effekt az már az ennél is lényegesen kevesebb teljesítményt igénylő általánosabb postprocess alapú élsimítások, azokat kerülöm is amennyire csak lehet, pont ezért, nem szeretem a mosott életlen képet....
(#36572) Puma K: Ez persze így van, viszont a felskálázásnak viszont tényleg brutális lehet a plusz teljesítmény igénye.
Az akár negyedeli is a sebességet (FHD 4K-ban számolva pl).... 
-
HSM
félisten
válasz
t72killer
#36553
üzenetére
Nem fogják tudni szvsz... Vagy mindenhol így oldasz meg dolgokat (pl. árnyék rendszer), vagy nem. Én itt nem látok átmenetet. Egy egy specifikus effektért meg kár a gőzért.
(#36554) lezso6: Ja, a Raytracing jó móka, csak zabálja az erőforrást, és még úgy nagyjából 5-10 évekre vagyunk, mire értelmesen használni lehetne valós időben, ha marad a hardverek eddigi fejlődési üteme.

(#36555) zovifapp111: Jogos, Crysis, belekevertem a 3way SLI-t.

(#36558) zovifapp111: Nálam akkor egy HD3870-es Radeon volt, és elég magas grafikán elbírta játszható FPS-el 1680*1050-ben.
Csak lestem, milyen jól festett. 
(#36561) proci985: Bizony, AI és fizika is kimagasló volt akkoriban.

(#36562) zovifapp111: Bizony. Főleg, hogy még a bemutatóján is csak erősen erőltetett, izzadtságszagú példákat sikerült kierőlködniük magukból, ráadásul kettőből egyet RTX nélkül is vígan meg lehet csinálni, gyorsabban...
-
HSM
félisten
válasz
proci985
#36551
üzenetére
Én azért nem látom az RT-nél azt a fajta kiemelkedést grafikai minőségre, mint amit anno a Crysis 3 nyújtott. Ott a grafika durván alázott, itt meg egy kis vacak effektről beszélünk, ami egymagában leharmadolja, felezi az FPS-t, miközben nekem azért nem esik le tőle az állam... Főleg ebben a formájában.
-
HSM
félisten
válasz
huskydog17
#36429
üzenetére
A német nem erősségem, de nem ugyanazt csinálják, nagyon nem.

A tripla buffer esetében igazából nincs komoly előre számolás, az annyi, hogy egy képpel előre számolsz, ami amúgy semmi, és folyamatosan eldobod, ami elkészült, ha nincs rá szükség és újat számolsz, és képváltásnál mindig lesz egy képed a kimenő bufferbe. Ezért is tripla buffer, egy amit nézel, egy amiben a következő kész kép van, és egy, amit éppen számolsz.
Ez az előre számolás egy egész más dolog, itt azt mondod, a CPU dolgozzon fel előre mondjuk 5 képkockát, és csak utána ereszted rá a GPU-t, így erősen javulhat a részegységek kihasználása, és ha pillanatokra ki is fogy a kakaó ott van a bufferben előre kiszámolt 5 képkocka, amihez lehet nyúlni. Viszont ebből következik, hogy itt szinte biztosan több lesz az input lagod, mint tripla buffernél. -
HSM
félisten
válasz
huskydog17
#36427
üzenetére
Nem triple buffering eljárás. Több képkockával számol ilyenkor előre, tehát biztosan romlani fog a késleltetés, a kérdés, kit mennyire zavar ez.
-
HSM
félisten
Akkoriban egyetlen erősebb kártya létezett, a 9700 PRO, amihez képest az enyémnek csak kb. 20% órajel deficitje volt, cserébe jóval olcsóbban adták.
"ha egy RT alapoktól lesz beépítve más lesz az egész sebessége és kihasználtsága, optimalizálása"
Ha arra gondolsz, hogy ez esetben alapból az RT sebességéhez butítják pl. az amúgy már komplexebb geometriákat, és nagyobb tereket, akkor ez nekem nem tűnik egy túl áldásos jelenségnek. PErsze, kapcsolgathatod, de nem hiszem, hogy pl. a geometriának lesz külön "RT high" meg "no RT high" beállítása, tehát oké, kapcsolgatható lesz, de meglesznek a hátrányai kikapcsolva is az ehhez igazított játéknak.
Sajnos tudom, hogy működik a sugárkövetés, mitöbb írtam is már sugárkövetéses algoritmust CPU-ra, lehet ezért is nem tetszik ez a dolog annyira. Szóval ezt nem vettem magamra.
Persze, a RT iszonyat látványos, ha nem csak egy hitvány effekt pár tükröződő felületeten. A dolog problémája az erőforrásigény, ami továbbra sem adott az igazán jóminőségű sugárkövetéshez. A fény árnyék dolgok megoldására is vannak már elég régóta jól működő megoldások, 100X gyorsabbak. Pl. AMD Forward+ renderes demója, a Leo, elég komoly dolgokat tudott már 2012-ben is, és sebességben kb lefolyt a monitorról, DirectCompute-al számolt pl. fényvisszaverődésekkel: [link].
Külön ajánlom ezt a demó-részt belőle (külön indítható), hogyan lehet egy ősrégi 7900-as Radeonnal realtime számolni 2000 fényforrást: [link]. Pedig hű, de görcsöltek valamelyik RT bemutatón, hogy hű meg ha, a sötét helyek létrehozhatatlanok mert ambiens fényforrás nélkül nem látsz semmit, azzal meg túl van világítva a helyszín, én meg csak a fejem fogtam...
Szóval továbbra is úgy gondolom, lehetne ezt általánosabban, okosabban, mint RT-vel és máshol kéne reformokat csinálni a grafikus futószalagon és játékokban.
Az AI meg fizika, meg hangok (!!!) igen fejlődhetnének, de ennek már korábban is az volt a fő akadálya, hogy nagy a késleltetés a GPU és a CPU között, ami a jelenet többi részét számolja. Ez nem hiszem, hogy hirtelen megváltozna pl. a tensor magoktól.
-
HSM
félisten
Itt a kulcs, hogy szerintem ez egy elég rossz iránya a képminőség javításának. Még egy gyenge sugárkövetésnek is óriási az erőforrás igénye ahhoz képest, amit adni tud. Szerintem ezeket az árnyalási problémákat meg lehet okosabban is oldani valós idejű grafikához, lényegesen kevesebb erőforrásból, nem olyan lényegesen rosszabb képminőséggel.
Én legalábbis sokkal égetőbb hiányosságokat látok a mai játékok grafikájában, minthogy ilyenekre kellene pazarolni azt a brutális számítási kapacitást, amit megkövetel.
Nekem ez az egész új irány ötletszegénynek, erőltetettnek és izzadtságszagúnak hat.
Nekem akkoriban egy 9700-as Radeonom volt, annak nem okozott különösebb hasfájást a 2X-es élsimítás, és nem is került egy használt autó árába, nagyon nem, és évekig elég volt a teljesítménye is.

-
HSM
félisten
válasz
proci985
#36323
üzenetére
Azért ne mossuk össze a különböző kiadásokat.

A referencia volt meleg, hangos, és cserébe még órajel dobálós is. A legtöbb aftermarket megoldás tuning nélkül azért elbírta a kártyát. Se a Giga Windforce 3-as 290-esem, se utána az Asus 290 DC2, se utána az Asus 290X DC2 nem dobálta az órajelet, némi plusz áramfelvételi limittel és minimálisan feljeb tekert ventilátorokkal.
Nálad a 290X Matrix volt egy rosszul kigondolt konstrukció, ugyanerre az alap csirke DC2 hűtésre csináltak egy durva OC kártyát brutál VRM-el, ami szvsz rendesen és szükségtelenül alá is gyújtott a kártyának.
Ami még határeset volt, ha jól emlékszem, az MSI kártyája. -
HSM
félisten
"Ezzel a környezettel nem kell 4K-s felbontást számolni, egyszerűen elég a Full HD is, és onnan mehet az AI felskálázás 4K-ba, illetve fölé"
Szóval az egész nem lesz jó kb. semmire azon kívül, hogy eldicsekedhess a szomszédnak, hogy dejó, nekem már 8K-ban számol raytrace-t a használtautó áron vett VGA-m a 4K monitoromra, de az egész végülis még FHD felbontású sincs, csak egy ügyesen interpolált maszat, jó esetben nyögvenyelős 60FPS-el.

Szép jövő előtt állunk....
Na, én ezt nem nevezném fejlődésnek. 
-
HSM
félisten
válasz
Milka 78
#36169
üzenetére
Ez az utólagos tűzoltás nem tökösség. Tökösség az lett volna, ha azt mondják, bocs, még nem tökéletes, csak pár hónap múlva tudjuk kiadni...
Prémium termékként, prémium árazással az a minimum, hogy sűrű sajnálkozással kérdés nélkül cserélik, ami hibás, ami egyébként is jogi kötelezettségük lenne. -
HSM
félisten
válasz
lezso6
#36118
üzenetére
Nekem komolytalan volt a PH tesztben, hogy mindent alacsony meg minimum grafikán mértek, ami szvsz nem túl életszerű, mivel annál azért jócskán erősebb a kártya (kategória), ez pedig szvsz erősen a GF-ok malmára hajtotta a vizet.
Értelmesebb beállítások mellett az van, amit mondtam, ott van szépen a 1050 és 1050Ti között: [link].
Saját tapasztalatom is ez volt, hogy nem volt neki gond medium/high grafika között vinni a játékokat FHD-n élsimítás nélkül. -
HSM
félisten
válasz
lezso6
#36114
üzenetére
Az Rx560 szvsz teljesen jó oda, ahova tervezték, valahol a 1050 és 1050Ti között, nekem pl. tetszett, hogy így olcsóbban kapok korrekt, erős belépő teljesítményű, 4GB-os kártyát. Közepes grafikai beállításokon nagyon szépen elvitt nálam kb mindent.
Nem tudom, miért gondolod gagyinak. Pedig nekem csak egy jobbfajta 896 shaderes verzióm volt. -
HSM
félisten
"Hja, és el lehet merengeni azon is, hogy melyik cég tesz (vagy legalább próbál tenni) a jelenlegi árazási anomáliák megoldásáért... "
Ha már ilyen nagyon gondolkozós napot tartunk, akkor nem ártana elmerengeni azon is, melyik cégnek áll inkább módjában (pénzügyi helyzetére gondolok) bizonytalan felvevőpiac(ok) igényeire alapozva kockáztatni egy nagyot és külön termékvonallal (termékvonalakkal) jelentkezni...
Elnézést azoktól akiknek a rózsaszín pónis álomvilágát esetleg kissé elrontotam a felvázolt hőseposz árnyalásával. Itt semmi másról nincs szó, csak pénzről. -
HSM
félisten
"A középső rétegből nem feltétlenül muszáj speciálisat alkalmazni, a default mód problémamentesen viszi, csak buknak vele egy rakás teljesítményt."
Jah, nehogy már a piros kártyák egy játékban gyorsabbak legyenek... Vége lenne a "Hol a GCN előny pedig DX12" magabiztosságnak. -
HSM
félisten
Ez így lejáratásnak első osztályú, de azért talán azt sem ártana látni, hogy akkoriban csak papíron létezett az APU koncepció, ehhez képest ma kézzel fogható valóság, kész termék a HBM ramos brutál IGP-s APU. [link]
Ez már nem holmi lázálmos vízió, kész, megfogható, mérhető termék, ami konkrétan nem a belépő, hanem a középkategóriás GPU-k szintjén focizik.
Innentől szvsz már csak pénzügyi kérdés, mikor akarnak pontot tenni a belépő VGA szegmens létezésének végére.Ami ma történik, egyébként éppen azt igazolja, amit akkor írt, ami tény, hogy jóval később, mint eredetileg jósolva lett.
-
HSM
félisten
válasz
->Raizen<-
#32883
üzenetére
Szerintem alig várja, hogy végre elcserélhesse egy 970-re...

-
HSM
félisten
"mert sokkal rosszabb hatásfokú egy processzormag egy multiprocesszornál"
Azért gondolom az megvan, hogy ez attól függ, milyen jellegű az elvégzendő feladat. Mindkét hardveregységnek megvannak azok a kódtípusok, amiken sokkal hatékonyabb a másiknál. Ha nem így lenne, nem létezhetnének egyás mellett és csak GPU lenne a számítógép. -
HSM
félisten
válasz
cskamacska
#32651
üzenetére
No, meg milyen alapon korlátoznák? Megveszed a kártyát, aminek ott a specifikációjában az OpenCL support, illetve hogy hány Tflops...
Innentől kezdve azt futtatsz rajta, amit akarsz.... -
HSM
félisten
válasz
Televan74
#32640
üzenetére
Szvsz a dolgok hátterében a pénzügyi nehézségek állnak. Láthattuk a GCN bevezetésénél, hogy ha akarnak tudnak ők teljes termék portfóliót bemutatni, viszont az a taktika is érthető, hogy ha nagyon szűkösek az erőforrások, akkor inkább abból próbálnak főzni, ami van....
Főleg, hogy egyre drágább a gyártókapacitás, és egy egy új csip gyártásához szükséges eszközök is. Az Nv a jelnelegi piaci helyzetével megteheti a teljes termék portfóliót, az AMD-nek viszont jobban meg kell gondolnia, mibe mennyi pénzt fektet, a Polarisnál sem véletlen lőttek a két (három) legnagyobb profitú szegmensre.
Illetve a Vega-nak is megvan a maga célközönsége, tehát látszik a taktika, próbálnak okosan fejleszteni. -
HSM
félisten
válasz
wjbhbdux
#32637
üzenetére
Nem a játékosok mellett álltak ki, hanem a tulajdon piaci érdekük mellett. Csak a tisztánlátás kedvéért. Jelenleg a legnagyobb piaci előnyük, hogy a gamerek gépének 80%-ában van tőlük GPU, így kb. minden játékfejlesztőnek top prioritás, hogy jól fusson a játékuk a kártyáikon. Nem beszélve a felsoroltakról, loyalitás, jó hír keltés, stb... A gamerek sokkal hálásabb piac, mint a bányászok.
-
HSM
félisten
Én ezt értem, ez a SIMT architektúra lényege. Már a legelső GCN fejlesztési dokumentációiban benne volt, hogy ésszel a regiszterekkel.
Én azt próbáltam mondani, hogy mivel ez egy nagyon régóta ismert dolog, így az optimalizáció első körében esik ki minden shader, amivel rossz lenne a hatásfok, mert olyan programot nem adhatnak ki, ami a piacon lévő GPU-k 98%-át kétvállra fekteti.
Én ezt próbáltam mondani, hogy tuti még jó idő el fog telni, mire kellően sok hardver lesz kinn, amire egyáltalán ki lehet majd adni olyan shadert, ami a régi architektúrákon borzalmasan futna a túlzott regiszterhasználat révén. Tehát a Vega ilyen jellegű fejlesztéseinek még egy jó ideig nem lesz látható jótékony hatása.

-
HSM
félisten
Persze, én tökéletesen értem mit írsz, csak azt akarom mondani, hogy amíg a piac 98%-a olyan hardver, ami ennyi regiszterhasználattól megdöglik, akkor az optimalizáció első körében fog kukázódni az a shader, és senkit nem fog érdekelni, mennyivel lett tőle csúnyább az alkotás.
Ebből pedig az fog következni, hogy sehol nem lesz 3X gyorsabb a Vega, amíg ez így van, mint akár egy Polaris, hiába lenne meg rá a képessége. -
HSM
félisten
"a Vega legalább háromszor gyorsabban futtatja ugyanazt a kódot"
Lemaradt a kisbetűs rész: HA AZ VALAMILYEN LIMITBE ÜTKÖZIK A KORÁBBI GENERÁCIÓN.
Tehát ebből majd akkor láthatunk valamit, ha erre lesz optimalizálva a cím. Addig meg azt látjuk, hogy kullog szegény Vega a sima 1080 környékén.
-
HSM
félisten
válasz
TTomax
#32523
üzenetére
Tényleg nem tökéletesen ugyanaz, csak praktikus szempontból. Mint írtam, a revízióváltással kapott egy minimális frissítést a kijelzőmotort, és a ram időzítésein javítottak. (Halkan jegyzem meg, hogy 390 BIOS-al, amivel történetesen tökéletesen működnek a 290-ek is javít a sebességen, nekem +500 pont volt GS 3Dmark FS-ban.
)(#32522) fules: )) : A powertune változást is mindig elsütik, jelentősége nincs sok.

(#32524) do3om: Ott is új revízió. Ott pl. egy takarékosabb multimonitor módot kapott a GPU.
-
HSM
félisten
válasz
->Raizen<-
#32517
üzenetére
"Driver szempontból sincs úgy megtámogatva már a 290 mint egy 39x szériás vga."
Ne zavarjon egy percig se, hogy ugyanaz a csip, ugyanazzal a driverrel....
Hülyék lennének külön drivert írni neki, nem önmaguk ellenségei. Minden szempontból nonszensz.(#32519) fules: )) : Ha jól emlékszem, egyedül a display motorjában van egy minimális változás, van valami rétegfeature, amit beépítettek, de az is lehet, csak bugfix csipen belül.
-
HSM
félisten
válasz
->Raizen<-
#32481
üzenetére
"Meg egy gtx 1080 at is meg meg fogott par optimalizalatlab dolog. 😀"
Akkor a megoldás: vegyünk belőle rögtön hármat, hátha úgy jó lesz... Hú, de drága ez a PC-Gaming! Oh wait.
A GTX970 vs. 290X flémre inkább nem reagálok.

-
HSM
félisten
válasz
#00137984
#32477
üzenetére
Elég gáz, hogy a felhasználói igények növekedését a gyártókra próbálod kenni. Nem azért egyre drágább a PC gaming, mert egyre drágábban adják a hardvergyártók, hanem mert egyre nagyobbak az igények, amiket csak a korábbiaknál nagyobb, erősebb, drágábban előállítható termékkel lehet lefedni.
(#32479) TTomax: Írtam ilyet? Nem. Örülnék, ha nem forgatnád ki a mondanivalómat az eredeti tartalmából.

-
HSM
félisten
válasz
Raggie
#32471
üzenetére
"Sajnos amikor épít egy gépet az ember akkor nem az "elvileg" számít, hanem az amiért tényleg meg is tudja venni.
"
Viszont akkor számba kéne venni az aktuális piaci helyzetet is... Pl. hogy a Vega-kat átmenetileg felvásárolják, mind, ezért hiánycikk, szval akinek van, az nem sajnál érte adott esetben vastag árprémiumot kérni. Idővel ez normalizálódni fog. Ez nem a VGA-k trendszerű áremelekedését bizonyítja így, hanem egy átmeneti készlethiány hatását. Szval, ha valaki most akar Vega-t venni, annak sajnos a legjobb, ha vár.
Apróról is bajos, mert viszik a bányászok is, mint a cukrot. -
HSM
félisten
Nyilván nem éri meg ennyiért. De ha az eredetileg dollárban néztük az amerikai árakat, akkor most miért egy másik piac árait nézzük?

Dollárban most 750-ért Vega FE-t kapsz... [link]
Az UK árak azért érdekesek, hogy drágább a Vega, mint egy 1080Ti, az azért tényleg nem vicces.
-
HSM
félisten
-
HSM
félisten
válasz
#00137984
#32465
üzenetére
Ugyan már.
A konzolon tolhatod ~30FPS-el, FHD-ban, nagyjából magas grafikán. Ezt a teljesítményt, vagy jobbat PC-n vígan megkapod egy durván 50 000 forintos 4GB-os GTX1050-el vagy RX560-al. (Új kártya itthoni bolti ára.)
De ha nagyon maximalista vagy, egy GTX1060 vagy RX570 már tényleg körberöhögi ezt, és még ezekhez sem kell bankot rabolni.A pro gamer pedig mivel a "professzionális játékos" rövidítve, így nem, nem azt jelenti, hogy értelmetlen magas felbontásokban tolja értelmetlenül magas beállításokon értelmetlenül drága hardveren.

-
HSM
félisten
válasz
Raggie
#32462
üzenetére
A Titan-t és FE-t, amik félprofesszionális kártyák ne keverjük ide. Azért kerülnek ennyibe, mert félúton vannak a profi és a gamer holmik között. Ezzel szemben a HD7990 és GTX690 ízig-vérig gamer holmi volt. A profi kártyák régen is elképesztő összegekbe fájtak a gamer változatukhoz képest.
-
HSM
félisten
válasz
#00137984
#32450
üzenetére
"Mindenkit lehúznak a gyártók, mert kihasználják ezeket a játékosokat. Mindenki szeretne az igényeinek megfelelő konfigon játszani és ezért fizetni fog."
Remélem, újból átgondolva fel fog tűnni, hogy ez a két mondatod ellentmond egymásnak.
Ha a felhasználói igény az, hogy padló grafikán fusson a gém, és nem számít, milyen drága VGA kell ehhez, és kifizeti, akkor itt nem kihasználás van, hanem a vevői igény kiszolgálása.Az e-sportos marhaság pedig végképp mellé, e-sportot nem max grafikán szoktak tolni, és nem csúcs VGA-val. Ez abszolút a magát "pro gamer"-nek érző consumer réteg jellemzője.
-
HSM
félisten
"Mindenki várta az NGG-t ami olyan tartalékot old fel hogy a kari számolási teljesítménye megsokszorozódik"
Aki ilyet várt, annak halovány lila gőze nem volt arról sem, micsoda ez az NGG path egyáltalán.... Merthogy ennek még csak távolról sincs semmi köze a kártya számítási teljesítményéhez.(#32372) huskydog17: Általában akkor szokás ezt csinálni, ha viszonylag hamar kell prezentálni eredményeket, valamint nem akarod igazából az egészet átírni, csak alakítgatni. Ugye, ez volt, ahonnan kiindultunk, hogy én ezeket ezért nem tekintem "igazi" DX12 motoroknak.
Nem véletlen, hogy akiknek tényleg DX12 motorra volt szükségük, azok írtak egyet maguknak az alapoktól, lásd Oxide Games. Ott eredetileg úgy is nézett ki, hogy nem is lesz DX11 mód, mert nem lenne elég gyors. -
HSM
félisten
válasz
cskamacska
#32320
üzenetére
"mikor ezek a Windows Store, a Win10, és a DX12 húzónevei lennének"
Ez csak azt bizonyítja, miért nincs bennük DX11 mód.
-
HSM
félisten
válasz
huskydog17
#32317
üzenetére
"Ke? Licencelt motort szerinted nem lehet átírni?"
Lehet, csak annak mi értelme?
-
HSM
félisten
válasz
huskydog17
#32313
üzenetére
"Lényegtelen."
Pedig pont ez a LÉNYEG. Ha annyira nagy mértékben át akarták volna struktúrálni, írtak volna inkább egy saját motort."Egy DX12 motor nem produkálhat fura dolgokat, nem lehetnek gyermekbetegségei?"
Nálam nem a profizmusra vall, ha egy portolt motorban azt sem oldják meg kiadáskor, hogy normálisan tudja kiadni a rajzolási parancsokat.A linkelt cikked elég vicces, hogy nekik az már a top optimalizálás, hogy idézem "The game now runs silky smooth, there are no loading issues (previously the game could freeze while selecting a race) and there are no stuttering issues", hát köszi, ide jutottunk 2017-ben, hogy ez már top optimalizálás, hogy képes simán futni és nem fagy le a választó képernyőn? Anyám borogass....

-
HSM
félisten
válasz
huskydog17
#32311
üzenetére
A Gears of War 4 legjobb tudomásom szerint Unreal engine-es, ami multiplatform. Hogy ebben a játékban nem engedélyezték a DX11 leképezőt, lehet, de ettől az még nem lesz egy DX12-höz tervezett motor.
A Forza elsősorban konzolra optimalizált, voltak is belőle komoly gondok az elején [link] [link], és továbbra is produkál fura dolgokat.
-
HSM
félisten
Ezek ha nem tévedek, mind DX11-es motorok, DX12 kiegészítéssel. Nálam ez nem a "normálisan" használt DX12.
Nálam az számít annak, amikor a leképezőt alapból DX12-re írták, mindenféle DX11 optimalizáció, korlátok és hasonlók nélkül. Tehát amikor a motor elejétől a végéig a DX12 igényeihez és lehetőségeihez van szabva, nem pedig egy ízig-vérig DX11 rendszer végére van csak rábökve egy DX12 futószalag. 
-
HSM
félisten
válasz
FLATRONW
#32302
üzenetére
Persze, hogy nem engedhetik meg maguknak, amikor mindent meg kell még csinálni a DX11-re is pénzügyi okokból. Igazából DX12-t normálisan kihasználó programeól nem is tudok, hogy egyáltalán létezne...
(#32304) lezso6: Amennyire tudom, ez az újabb generációkra is igaz, csak nem ilyen szélsőséges mértékben.

Egyébként a GCN-re is igaz, hogy direkt optimalizálással (async compute pl.) gyorsabbak. Ilyen téren ami hatalmas előrelépés, az a Polaris/Vega generáció az utasítás előbetöltéssel, ami bizonyos shadereknél óriási előny lehet. -
HSM
félisten
válasz
t72killer
#32296
üzenetére
Mégegyszer, nem olcsóbbak voltak, hanem hatékonyabbak, mégpedig nagyon sokkal.
Nyilván emiatt a perf/ár mutatójuk is jobb volt, de nem ez volt a döntő.
Tudom, mert magam is követtem a témát, és nem csak itthoni viszonylatban.
Még a negyed energia árral is jelentős tétel volt hónapokon, éveken keresztül járatott masináknál. Amúgy ne egy 200W-os VGA-val számolj, hanem mondjuk 4-5-el per gép....
-
HSM
félisten
válasz
Televan74
#32293
üzenetére
És amíg a saját tempójában inkább a DX11-et támogatják, addig nem is megy senki sehova.

(#32294) t72killer: A bányákban azért voltak eddig többségében Radeonok, mert nagyon sokáig torony magasan jobbak voltak perf/watt mutatóban. Hiába fogyasztott kevesebbet a geforce, ha közben nem mutatott fel értékelhető teljesítményt. Mostanság vannak algoritmusok, amikben kifejezetten jók, így már azokból is bizonyos típusokat visznek a bányába...
Az pedig, hogy a többség lopja az áramot, elég csúnya vád, és nem is tűnik túl reális elméletnek nagyban. Az áramszolgáltató sem hülye, hogy ne tűnjön fel neki, ha egy szobányi24/7 izzadó kártya távolról sem csekély fogyasztása ne tűnjön fel senkinek....
-
HSM
félisten
Ja bocs, ők a HT-t és az L3 negyedét tiltják le... [link]
Vagy 8-ból 2 magot az Ivy-Bridge E-nél, de lehetne még sorolni hosszan. De tény, 4-ből 1 magot valóban, tudtommal nem tiltottak le.
Nincs ebben semmi "sz*rrágó", igyekeznek jó kihozatalt elérni, miközben nem rossz a 4-ből három mag sem.(#32272) cl.aci: Ami utána vagy működött, vagy nem....

-
HSM
félisten
válasz
t72killer
#32240
üzenetére
Ezzel sajnos nincs tapasztalatom, de elég szarvas hibának tűnik, ha a kerek matekos kisebb felbontást nem tudja tisztességesen rárakni a pixelhálóra... Mondjuk a piros VGA-k tudnak GPU-skálázást, olyankor natívban hajtja a monitort, és a GPU skálázza rá a képet a beállításoknak megfelelően, a zöld GPU-k passz.
Hááát... 32"-on, "monitor módban" (~1 méterről) a FHD szerintem már nagyon necces...
Nekem biztosan nem tetszene. Szódával 27"-on még elmegy. Az nagyon nem mindegy ám, 1 méterről vagy másfélről nézed. 
AMúgy van egy príma kis kalkulátor, ajánlom, eléggé jól be lehet vele lőni, mire érdemes számítani.
[link]No, és azt ne felejtsd el, hogy egy gyors FPS-hez minél gyorsabb monitor az ideális, és a 4K-sok nem tudom, mennyire vannak felkészítve a 60+ Hz-re.
-
HSM
félisten
Igen, csak azt ne felejtsd el, hogy míg a VSR opcionális, ha nem lenne elég gyors a játék kikapcsolod és kész, kicsit recésebb lesz a fű, de nem nagy ügy, addig ha túl nagy felbontású monitort veszel, ott nem olyan egyszerű "lejjebb menni". Bár 4K-nál opció a FHD, de 27-32"-on azért az már nem az igazi.
-
HSM
félisten
Mégis mi között nem látom a különbséget? Nem is írtam ilyet.

Néhány éve voltam vizsgálaton, akkor semmi baj nem volt a látásommal, szemüveg sem kell, és nem vettem észre, hogy romlott volna....
A probléma, hogy pakolhatod rá a VSR-t, attól az még 23" FHD marad... Persze, bizonyos renderelési hibák így csökkennek, de azt el lehet érni más, kevésbé erőforrásigényes módon is egy jó motorban. -
HSM
félisten
válasz
t72killer
#32221
üzenetére
Azért írtam két tartományt, 27"-ra már kicsit kevés a FHD, de 24"-ra még bőven jó, és az sem pici méret azért.
27-32"-ra pedig príma a WQHD.
Kicsit rossz irányból közelíted meg a dolgot, olyan távolságból nem kellene látni a pixeleket, ahonnan használod, tehát szvsz irreleváns, hogy 50 centire belebújva látod-e a pixeleket, mert közel dupla olyan messziről fogod jó esetben használni....Nem akarok vitatkozni amúgy, de szvsz simán nézhető WQHD-ban is közel teljes részletességében egy 4K videó. Én FHD-n is 4K-t szoktam kérni amiből lehet, mert hiába nem 4K a megjelenítőm, a tömörítés miatti veszteségeket így "visszakapom".

A notebookom kb. 130 ppi (14", 900p), ami pont ugyanaz, mint a 4K 32"-on, és hacsak nem 50centiről nézem semmivel sincs jobb képe, mintha kisebb lenne a felbontása.
És persze, lehet én csinálom rosszul, de a notebookkal ellentétben a PC-s monitort nem szoktam félméterről nézni.
Cserébe egy WQHD panelből inkább találni fürgébb, 100+Hz-es példányokat, ami szerintem sokkal nagyobb móka, mint a feleslegesen nagy felbontás. -
HSM
félisten
válasz
t72killer
#32216
üzenetére
"a 4k játék - aminek már eléggé terjednie kéne "
Szerintem az utóbbi évek legnagyobb vakvágánya a 4K erőltetése. A legtöbb otthoni usernek szvsz nincs szüksége 24-32"-nál nagyobb monitorra, oda pedig bőven elég a FHD vagy WQHD. VGA tekintetében pedig a WQHD fele, a FHD pedig mindössze negyed olyan erős VGA-t kíván azonos FPS-hez a 4K-hoz képest. A megspórolt számítási kapacitást szvsz sokkal hasznosabb, látványosabb dolgokra is fel lehetne használni. -
HSM
félisten
válasz
t72killer
#32211
üzenetére
Nekem egyébként nagyon tetszik ez a Vega architektúra, illetve Vega56-os kártya is, úgy ahogy van.

Nagyon hasznos, jó fejlesztésnek gondolom a HBCC-t, jó dolog a full-full DX12 support, a preemptív képességek, packed math, de az NGG-s shader reformban is látok fantáziát, bár utóbbi piaci elterjedésével, felhasználhatóságával látok azért nehézségeket.
Am nagyon hiányik már szvsz, az a Vega32, azaz egy kisebb, olcsóbb, középkategóriás variáns, egy dobozka HBM-el.

-
HSM
félisten
válasz
t72killer
#32209
üzenetére
Az már a Fury-nál is jó volt.
[link] A HBM memória egyik áldásos hatása.Amúgy azt pletykálják, majd jönni fog egy új verzió a mostani Vega-ból, 4096bites HBM-el meg dupla pontossággal, szvsz az még egy érdekes állatfajta lehet, ha gamer verziót is kihoznak belőle.

De nem akarlak meggyőzni semmiről, főleg hogy önmagában komoly fegyvertény ahogy írod, hogy már adott a monitor... -
HSM
félisten
válasz
lezso6
#32199
üzenetére
A perf/watt mutatónál óriási bibi, hogy nagyon nem mindegy, hogy van paraméterezve a termék, a csip skálázódásának melyik részén járatva adják ki. A Polaris igenis nagyon jó energiahatékonyságot tud, ha megfelelően van használva. Nekem most egy HD 7770-em van, az volt a 28nm belépő kártya, ez 80W-on tud egy bizonyos teljesítményt. Ugyanezen kategória Polarisból ugye az RX460, ami durván egy 7850 sebességét hozza, miközben még a 7770-nél is kevesebbet fogyaszt a tápcsatlakozó nélküli verziókon. Ez szerintem ha nem is 2,5X-es, de 2X-es hatékonyság simán megvan.

A Vega-nak megint amúgy az a baja, hogy a nagyot nem úgy lőtték be, hogy hatékony legyen. Viszont ha úgy állítod be teljesen jó hatékonyságot tud az is, lásd itt pl. a powersave módját: [link]. Azóta ez csak javult, mivel sokat finomodtak a driverek a megjelenése óta. -
HSM
félisten
válasz
lezso6
#32174
üzenetére
Már hogy maradt volna kompatibilis? Megírták volna a PRO-ra, és fele FPS lett volna a simán. Az sehogy sem jó.
Elméletileg, igen, kompatibilis, gyakorlatilag meg nem igazán. Egyedül így garantált, hogy a gépek között jól cserélgethetőek maradjanak a kódok.A CPU-limitet az bizonyítja, hogy megnézed, milyen grafikával és milyen sebességgel fut egy PC normálisabb CPU-val és egy 7870-es Radeonnal a problémásabb PS4 címekben.
Látni fogod a különbséget képminőség és FPS tekintetében is. -
HSM
félisten
válasz
lezso6
#32162
üzenetére
Pedig az. Megnézheted pl. a Hitman-t, sok helyen a 30FPS-t alig éri el a konzol, miközben PC-n röhögve fut ennél jóval gyorsabban is. Valahol van is erről egy videó neten, ha gondolod vadászd le.

Emlékeim szerint ugyanez a BF4 is. PC-n nálam vígan futott 70+ FPS-el, konzolon sokan panaszkodtak az FPS-re. De ami vicc, most a HD7770 kaliberű R7 250X-emen is vígan fut 60+ FPS-el, mediumon, tehát egyáltalán nem úgy tűnik, hogy a GPU a szűk keresztmetszet a konzolokon.Az addig szép és jó, hogy vékonyabb az API, valóban, egy csomó ellenőrzést meg lehet így spórolni, ugyanakkor ahogyan picit lejjebb is írják, rengeteg munka így is marad a CPU-n. Az animációk, fizika, AI, jelenetek előkészítése, csomó minden ugyanúgy CPU-feladat.
Az, hogy a félgenerációs konzolokba nem került erősebb CPU két ok is indokolta. Az egyik, hogy FHD-ről 4K-ra mentek vele, amihez azonos CPU mellett 3-4X-erősebb GPU kell. Jé, éppen ennyivel bővítették.![;]](//cdn.rios.hu/dl/s/v1.gif)
A másik fontos ok pedig a két konzol közötti oda-vissza kompatibilitás megőrzése, ahhoz pedig nem nyúlhattak túl komolyan a CPU-hoz. Így kapott kis plusz órajelet, de nem olyan sokat, hogy a régi konzolon használhatatlanul fusson ugyanaz a kód, csak FHD-ban.Ezen a helyzeten egyedül úgy lehetne segíteni, ha a fizikai, AI számítások nagy részét átvenné a GPU, eredetileg ez is volt a koncepció, ehhez viszont egészen más algoritmusok kellenének, amik úgy tűnik, valamiért nem akarnak jönni, vagy a szükséges mértékben jól működni.
-
HSM
félisten
Pár apróbb helyreigazítás.
"Pár új modell bepakolásába sem halnának tán bele a fejlesztők."
Miután mindent modellt lebutítottak DX11-re, és letesztelték a sebességet, és minden jó, majd rakják vissza egy nem prioritás mód kedvéért és kezdjék elölről az egészet?
"Elvileg alig kellene csökkenie a sebességnek nem igaz?"
Nem feltétlenül. A sebesség akkor nem csökkenne, ha van az adott PC-ben elég erős processzor, ami változik, hogy már nem csak ~1,5 szálon kell nagyon erősnek lennie, plusz amennyit a játék logikája kíván, hanem ha van egy 16 magos processzorod, akkor 16 mag fog tudni számolni, nem csak mondjuk 4. Ezenkívül kell egy megfelelően erős GPU is, mert a részletesebb jelenet arra is plusz terhet ró.
Ha az átlag gamernek van egy négymagos i5-je, és az már most a DX11 alatt is köhögve futtatja a játékot, akkor nem lesz látványos hatása a DX12-nek, mert nincs mit bevetni a pluszmunka elvégzésére, hiába lenne már rá lehetőség az API oldaláról.A 2009 Q1-es procin csak azt felejtetted el, hogy az elmúlt ~10 év legnagyobb technikai előrelépése volt kb. az az architektúra, aminek alapjait a mai napig használják, és nem mellékesen kb. minden tekintetben erősebb, mint a konzolok CPU-ja. Én is jöhetnék ilyen mókás dolgokkal, hogy 2010Q1-es a processzorom [link], és megfelelően többszálúsított kódokban nagyságrendileg egy 2017Q1-es i7 7700K sebességét hozza....
Igen, jól látod, a Crytek nagyot alkotott. Egyébként a Crysis3-asuk a mai napig az egyik legdurvább játék, ami a CPU megizzasztását illeti. Nem sok DX11 cím képes 12 szálra is skálázódni. [link] Ugyanakkor az is látszik, hogy még ennek a kivételes játéknak is messze van a skálázódása az ideálistól, a CPU használat mérő sem véletlen mutat a 6/6 szálas képen is csak 66%-ot, a 6/12-n pedig csak 45%-ot.
Ami a konzolokat illeti, azokban a túlzottan spórolósra vett CPU lett a durván korlátozó tényező. Azért vegyük észre, hogy 8 magon mindössze egy kétmagos modern i3 teljesítményét hozza. Ez elegendőnek tűnt mikor a konzolokat tervezték, de valahogy nem jött be az a GPU-gyorsított megoldás, ami tehermentesítette volna a CPU-t. Hogy ennek az-e az oka, hogy nem alkalmazkodtak kellőképpen a játékfejlesztők (idő --> pénz!!!), vagy maga a koncepció volt döglött, hát nem biztos, hogy valaha is ki fog derülni.
-
HSM
félisten
válasz
Locutus
#32154
üzenetére
Ahol egyáltalán kiválasztható opció a DX11 leképező az szvsz nem is igazi DX12/Vulcan cím.

Ugyanis kétféleképpen senki nem fogja megírni a játékot, az összes jelenettel és modellel, tehát ilyenkor mindenben a gyengébb API-hoz fognak alkalmazkodni, ami azt is hozza magával, hogy a többi leképező benne van, mert miért ne, de értelme, vagy látható hatása aligha lesz.(#32152) Abu85: "gyártói segítséggel a szervizkönyvtárakon keresztül kikerülgetik az API-t."
Ugyan nem szervízkönyvtárakon keresztül, de mintha már a BF4-ben is így működött volna a motor, ezért is volt sokáig tele device hung hibákkal. -
HSM
félisten
válasz
Puma K
#32143
üzenetére
"Ha van megfelelő teljesítményű hardver lehet feljebb menni részletességben...."
Pont itt van a baj a DX11-el. Nincs olyan hardver, és a jelenlegi állás szerint nem is lesz egyhamar, ami 1-2 szálon nagyságrendileg gyorsabb lenne a jelenlegieknél. Tehát nem fogsz tudni feljebb menni egy adott szintnél, mert el fog fogyni az API, és ugyanaz a gyönyörű helyzet fog előállni, hogy hiába van mondjuk 10-16 magos processzorod, CPU-limited lesz néhány magot használva, mert a GPU-nak csak egy mag küldözheti a rajzolási parancsokat DX11 alatt."GTA V - Attention to Detail [Part 1]"
Gyönyörű részlet volt rögtön az elején, hogy a bokor meg sem rezdül, miközben egy helikopter szeleteli éppen a leveleit... Nekem nem éppen a videó címe jutott róla eszembe.Szóval ez így nagyon jó bemutatóra, hogy brutál részletes modelleket belerakj, de úgysem fogja bírni, ha minden ilyen részletes, tehát végeredményben nem vagy vele kisegítve.
Látom, mit lehet kihozni, teljesen jó, csaképpen még mindig üvöltenek belőle a DX11 korlátok, csak már nem olyan hangosan....
(#32144) Callisto: +1.

(#32147) TTomax: A bibi ott van, hogy az OpenGL másra való. Ugyanis DX csak windózra van, míg a Vulcan/OpenGL platformfüggetlen API-nak készült, annak minden előnyével, hátrányával.
-
HSM
félisten
válasz
Puma K
#32124
üzenetére
Az első képeden "gyönyörű" a bokor, meg a gyep is, ami egy textúrázott sík lap.
A második képeden a leggyönyörűbb részlet a szemeteszsákok, úgy látszik, túl sok volt a kidobni való téglatest. Ugyanúgy gyönyörűséges részlet a teljesen sík téglafal.
A harmadik képre meg inkább nem is írok semmit, a bloom effekten kívül nem sok értékelhetőt látok rajta...

A játékkészítőkkel a probléma csak ott van, hogy nekik el kell adni a terméküket. Nem fognak normális, kizárólagos DX12 leképezőt/játékot csinálni addig, míg a piac csak kisebb részén működne a dolog. Őket a pénz irányítja, nekem viszont egészen más szempontjaim vannak. (Szebb, fejlettebb játékoknak örülnék, mint amik ma vannak.)
(#32125) do3om: Totál hibás az érvelésed. "sokan eladták az NV karijukat hála Abunak". Nem.
A saját döntésükből adták el a kártyájukat.(#32127) Shing: Persze, szép alapvetően a játék, de rengeteg helyen tetten érhetőek, gyakran erősen illúzióromboló módon a grafika korlátai.
(#32128) Callisto: Attól tartok, sokan már túlzottan megszokták ezt a szintet, és el sem tudják már képzelni, milyen lehetne igényesebben megcsinálva....
-
HSM
félisten
válasz
Milka 78
#32118
üzenetére
De leírhatnád.
És ha valaki megvenné, csak magát hibáztathatná.
Persze, értem amit írsz, de lásd azt is, hogy tévedni emberi dolog, másfelől a szólásszabadsággal együtt jár az is, hogy nem mindenki véleménye fog megegyezni. Nekünk is tiszteletben kell tartanunk, hogy Abu így gondolja, ahogy leírja a forrásaitól függetlenül, ettől mi még gondolhatjuk másképp.
-
HSM
félisten
válasz
Petykemano
#32092
üzenetére
És mi van akkor, ha ez nem is "béta teszt", csak nem a gamer piac volt a prioritás, hanem a Pro változatok? Beta tesztre nem a nagyágyú GPU-t szokás bevetni. A profit egy ilyen kártyánál elsősorban úgyis a Pro vonalból jön, ott jelenleg messze a legjobb alternatíva a Vega bizonyos feladatokra (!!!!), és fajlagosan jóval magasabb áron eladható kvázi ugyanaz a termék. Pl. ahol nagy datasetekkel kell dolgozni, ott a HBCC lever mindent, illetve gamer streaming szolgáltatásokhoz is manapság ez a legjobb hardver, mivel még a videólejátszós motorja is hatékonyan megosztható a VM-ek között. Ezenkívül még ide lehetne sorolni az Apple-t is a Pro Mac-el, hiszen nyilván az is mint nagy megrendelő prioritást élvez.
A gamer piacon úgysem volt reális az aktuális szoftveres környezetben a trónfosztás, plusz itt a legolcsóbban eladható a hardver, hülyék lennének ezt fókuszba rakni.
Pláne, hogy mint írtam azért az NGG mód implementálása igencsak komoly szoftverfejlesztői feladatnak tűnik. Ettől függetlenül látok rációt a Vega+gamer piacon is, de számomra teljesen érthető, hogy az AMD így próbálja a legtöbbet kihozni az adott szituációból.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- iPhone 15 Pro Max 256GB 100% (1év Garancia) - AKCIÓ
- AKCIÓ! Microsoft XBOX Series S 512GB játékkonzol garanciával hibátlan működéssel
- HIBÁTLAN iPhone 13 128GB Midnight-1 ÉV GARANCIA - Kártyafüggetlen, MS4397
- új akku Ár/ÉRTÉK BAJNOK! Dell Latitude 5330 i3-1215U 6magos! - 16GB 512GB 13.3" FHD 1 év garancia
- Beszámítás! Benq GW2480 24 60Hz FHD IPS 5ms monitor garanciával hibátlan működéssel
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Nem csak a nagy semmi van, porcukorral meghintve.



Plusz van még nyárról betárazva két Deus Ex, azokról is jókat hallottam. Most vettem nemrég egy 8GB Rx580-at, szerintem egy darabig ezekkel elleszek.
Pl. ha jól értesültem, már stateless a hardver, amit az AMD már 2012-ben tudott. ![;]](http://cdn.rios.hu/dl/s/v1.gif)


Ami az időtállóságot illeti, szerintem ugyanakkor lesz vége mindkettőnek, a 8GB-os 580-nak és a 8GB-os 590-nek is. A 4GB-osok persze sokkal előbb ki fognak kopni, mivel az már néha ma is kompromisszumos.


De driver gondom nem volt emiatt, szerencsére.
Innentől szvsz már csak pénzügyi kérdés, mikor akarnak pontot tenni a belépő VGA szegmens létezésének végére.
"

