Új hozzászólás Aktív témák
-
#00137984
törölt tag
A hatmagos Xeon és egy i5 nem ugyanaz a liga, mégis összeméregeted őket. AMD Mantle, ami emlékeim szerint az Intel procikra nem volt ugyanolyan kedvező hatással. Azok nem gyorsultak annyit mint az AMD procikkal tették. DX11 játékban pedig inkább a magasabb órajelek számitottak és a nyers erő.

-
#00137984
törölt tag
AMD videókártyák processzor igényesebbek. Az i5-ös a GTX 1070-et nem akadályozza, de tény hogy az i5 alapórajelen biztos hagyna itt-ott kihasználatlan erőt, de a játékok jelentős részében viszont még az is elég lehet. Crysis 3 fűves pályaszakaszon talán egy jó egészséges 4.5-4.7 GHz-es tuning sem okozna akkora csodát, de hogy a minimum fps értéke nem változna fikarcnyit sem, vagy nem lenne valamivel simább a játék... Hát azt nem gondolnám.

-
#00137984
törölt tag
A kategóriának köze van mindenhez, és az meg mégis egy behatárolható árhoz köthető és egy teljesitményszinthez. Egy i5-nek nem a TitanX videókártyának kell megfelelni, mert oda i7 és i9, Xeon procikat vesznek. Egy frissebb i5 tudhat olyat felmutatni amit egy régebbi előd lehet hogy nem (jó magas órajeleket jelentős melegedés nélkül, ha merő "véletlenségből" nem tré paszta van a fedél alatt). Magas turbó órajelek vagy 4.2-4.5 GHz környéki tuningnál az i5 prociknak aztán felugranak az fps számok a játékban... Csak egy ilyen proci mellé GTX 1070 OC vagy alapórajeles GTX 1080 videókártyákat tesznek. GTX 1080-at csak helyenként fog kihajtani, de nem CPU limitre hajlamos játékban akár a tuningosabb GTX 1070-et is lenyomhatja. Ezért örültem a GTX 1070 ti megjelenésének, mert egy i5 4690K procival kihasználhatom ezt a 2048 shader és VRAM órajel update adta lehetőséget. Egy régi alacsony órajelű i7 és i5 mellé nem feltétlen éri meg ez a fejlesztés, mert úgye nem mindenkinek van egy régi proci mellé jó tuningos deszka vagy nem is szokta az órajeleket felhúzni 3.5-4.0 GHz főlé. Reszkess VEGA 56...!

-
Ribi
nagyúr
Nem tudom hova tenni amikor valaki a kapható majdnem legdrágább procira mondja, hogy nem kompromisszumokkal jó csak játékos gépbe? (nyilván van szerverekbe szánt proci is 400é) És szerintem aki ilyet állít az hazudik. Ha már ilyen szélsőségesen kell kinyilatkoztatni. És nekem is szúrja a szemem amikor valaki ilyeneket állít, hogy játékos gépbe kötelező a dinnye meg a haccázsillió gigára húzás mert az alatt nincs kihajtva. Ez hülyeség. (vagy hazugság?)

-
Crytek
nagyúr
A game tesztek ezt mutatják.... főleg ha mindez multipalyer haterséggel társul.... + 2K-4K felbontásban játszás...hoho már lassan i3hoz jutunk vissza....
Epekedve várom az első fecskéket amiknek KŐTELEZŐ lesz a 6-8-10+ mag...,mert 4 magon játszhatatlanok lesznek szó szerint....
-
Nem tudod megkülönböztetni egy rosszul szellőző "gamer" géptől az a baj...

Főleg mondjuk egy VEGA szintű fogyasztásnál/hődisszipációnál.Ha meg minden ilyet nem rendeltetésszerűnek ítélsz, akkor meg azért lesz bajod... senki sem fog tőled kártyát venni, ha szarozol. Interneten kb 1 perc alatt elterjedne. Itt is ugye mindenki 3 év garis kártyákat keres... ha már csak 2 év... hajjaj, akkor az már nem olyan jó...

Mi lenne, ha kiderülne a nyűgös gari/RMA is... katasztrófa.
Meg mi van, ha te tervezted rosszul a kártyád? Lásd EVGA VRM probléma és botrány...

Ügyfél is mondhatja, hogy szar a hűtőd, vagy a kártyád... nem jól tervezted, te hibáztál, stb.Ez szerintem annyira macerás és ingoványos ügy az egész, hogy nem éri meg az energiát belefeccölni tényleg.
Egyetlen szűrő lehet, az 1-3 kártya per ügyfél. Semmi más nincs. És még ezis lehet problémás fogyasztói jogilag, de könnyebben védhető a cégek részéről is.
No mindegy, túltárgyaltuk, részemről zártam is a témát, amugyse ide való.
Majd a gyakorlatban kiderül hogy működik ez a bányász limitált gari és milyen változásokat hoz.
-
Ilyesmit igazán nem lehet megmondani semmivel... max azt hogy nem volt eléggé hűtve vagy ilyesmi, de az megintcsak lehet nem bányászattól is ugyanúgy...
Max azt tudnám elképzelni, ha lenne valami flash rom ami titkos és visszaír bele a kártya időről időre, hogy pl mennyi időt futott teljes terhelés közelében, de még ezis elképzelhetetlen lenne vacakolni ilyesmivel, meg akkor rá kéne ezt is plusszba pakolni a kártyákra...

Az már inkább feltűnő, ha ugyanaz az ember sokat vinne vissza... de itt is csak ez lehetne önmagában egy indirekt gyanús/bizonyító tény max.
Autóiparban ugye ezért van futott kilóméter vagy x év garancia... ahhoz itt is mérni kéne a futott kilómétert, hogy a "túlzott használatból" eredő garanciális problémákat kiküszöböljék.
Vagy mint az ssd-knél az írott adatmennyiséget. -
emmm
őstag
Ebből is kb. ugyanez jön le. GTA5-nél annyi, hogy pont a határon van i5-tel, az i7 meg picit felette. Inkább kikapcsolok 1-1 dolgot a kártyán, mintsem ezért vegyek egy i7+Gsync monitort. Persze ez pénztárcafüggő, de semmiképp sem lehet ajánlott kategória.
Amúgy nagyon meglepődtem, hogy a home serveremben használt i3-6100 (nekem a T verziós van) ennyire megállja a helyét

-
.LnB
titán
Utolsó hsz-em a témában, mert nem szeretném megütni miattad a bokámat.
Engem akarsz te hülyének nézni? Úgy nézek ki mint egy kezdő, új reges fórumozó? Nem. Hányszor láttam már ezt. Linkelgetünk, személyeskedéssel takaródzunk, csakhogy próbáljuk bizonygatni, hogy nekünk aztán semmi közünk az egészhez, "Ott se voltunk!" Túl vagyok már a naiv tiki koron is, szóval koromból adódóan se fogsz tudni megvezetni. De valószínűleg ez nem is nekem szólt. "Adminbácsi nem én voltam! A csúnya LnB volt, tessék kitiltani!" szól a burkolt utalás. Csakhogy a viselgetés, a rosszindulatú hangulat gerjesztés így is átjön a kommenteken. Szerencse kell ahhoz, hogy ennek bárki bedőljön.
Abu85 Nézem QuakeCon-t. Vegák vannak a gépekbe?
-
->Raizen<-
veterán
Tényleg? Vegyél akkor egy gtx 1080-at és mérjél párat a húzott x58 rendszereddel, biztos fog benne hagyni tartalékot a kariban, míg skylake-el egyáltalán nem.

Lassan kint lesz a tesztem gtx 970 vs 1080 és ott látod majd mi a helyzet konkrétan, oldalakon keresztül. Gyere oda nyugodtan..

-
Abu85
HÁZIGAZDA
Nem teljesen. Itt arról lenne szó, hogy az OS az elvett memóriát ne is lássa. Ez van a konzoloknál. Innentől kezdve nem az Mm kezelné a CPU memóriáját, hanem a program. A VidMm folyamatot is kiváltaná az alkalmazás.
Azok inkább explicit API-k. És az Mm, illetve a VidMm folyamatok még futnak alattuk.
-
Abu85
HÁZIGAZDA
Nyilván, ha a motorok többsége nem működne rosszul ilyen szempontból, akkor a HBCC ötlete sem merült volna fel.
Abszolút tök jó lenne, ha olyan lenne a PC, mint a konzol, hogy az OS-től elvehető lenne a rendszermemória egy része és a VRAM, így a program ezeket közvetlenül vezérelhetné. De annyiféle konfiguráció van, hogy ilyen sosem lesz. Szóval lábon vagyunk lőve, és gondolkodni kell a PC-ben is alkalmazható megoldáson. 
-
Abu85
HÁZIGAZDA
Nem tud a rendszermemória kárára dolgozni. Most is sok rendszermemória kell a hagyományos vezérlésnek, mert a rendszermemóriában van tárolva rengeteg CPU és GPU számára is elérhető adat. A különbség annyi, hogy a HBCC-vel elég csak az igényelt lapokat bemásolni, míg a hagyományos vezérléssel a teljes allokációt el kell helyezni a VRAM-ban, annak ellenére is, ha csak a 0,1%-ára van szükséged belőle. Aztán ha ideálisan tekintünk a menedzsmentre, akkor lényegében arról szól az egész, hogy az allokációkat ide-oda helyezgesse a rendszer a VRAM és a rendszermemória között. A gyakorlatban azonban ez nem feltétlenül valósul majd meg és onnantól kezdve, hogy valami gikszer van a menedzsmentstratégiában rögtön drámaian elkezd nőni a memóriaigény. A HBCC ezekre a gikszerekre immunis.
Az, hogy a QC-nek ma 16 GB RAM és 8 GB VRAM igénye van ultra beállítással egy gikszer eredménye. Nem működik jól a motorban a menedzsment. Később meglátjuk, hogy mire mennek, amint itt a Vulkan és azzal a motorstruktúra frissítése.
-
Raymond
titán
Lehet, viszon ez igy picit lenyegtelen:
"Miért okozna bajt az MSAA a Vega-nak?
Én csak azt mondtam, hogy ha olyan beállítást tesztelünk, ami memória sávszélesség limites(ebb), akár Vega-n, akár 1080Ti-n, akkor csökkenni fog a Vega előnye Dirt-ben"mert nem arrol van szo hogy csokken a Vega elonye es raadasul nem is a 1080Ti ellen, hanem eleve a sima (raadasul FE) 1080-at se eri be. Es nem kell ehhez 4K, a felbontas meg mindig az aranylag alacsony 2560x1440:
Pegig savszelbol a Vega-nal van messze legtobb, itt 484GB/s megy a 320GB/s es a 256GB/s ellen megis az van hogy alig elozi meg a majdnem csak feleannyibol gazdalkodo 1070FE-t.
-
FLATRONW
őstag
Ok, ez mind szép és jó, de megint úgy van beállítva az egész, hogy ők megváltják a világot ezekkel a megoldásokkal, pedig csak a saját elbaltázott architektúrájuk hatásfokán próbálnak javítani.
Jó esetben elérik azt, hogy 484GB/s mellett nem fog problémát okozni pl. az MSAA, miközben a konkurenciánál ez 256 GB/s mellett sem okoz bajt. -
FLATRONW
őstag
Ez csak azért vicces, mert 2-3 évvel ezelőtt az volt az érvelés a 256 bites memória felépítésű NV-k ellen , hogy a jövő játékaiban mekkora hátrányt is fog az jelenteni. Mivel a különféle modern grafikai megoldások nagyon nagy mértékben meg fogják növelni a sávszélesség igényt.
Ok, az MSAA-at feleslegesnek érzed jelen esetben, de mi lesz akkor, amikor nem lesz felesleges? Vagy mi lesz akkor amikor a beígért grafikai megoldások miatt is meg fog nőni a sávszélesség igény?
Akkor ragadjunk le a mai grafikánál, mert a jövő hardvere kényes a sávszélességre?
Ebből is látszik, hogy nagyon rossz az az irány amit a GCN képvisel. -
Egon
nagyúr
Mert ha felhúzol plusz gyártósort miattuk, és utána hirtelen leáll a bazár, akkor gáz van. (Pénzügyileg.)
Az AMD nem gyárt. Annyit kellett volna tenni, hogy le kellett volna kötni némi plusz gyártókapacitást (kár feltételesen is).A poor Volta-zás szvsz a jelenlegi formájában marketing fail. Elméletileg azt akarták vele kommunikálni, hogy a Volta ellenfelének szánják a terméket. Ami amúgy teljesen érthető, a mai, még inkább a tegnap technológiáját (DX11 alapok) használó programok mellett a Pascal kb. a tökéletes GPU, saját pályán meg nem lenne éppen könnyű megverni. Marad tehát a következő generáció, amiben az Nv-nek is elvileg már illene kicsit elmozdulnia a jelenlegi problémákat kevésbé "izomból" "megoldani" igyekvő architektúra felé, és az már egy sokkal reálisabb verseny helyzet lehet jövőre. Persze, nem tudjuk, mit agyalt ki a zöld oldal a Pascal óta, de én itt lényegesen komolyabb versenyre számítok, mint amit ma láthatunk a tesztekben.

Gondolom úgy érted, hogy a Vega utáni széria vs. Volta: azt azért remélem senki nem gondlja komolyan, hogy a Volta gyengébb lesz, mint a Pascal...

-
#85552128
törölt tag
"Az architektúra az általad említett esetben nem változott jelentősen"
Két feltételt állítottál, mindkettő teljesül.

Vagyis még kevesebbnek kéne lennie az előrelépésnek, mert még kevesebb az amit az architektúrából nyerhettek volna. Pont ezért egy jelentős architektúra ÉS gyártástech. váltásnál nagyon kevés az a 25%."Plusz gyorsan tegyük ide hozzá, hogy a 80% előrelépéshez a megjelenéskor kellett egy Titán, valamint új memória technológia (GDDR5X), aztán persze később a gyengébb 1080Ti is feljött erre a szintre."
Ahogy kellett egy HBM2 is és +1 év, a 80%-hoz lehet, a legalább 50%-ot a GTX 1070 és 1080 is teljesítette, de még szerintem a 1060 is.
"A Vega esetében viszont nemhogy 25%-al gyorsabb memóriát kapott volna, hanem memória sebesség tekintetében még visszalépés is történt. "
A Fiji és az azelőtti GCN-ek is sávszélzabálóak voltak, ilyen téren már a polarisnal is jelentős javulás történt, a Vega meg elvileg mégtöbbet hozott.
De akkor vagy rákellett rakni +1-2 db stacket és/vagy tervezni egy kisebb chipet. Az, hogy kiegyensúlyozatlan a konfig (mint a Fury esetében) és ezáltalál a teljesítmény is, nem mentség, inkább szomorú, hogy még mindig nem tanultak belőle."Demókon már láthattuk pl. a HBCC hatását, hogy Vega-n vígan szalad olyan kód, ami a konkurencián el sem tud indulni.... Na, az hány % előrelépés?"
A saját termékének kedvező demót bárki összetud állítani. Hány olyan játék lesz az elkövetkező 1 évben ami a "konkruencián el sem tud indulni" - na ez lesz a mérvadó, nem a demók.
-
#85552128
törölt tag
"Nem tudom, te hol láttál egy gyártástechnológia és architektúra váltástól kétszer +25% teljesítményt, ráadásul egy durván 25%-al kisebb csipből, de nekem egy se jut eszembe...."

Nekem meg kettő is:
GTX 980 Ti vs. GTX 1080 Ti
601mm2 -> 471mm2GTX 980 vs. GTX 1080
390mm2 -> 314mm2Igaz "csak" 60 illetve 80% előrelépés teljesítményben és nem egy játékban:
-
#85552128
törölt tag
Az a +25% architektúra és gyártástechnológia váltás után lfsz nem fejlődés.
Ennyit egyedül az egyikből kéne tudni hozni, nem a kettőt kombinálva, se a teljesítmény se a fogyasztás nincs rendben."A 4K-t nincs értelme nézni"
Ja persze ha már nem annyira tetszetős akkor nincs értelme nézni, FHD-t kell nézni egy olyan játékban ahol egy középkategóriás kártyával is megvan a 60 FPS.
Ebben amúgy az a legjobb, hogy a Dirt4 még csak nem is DX12/Vulkan játék, szóval az előbb "tegnap technológájának" becézett DX11-ben éri el ezt, nem is valami űrtechnikás játékban. -
#20844032
törölt tag
Ez lenne a fejlesztés? Ez inkább tűnik a szarnak minél laposabbra paszírozásának. De a foglalkozás végeredménye még mindig büdös, és ronda. Nem. A válasz, amit itt szépen elkerül mindenki, hogy azért nincs 4K képes, Ti-t alázó Vega, mert nem lehet piacra dobni 5-600 wattokat fogyasztó szörnyetegeket. Sem etetni. Sem managelni. De ehhez azért kéne 5-600 watt, mert az architekt túl a Ph-s GCN felszopó cikkek drawcallokat okádó csillámpónian egy olyan célokat megvalósítani kívánó torzszülött, amiből a bányászokon kívül konkrétan nem profitál senki, pláne a játékosok nem. Akliket pedig ez a cég állítólag nagyon fontosnak tart. Én csak azt látom, hogy én nem vagyok fontos nekik. Ami sajnálok, szívesen adnám akár nekik a pénzem egy részét.
-
-
#20844032
törölt tag
Amíg a gyártók ennyire látványosan nem képesek ettől több erőforrást belepakolni egyetlen kártyába, addig remélhetőleg a játékok sem fognak több erőforrást igényelni. Ám ha ez mégis bekövetkezne, minden jel, és az itt elhangzottak abba az irányba mutatnak, hogy nem az AMD lesz az, aki kihúz majd e szorult helyzetből

vagy inkább
-
Egon
nagyúr
Pont ezaz, ha valakinek mindenáron a csúcs kell (mert máshol van piros alternatíva, verseny) akkor miért nem örül, hogy a zöldektől megveheti?

Nincs árverseny, egyik kategóriában sem. Kétszereplős piac van, erősen oligopol jellemzőkkel. Az nV diktál, az AMD pedig boldogan elevez a farvizén, az adott kategóriás nV termékhez igazítva az árazását (nyilván azon kategóriák vonatkozásában, amelyben éppen van versenyzőjük). Ez a probléma.
Eddig szerintem mindenki azt gondolta, hogy oké, 1-2 generációt "leadott" az AMD, de aztán majd jön egy olyan termékkel, ami árversenyt indít be. Az árversenyt a csúcskategóriákban kell megindítani, mert onnan lehet lenyomni a többi árat is (ha mondjuk a 1080-at az nV kénytelen lenne 1070 árban adni, nyilvánvalóan a 1070 árát is csökkenteni kellene stb.). Annak következtében, hogy az AMD új terméke jóval később jelent meg, mint a konkurencia jelen pillanatban piacon levő vasa, reális elvárás lehetett, hogy minden téren jobb legyen nála. Ha nem egyértelmű a trónfosztás, akkor jöhet az árazás, mint fegyver. Ehhez képest az AMD nem igazán élt ezzel a lehetőséggel. Úgy tűnik, nem is akarnak piacot szerezni: megelégszenek azzal, hogy a bányászok jól megveszik kb. mindet. De ha készlethiány van, akkor elvileg többet is el tudnának adni: lehet hogy alábecsülték a keresletet, és kevesebb wafert kötöttek le annál, mint ami indokolt lett volna?
A piaci versenyre visszatérve: egy versenyhez (legalább) két fél kell. Az nV-nek mit kellene csinálnia a versenyhez? Várják be az AMD-t?
Ugyanis meg vagy győződve róla, hogy nem az AMD tehet a verseny hiányáról. Akkor ki? Egyébként az nV a termékciklusok elnyújtásával megtette azt a szívességet, hogy elvben hagyta/hagyja utolérni magát (lásd Intel). Már csak le kell ütni a magas labdát... ![;]](//cdn.rios.hu/dl/s/v1.gif)
Hja, és miképp értékeled a poor Voltázást, a Vega eredményeinek tükrében?
-
Egon
nagyúr
Nekem is az volt akkortájt: egy BBA R9700Pro, amit használtan vettem, mivel akkorra már nem gyártottak csak 9800-at, amit nagyon drágának találtam, a középkategóriában pedig csak a 4 pipás 9600-ak voltak, amit nem éreztem elég időtállónak.
Viszont az én szám cseppet sem ért fülig: egyrészt a kártyán igen hamar meghalt az egyik ramdac, másrészt mindent összegezve azóta sem szívtam annyit driverrel, mint akkor (pl. a Silent Storm fix helyen fagyott, ezért nem tudtam végigvinni), harmadrészt a kollégám, aki - az ismert hibájával együtt - megvette cca. 2 év múlva a kártyát (amikor boldogan váltottan 6800 Ultrára, és - a hőtermelést leszámítva - tényleg fülig ért a szám...) is rosszul járt, mivel neki kb. 6-8 hónap alatt teljesen megdöglött a kártya (pedig AC hűtés volt rajta, nem a gyári). Ehhez képest egy barátomnál a mai napig üzemel (szintén custom hűtéssel) az a Giga 8800 GTS (512 megás verzió), amit már több mint 10 éve adtam el neki (és nálam is ment legalább 3 évet), pedig azok állítólag erősen hullottak... -
#20844032
törölt tag
Azért ha lenne egy 4K-ra alkalmas kártyája az AMD-nek, még ma megvenném. Mert erre a Ti is csak vékonyan elég. Ez nem egy olyan nagy igény, 4K folyik a csapból is. A konzolgyártók is 4K-ra buzdítják a népet, megvetetik velük a 4K tévéket. Azokban is AMD van. Hol található tehát a 4K@60-képes AMD kártya? Melyik polcon találom? Tudna adni valaki egy linket? Venném!
-
Egon
nagyúr
Egyébként ez a megközelítés világosságot gyújtott a fejemben: így már egészen másképp kell megítélnem egyes ph-szakíró házigazdák tevékenységét. Semmi baj sincs azzal, hogy Erősen áthallásos, első blikkre negatívan értelmezhető címet adnak egy amúgy tök hétköznapi driverhírnek; sőt: az se probléma, ha a konkurencia vonatkozásában egy valóban problémás gyakorlatot, amit - a bekövetkezést történő, netszerte érzékelhető felháborodás alapján is - joggal lehetett volna "ügynöközni", nevesen amikor kéretlen parancsikon jelent meg a drivert telepítők asztalán, egyenesen extraként felfogható funkciónak minősítenek: ezt korántsem holmi elítélendő elfogultság végett teszik, pusztán csak a maguk szerény eszközeivel küzdenek az egészségtelen (?) piaci részesedés ellen...

-
Egon
nagyúr
Aha, akkor az nV FX-érában nyilván FX5700-at (vagy 5950-et) vettél, nemdebár?

Senki nem fog magával kicseszni (olyan értelemben, hogy gyengébb teljesítményt vesz, mint amire szüksége van),csak azért, mert egy kétszereplős piacon az egyik gyártó szerencsétlenkedik. Legalábbis, ha racionálisan gondolkodik...
Amennyiben adott júzer részére elégséges a középkategórás teljesítmény, n+1. szempontnak bejöhet ez is (közvetlenül az ár/teljesítmény, a melegedés/fogyasztás, problémamentes felhasználhatóság után). -
ÁdiBá
veterán
145-165 FPS szeretnél játszani egy Gszinkronos monitorral 1440p felbontásban.
Látod, ha végig gondolod mindjárt nincs is olyan messze a 280 ezres GTX1080Ti kártya az elképzeléseidtől.
Hiába veszek 50 ezeré Radeon-t vagy Nvidiát. Mit érek el vele?
Én lennék az első között az az ember aki megvásárolná a VEGA kártyát ha az elképzeléseit hozná, de figyú a 1080 eladtam mert kevés...
Nyilván mi vagyunk a legnagyobb lámák hogy ennyiért vásárolunk nvidia kártyát, de hát, adj radeont ami ezt hozza....
Tudod, keres kínálat törvénye itt is érvényesül. -
Oliverda
félisten
"Nem hőbörögni kellene a konkurencia hiánya miatt, hanem nem megvenni a túlárazott terméket."
Sőt, akár egyből tüntetést vagy éhségsztrájkot is szervezhetnénk.

Személy szerint nekem nem is az árazás fáj leginkább, jobban zavar, hogy emiatt belassulnak a fejlesztések. Szívesen adnék egy kicsit több pénzt egy gyorsabb 75 wattos VGA-ért, de jelenleg a GTX 1050 Ti-nél nincs jobb alternatíva, és jelen állás szerint még jövő nyárig valószínűleg nem is lesz, tehát az NV-nek cirka két évig egy szalmaszálat sem kell keresztbe tennie, mert nincs rákényszerítve.
-
Yutani
nagyúr
De nem érted, hogy minden az AMD hibálya!!4!!4!négy!4!!!! Elipszilonnal, mert az jobban kihangsújozza!!4!!!!
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#29631) Puma K: Tök mindegy, hogy CPU vagy GPU, minden területen az AMD tehet arról, hogy a szemét kapitalista Intel és Nvidia két kézzel kotorja ki a zsebeitekből a pénzt!4!!!4!4
-
Oliverda
félisten
Konkurencia nélkül nincs verseny, annyiért adják a terméket amennyiért még épp megveszik. Lásd Intel hosszú évekig. Megjött a Ryzen, máris jön a négymagos Core i3. Nem, nem véletlen. Tehát igen, ha Koduri és csapata sokat töketlenkedik, akkor még feljebb mennek majd az árak. Ilyen ez a szakma.
-
-
#00137984
törölt tag
Nekem ezekből a HD 4850 volt meg egy huzamosabb ideig. Crysis és Witcher elment rajta 1280x1024 felbontásban, de a beállitásokat igen gondosan meg kellett válogatni a folyamatos játékhoz. Évente egy-két driveres bug volt időnként visszatérő nálam, de az R9 270X közelébe nem érnek fel ezek a gondok. RX 470-en nálam már túl sok volt a kompromisszum és a szükös játékélmény miatt váltottam. Ott is igen nagy igérgetések folytak a megjelenés előtt. Aztán mégsem jőtt be ezek többsége, főleg a teljesitményét és a melegedést érintő gondok érintettek akkor érzékenyen.
-
Abu85
HÁZIGAZDA
És azokhoz a processekhez kapcsolódnak kernel driver szerver szálai. Ezért dobjuk ki ezt a feldolgozási konstrukciót, mert óriási fogyasztó maga a driver, és ráadásul a párhuzamosítás hatásfokát is rontja. Ezt úgy kell elképzelni, hogy az OS terhelésjelzője szart sem ér. Az csak arra képes, hogy meghatározza a CPU és a magok maximális terhelését, de nem tudja megállapítani, hogy valóban annyi-e, vagy éppen stallba futott a rendszer. Ezekre vannak külön segédprogramok.
-
Abu85
HÁZIGAZDA
Most is óriási különbség lesz az Xbox One (S) és az Xbox One X között. Azzal, hogy az újabb gép a rajzolási parancsok feldolgozását nem a processzoron, hanem fixfunkciós hardveren végzi lényegében jóval nagyobb előnyre tesz szert, mintha kapott volna nyolc extra magot. Nem szabad ugyanis elfelejteni, hogy a rajzolási parancsok feldolgozásával járó munka teszi ki a processzor feladatainak döntő többségét.
-
Abu85
HÁZIGAZDA
De miért ne lett volna kompatibilis? Ugyanaz az ISA, ugyanaz a memóriamodell, még azt is meg tudják határozni, hogy a késleltetések is ugyanazok legyenek, mert ez csak egy működési módra vonatkozó beállítást igényel. Simán be tudták volna építeni, ha azok a fejlesztők, akikkel ezt fejlesztették azt mondják, hogy szükség van rá. De nem azt mondták, így inkább más költötte el a Microsoft a tranzisztorokat, például egy rakás fixfunkciós blokkra, amelyek teljesen hiányoznak az eredeti Xbox One-ból.
Alapvetően a hozzáállás a baj. Mert nekem ne mondja azt senki, hogy egy olyan cégnél, ahol a marketingköltségre elvernek több tíz millió dollárt, nem jut pár százezer az optimalizálásra.
-
#20844032
törölt tag
-
FLATRONW
őstag
Őszintén a jelenlegi konzol fizika minőségével semmi baj nincsen.
Hogyha nem törődnének a visszafele kompatibilitással és bevetnék dupla CPU magszám mellett az összetettebb fizikát, akkor sem lennénk előrébb. FullHD mellett ugyanúgy 30 fps-re limitálna a CPU, miközben a játékosok észre sem vennék a fejlettebb fizikát, közben a GPU továbbra is kihasználatlan lenne.
Én azt mondom, hogy egyáltalán nem kell a játékmenetet módosítani, az extra CPU erőforrást nem kell elpocsékolni néhány effektre, hanem egyszerűen ki kell ütni vele a CPU limitet, hogy fullHD mellett ne lustálkodjon a GPU és meglegyen mindig a 60 fps.
4k-ra meg elég a 30 fps, azon tényleg nem segít a CPU. -
FLATRONW
őstag
Például a jelenlegi fizikai beállítások mellett a CPU csak 30 képkockát képes előkészíteni, miközben a GPU ennél jóval többet is képes lenne kiszámolni. Ilyenkor azért jól jönne a dupla magszám, ami nem korlátozza be a GPU-t.
Az a lényeg, hogy a játékmenetet érintő fizikát nem kell módosítani és akkor máris van értelme a több CPU magnak. -
Abu85
HÁZIGAZDA
A PS4 Pro és az Xbox One X sem kompatibilis az előddel. Egyszerűen csak van egy kompatibilitási módjuk, ami a részegységeket úgy működteti, mintha ugyanazt a lapka lenne benne, ami az első verziókba. Az Xbox One X esetében egy rakás dolog változott a CPU-magokban, de mégis ebben a kompatibilitási módban ugyanúgy viselkedik, mintha Xbox One (S) lenne. Szóval lehet változtatni, elég sokat, ellenben az igény az volt, hogy a GPU-rész legyen erősebb, mert a CPU-kat elég erősnek tartották a first party stúdiók, akiknek a véleménye alapján fejlesztik ezeket a gépeket. 14 nm-en nyolc extra CPU-mag nem lett volna több 15 mm2-es kiterjedésnél, de nem kellett, mert fontosabbnak számított számos más tényező, amelyekből sokkal több sebességet lehet nyerni.
Az eredeti játékok csak akkor futnak jobb minőséggel, ha készült hozzájuk patch, amivel támogatják a magasabb teljesítményű működési módot. Ha egy program nem ad erről visszajelzést az indítás elején, akkor a kompatibilitási módban fut, vagyis olyan, mintha PS4 Pro helyett PS4-et, míg Xbox One X helyett Xbox One (S) konzolod lenne. Semmit sem számít ilyenkor, hogy az erősebb gépet vetted.
-
Loha
veterán
DigitalFoundry-nak pont volt erről egy átfogó videója (angolul értőknek):
Why Next-Gen Consoles Need Ryzen CPU Technology! -
DudeHUN
senior tag
-
Abu85
HÁZIGAZDA
A gyakorlatban nagyon jól megvalósult már. A GPU-driven pipeline, a GPU skinning, a korábbi CPU-s szimulációk GPU-s gyorsítása, ezek mind ennek a váltásnak köszönhetők. Csak ezek kutatása pénzbe kerül, és nagyon sok cég képtelen levezényelni. Ezáltal választanak egy olcsó motort, amelyek pedig mobil fókuszúak, mert onnan jön nekik a pénz, és emiatt hoppon maradnak egy csomóan. De a nagy stúdiók/kiadók már átálltak. Egy rakás új motor GPU-driven pipeline, sok GPU-s skinninget is használ, az Activision aszinkron compute-ban. A részecskéket, a clothot, és más szimulációkat is a GPU csinál már a top rendszerekben. Persze nem az olcsó motorokban, azok butácskák, mert nincs mögöttük az a pénz, amivel versenyezni lehet egy kiadói háttérrel. Nagyon jó példa erre a Microsoft Unreal Engine 4 portja, szemben a gyári főveztióval. A Microsoft megoldása fényévekkel fejlettebb, sokkal gyorsabb, sokkal jobb a leképező is. Viszont ez a Microsofté, és már nem írják vissza a módosítást az Epicnek. Akinek nincs meg az anyagi háttere, hogy az olcsó, alapvetően mobiltelefonokhoz tervezett motorokat így átalakítsa az meg van lőve.
Ugyanarra felhasználhatod a multiprocesszorokat. Csak nem érdemes. Viszont sok régi rendszer még azt is a CPU-n futtatja, ami sokkal gyorsabb lenne a multiprocesszorokon.
A GPU-driven pipeline, a GPU skinning, a különböző GPU-s szimulációk nagyon jól működnek PC-n is. Ezekhez nem muszáj CPU-s round trip.
Nem a CPU-k gyengesége a téma. Ha megnézed a köztes generációt, akkor a CPU-hoz alig nyúltak. Nem azért, mert nem lehetne rajta változtatni (simán bepakolható még 4-8 mag), hanem azért, mert a legtöbb közvetlen visszajelzés alapján a CPU ereje még sok is. A GPU erejére voltak panaszok, és ezekre reagált is a Sony és a Microsoft. Aki szerint a CPU a kevés, annak az az általános üzenet, hogy rosszul építették fel a motort. -
Abu85
HÁZIGAZDA
De eleve úgy tervezték a konzolt, hogy ha kevés a processzor, akkor vigyék át a feldolgozást a GPU multiprocesszoraira. Ugyanolyan egységek, mint a CPU-magok. Ugyanolyan jogkörrel rendelkeznek a memória hozzáférése szempontjából. Amelyik fejlesztő ezt nem követi magára vessen. Persze nyilván a Hazelight számára ez kellemetlen helyzet, mert mobilra optimalizált motorral dolgoznak. Ott még a PC-s technikákat sem használják ki.
Amelyik stúdió UE és Unity motorral dolgozik nem várhat túl sokat, mert ezeket a motorokat Androidra és iOS-re optimalizálják, ugyanis a licencelők 60-70%-a erre figyel. A PC/konzol ezen a területen nagyon háttérbe van szorítva. Az Unreal Engine 4 például a konzolok legmagasabb hozzáférési szintjén fut, aminél például elvi szinten van olyan szint is, ami egymilliószor gyorsabban is beír egy parancsot a parancspufferbe. Persze senki sem tart pisztolyt a Hazelight tarkójához, hogy ezt ne írják át, de lepkefing stúdióról van szó, egy ilyen volumenű munkához. Az Epic eleve arra számít, hogy a Vulkan leképzőjük jó lesz mindenhova, de egyelőre a Sony és a Microsoft nem különösebben érdeklődik a Vulkan API irányában. A konzolt figyelembe véve a Unity például sokkal jobb, mert ott alacsonyabb szintű támogatás is van az Xboxra és a PS4-re.
(#29077) Crytek: Igen csak az első motorja rendkívül elavult volt. Az új résznél már a motor struktúrája is megváltozott. Két szintre választották a leképezőt. Vagy egy magas szintű felülete, és egy alacsony szintű, ami az explicit API-khoz igazodik, és ez ki van egészítve egy legacy API wrapperrel. PC-n még nem tudni, hogy melyik lesz használva, de maga a leképezési technika, ami a rendszer mögött van elavult maradt, így még a wrapper használatával is jó lesz a sebesség, mert alig lesz a GPU-nak dolga.
-
Abu85
HÁZIGAZDA
A shader nyelv leginkább azért jön, mert a konzolok shader nyelve fejlődött, mig a PC gyakorlatilag egy helyben toporgott. Ez leginkább azért gáz, mert a konvertáló, amit írnak PC-re sokkal lassabb kódokat generál. Az SM6 gyakorlatilag egy teljes modernizálás. A hardverek működéséhez igazítják az IR-t is, hiszen rég a SIMT a menő, amire egy SIMD-re fejlesztett IR nagyon nem jó. Szóval több probléma kerül megoldásra.
A Khronosnak ott van már a SPIR-V. Az nagyvonalakban DXIL képességű.
A wave intrinsics menni fog minden vason, csak nem mindegy, hogy például egy prefixsum egy utasítás, vagy több tucat. Itt igazából sebességkülönbségek lesznek.
-
daveoff
veterán
Én még emlékszem, amikor Abu előadta, hogy majd a Mantle alatt a GPU belső kihasználtsága(nem az amit szoftveresen monitorozunk), milyen radikális mértékben megnő. Pontos számokra már nem emlékszem, de nem kis különbségről beszélt.
Persze amit Abu ír nem kell készpénznek venni, ezt ugye tudjuk, szóval van aki elhitte, van aki már akkor nem...
-
Abu85
HÁZIGAZDA
Ez maga a probléma. Egyre csak csökken a kihasználás hatásfoka.
(#26601) Locutus: A HBM-nél ez nem akkora gond, mert nagyon keveset fogyaszt maga a memória. A problémát a GDDR5/5X/6 jelenti. 32 GB-nyi ezekből a memóriákból már jó 70-100 wattot fogyaszt. Holott az optimális mennyiség a VRAM-ra leginkább 10-30 watt. Nem mindegy, hogy egy adott TDP keretből 20 wattot visz el a memória, vagy 80-at például. Ennyivel kevesebb jut ugyanis a GPU-nak. Ez igazából egy régen ismert probléma. Még az NV-től Dally és Marci a JEDEC-től csinált régebben egy tanulmányt, hogy a memória tipikus fejlődésével eljön az az idő, amikor az új VGA-k csak lassulni fognak. Erre a problémára reakció a wide IO vagy a hardveres memóriamenedzsment.
-
Hachiko95
aktív tag
Viszont azt is leírtam, hogy hiába sokkal erősebb a GTX 1070, nem kell neki erősebb proci, mivel az NV driver ki van gyúrva dx11-re. Mialatt megvolt az r9 290 nem gondoltam volna, hogy az "öreg" i5 mellé beférne egy ettől erősebb kártya. Neten olvasgattam és rájöttem, hogy még belefér.
Mikor megvolt mindkét kártya láttam, hogy nem igényel több cpu erőt és drasztikusan növekedett az fps hasonló beállítások mellett.A crysis 3-ra is csak azt tudom mondani, hogy szerintem (ugyan még ezt a játékot nem teszteltem) Geforce kártyával mivel dx11 alatt fut, több fps lesz.
Illetve csak ismételni tudom magam és nem csak a crysis 3 létezik, a játékok túlnyomó többségében elég egy i5. -
Hachiko95
aktív tag
No offense, régóta olvasom a kommenteidet. Sok jó meglátásod van,de pár helyen túltoltad és csak azt az egy crysis 3 jelenetet mutogatod mindenhol, közben nem abból áll a világ.
30 fps írtál egy kép alapján a watch dogs 2-re közben 72fps van egy i5-el.
Pár esetben nem sokat ér a sok mag/szál, láthatod korábbi watch dogs 2 build-nél, ha rossz a kód nem fog rajta semmi segíteni.
Saját tapasztalatból írom, hogy egy 4670K@4.5GHz és egy hasonló i5 elég egy GTX 1070 mellé, ez volt az állításom.
Egy Titan X Pascal-t nem raknék már mellé, oda i7 kell.
Ez az egész cpu nem elég téma relatív, attól függ mit raksz mellé.Szerk.:
Szerinted húzott i5-el azon a részen, amit minden topic-ba belinkelsz 30fps-em lesz? -
Hachiko95
aktív tag
Nem volt kisebb a cpu kihasználtságom r9 290-el, mint a gtx 1070-el. Rengeteget számít a driver és az nvidia jobban kigyúrt dx11-e.
Visszatérve Vigilante képére, hiába van ott a 6 mag, a gtx 1080 részben malmozik.
Nálam pedig tökéletesen ki van hajtva az 1070, ez tény.
Gyakran nézegetem a frametime-ot is és már az is meglátom, hogy 59-re beesik az fps.Eddig nem volt problémám a cpu erejével.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- Steam topic
- Örömhír: nem spórol Európán a OnePlus
- Milyen okostelefont vegyek?
- Okos Otthon / Smart Home
- Milyen joysticket vegyek?
- Ekkor startol és ennyit gyártanak a Galaxy TriFoldból
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Xiaomi 15T Pro - a téma nincs lezárva
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- További aktív témák...
- MCDODO T03 fejhallgató
- GYÖNYÖRŰ iPhone 12 mini 128GB Blue-1 ÉV GARANCIA - Kártyafüggetlen, MS3415 94% Akkumulátor
- Gamer PC-Számítógép! Csere-Beszámítás! I5 12600K / RTX 3070Ti / 32GB DDR5 / 512 SSD!
- Telefon felvásárlás!! iPhone 15/iPhone 15 Plus/iPhone 15 Pro/iPhone 15 Pro Max
- BESZÁMÍTÁS! MSI MPG Z490 GAMING EDGE WIFI alaplap garanciával hibátlan működéssel
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest



![;]](http://cdn.rios.hu/dl/s/v1.gif)



Mit kell a motion bluron csökkenteni kilövöd a settingsbe azt kész...

Én csak azt mondtam, hogy ha olyan beállítást tesztelünk, ami memória sávszélesség limites(ebb), akár Vega-n, akár 1080Ti-n, akkor csökkenni fog a Vega előnye Dirt-ben"




