Új hozzászólás Aktív témák
-
HSM
félisten
válasz
Puma K
#18083
üzenetére
Amit linkeltem, hogy az Nv drivere is hibás EDID-et írt az x223w-re alapján sanszosan igen, a monitor oldaláról lehetett a bibi.
A windóz fejlesztői dokumentációja alapján pontosan az ilyen hibák javítása céljából lehet a monitorokhoz drivert telepíteni, és ez a driver gyakorlatilag tartalmilag megegyezik az EDID-el. Ezen dokumentáció alapján a hibás EDID-ű monitorokhoz a monitor driver hozza a javítást, és az tölti be a regisztrációs adatbázisba, az alapján lesznek kiválaszthatóak vagy ki nem választhatóak a felbontások, frissítési frekveniák.
Gyakorlatilag a registryben erre cserélődik ki a monitor beépített EDID-je.
Tehát az én véleményem szerint itt a monitor gyártójának kellett volna megfelelő javított drivert szállítani. Bár végülis az ini-file szerkesztésével is rá tudtad venni a VGA-t, hogy úgy használja a monitort, ahogy kell.
Szerintem az Nv onnan tudhatja, hogy a hibajelentések alapján nyilván látják, mit csinál rosszul a monitor, és így lehet rá csinálni javítást. Sanszosan nem kompletten használhatatlan, amit kiolvas EDID-et a monitorból, csak valami nem klappol benne. Szval szerintem innen tudja, és így hozzá tudja a driver adni magától a hiányzó paramétereket.
Az utolsó kérdésedre a válasz a MS-féle dokumentáció, ami világosan leírja, hogyan kell kezelni az ilyen hibákat. (Monitor driver.) Az Nv úgy tűnik úgy volt vele, inkább önhatalmúlag javítják, az AMD meg nem.
"sak használni szeretnénk a birtokunkban lévő eszközt
"
No igen. Ezzel én is így voltam.
(#18084) mcwolf79: Nekem fél évig volt 290-em, ilyen hibával nem találkoztam, csak ha túlhúztam a VGA-t és nem bírta.
Igen, a Chrome hardvergyorsításával valami nagyon el volt rontva, össze-vissza túráztatta nagyon vadul a VGA-t, azt én ki is kapcsoltam. Érdekes módon az azonos motorra épülő Opera böngészővel nem volt semmi gond hardvergyorsítással.
Amúgy a 290-es előtt 7970 és 280X kártyáim voltak, és azokkal sem volt semmi driveres gondom.Szóval nekem marad a városi legenda kategória ez a driveres sz@rozás.
Szerintem ez egyszerű pszichológia, ez van a köztudatban, hogy az AMD driveresen rossz, és a user bármi hibát tapasztal, egyből ez ugrik be neki.... Aztán erre van fogva 1000 más hiba is. Ott virít pl. az adatlapdon, hogy húzva van a 3770K-d, az kapásból okozhat ilyen driver összeomlásokat, de az nincs benne a köztudatban, nem gondolsz rá.... Az hogy Nv-vel nem csinálja sem jelent túl sokat, mivel más kódot futtat a másik driver. -
HSM
félisten
válasz
Dyingsoul
#18079
üzenetére
Nem tudom, hogy csináltátok, nekem először 4850-eim voltak, szinte megjelenéskor már vettem, és utána 4890-re váltottam, és használtam amíg ki nem jött az 5800-as széria. Soha ilyen bajom nem volt... No, nem azt mondom, hogy sosem omlott össze a CCC, vagy egyszer sem volt driver összeomlás, de nagyon-nagyon ritkán, pedig akkoriban jó sokat játszottam. SOk minden jut eszembe, de hogy a 4800-as VGA-immal nem volt sok kaland, az is 100%.
Több monitorom mondjuk nem volt, azt a részt passzolom. Mondjuk munkahelyen volt pár hasonló szérijú Radeon több monitorral, azokkal semmi ilyen beragadós gond nem volt, pedig melós gépek voltak.
-
HSM
félisten
válasz
Puma K
#18075
üzenetére
Épp ezt írtam, lehet Nv megoldotta "erőből" a windózos driverében.
Nv vasakon is előjött amúgy a gond: [link]
"Looking in the Xorg.0.log, I find that the driver considers the EDID to be invalid and so detects no information about the monitor."Pontosan erre gyanakodtam, ha visszaolvasol.
Nálam a Samsung monitoromon jó volt az EDID, ment is szuperül a natív 1680*1050 a 4850-el hibátlanul. -
HSM
félisten
válasz
Laja333
#18043
üzenetére
Pedig sanszosan ez a helyzet...

Egy HDMI port működése nem a VGA-tól lesz jó vagy rossz.... A VGA kiadja a jó digitális jelet, és az ha rendesen eljut a TV-ig akkor jó a kép. Ha nem, akkor vagy valami rossz, vagy valami óriási user error van valahol. Gondolhatod, mekkora botrány lenne, ha minden AMD-s notin használhatatlan lenne a HDMI port...

Esetleg aminek még köze lehet hozzá, hogy az Nv sokáig korlátozott színtérre tette a HDMI port működését, lehet a TV-nek a full térrel volt baja, pedig annak van jobb képminősége.
Az meg, hogy nem engedte a felbontást, arra enged következtetni, hogy az EDID hibás adatokat jelentett le a VGA-nak. Az Nv úgy tűnik driverből ráerőltetett egy javítást, az AMD meg nem. De ez nem az AMD hibája, hanem a monitoré, amit ők nem javítottak ki helyettük. Amúgy éppen erre vannak szabvány szerint a monitor driverek, hogy az utólag javíthatatlan, de gyárilag hibásan megírt EDID-et utólag felülírja driverből, és onnan azt használja a windóz. Tehát a probléma szabályos megoldása egy monitor driver telepítése lett volna a monitor gyártójától.
-
HSM
félisten
válasz
Puma K
#18020
üzenetére
Érdekes dolog ez, szerintem erősen gyanús, hogy a monitorod EDID-je volt hibás. Nekem is 1680*1050-es monitorom volt a 4850-esem mellett, soha semmi baja nem volt vele.
A notebookod esetében is nekem gyanús, hogy a notebook volt a hibás. Egy régi Mobility 3470-es Radeonos notit láttam HDMI-n TV-n, tökéletes volt a képe.
-
HSM
félisten
válasz
Dyingsoul
#18011
üzenetére
Minek legyen a drága PCB-ből a lenyúló rész, ha a ventilátort egy hitvány műanyag keret is megtartja? Így még szerelni is egyszerűbbnek tűnik, ha esetleg 3-4 év után esetleg elfáradna, és a tulaj cserélné. Mert azért van, aki nem cserél évente VGA-t...
Amúgy az Nv is elsütötte ezt a GTX670-nél. [link]

-
-
-
HSM
félisten
válasz
#Morcosmedve
#17715
üzenetére
Nem mindegy, mert a csatlakozó olvad durván 10A magasságában, márpedig az nem vidám esemény, ez 2 pin esetén 20A-nél, vagy 3 pin esetén 30A-nél következik be. Persze, jó minőségű és kitűnő állapotú terminálokkal. Ezért van nagy tartalék az ATX szabványban.
-
HSM
félisten
Nekem most egy 2GB ramos Tahiti-s 7870-em van, és hát nem ugyanaz, mint a 7970-em volt anno 3GB-al. Nem kell hozzá szuper felbontás, de már évekkel ezelőtt nem egy játék teletöltötte a 2GB ramot FHD-n is. A 7950-et kár ide keverni, azoknál nagy a szórás az alacsony TDP meg igénytelen (olcsó?) típusok révén, én a rendes 7970-ekről beszéltem.
(#17462) Abu85: Valahol meg tudom érteni a fejlesztőket...

-
HSM
félisten
válasz
->Raizen<-
#17359
üzenetére
Nekem egy 7870xt is elég FHD-ra.
Attól függ mit akar az ember, mennyi pénzből. -
HSM
félisten
válasz
#65755648
#17210
üzenetére
Nem emlékeztem, hogy Toméknál vannak ezek a mérések, különben találtam volna én is hamar.
Köszi! 
(#17211) imi123: Jól beállítva és a PCB-t megfelelően hűtve jó az az Asus, bár én még mindig nem hagytam volna kopaszon a GDDR5 csipeket.

(#17215) joysefke: Ha jól emlékszem, vagy a 15.200, vagy a 15.300 részének írták valahol. De a 15.200 amúgy is hozott egy csomó fejlődést.
Sajna pontos infókat most nem találtam erről.Én amúgy még ezen gondolkoznék el, mert ez a másik oldala a lagg-témának:[link]
-
HSM
félisten
válasz
imi123
#17205
üzenetére
Neked úgy rémlik, referencia 290X-ed volt... Ott sok múlik a beállításon is. Hőfok, és TDP limitre gondolok, sőt, azon még csendes mód is van, nyilván a sebesség kárára. Ott sok minden sülhet el rosszul.
Amúgy rengeteget fejlődött mostanában a driverük, ez is igaz. De nekem korábban sem volt vele különösebb bajom.

(#17206) joysefke: Én úgy gondolom, hogy a korábban egyszálra optimalizált AMD driver miatti bizonyos fajta extrém terheléseken jobban leeső FPS-t általánosan beállítani, mint rosszabb frametime-ok, hát minimum sok ponton vérző állítás. Ami egyébként az újabb kiadású drivereikben már ugyanúgy többszálasított tudtommal. Amúgy technikai szempontból az AMD megoldásának is megvolt az oka, miért úgy csinálták korábban, bár szerintem is jobb, hogy átálltak ők is többszálra a driverrel.
(#17207) Habugi:

-
HSM
félisten
válasz
joysefke
#17201
üzenetére
Szerintem ez volt a flémkeltő állítás: [link].
A szerinted flémkeltő válaszommal arra próbáltam célozni, hogy ez így általánosságban leírva nem igazán szalonképes. Ugyanúgy előfordulhat fordítva is, ha az ember olyan játékokkal játszik.
És utána ki is derült, hogy sanszosan valami nem volt kerek a usernél, mert érdekes mód nálam teljesen patentul futott a 290-esen a BF4.
Mondom ezt úgy, hogy magam is elég háklis vagyok a kilengő frametime-okra. -
HSM
félisten
válasz
oAcido
#17183
üzenetére
A 290-esen nem tudom, hogy mikrolaggoltál, nálam semmi gondja nem volt a 290-esen. Mantle egy ideig rossz volt Win7-en, addig DX11-el toltam, de aztán azt is összerakták nagyon nagyon jóra. Ez volt tavaly nyáron kb. Aztán eladtam az asztali gépem, szval passz. Most a 7870 XT-vel tolom, High+2X-es MSAA DX11-el és teljesen jó, igaz, csak 60-80FPS-t bír így.

(#17184) daveoff: Ugyanúgy látni olyanokat, ahol meg épp fordítva van.

-
HSM
félisten
válasz
schawo
#17044
üzenetére
Nézd, nekem nem tűnik jó ötletnek a DX12/Vulcan API küszöbén, vagy már inkább benne, attól függ honnan nézzük olyan GPU-t venni, amit minden szempontból a DX11-re gyúrtak ki, amennyire csak lehetett. Pláne nem ilyen 980 Ti árban. Ha azt veszem, hogy ennek ellenére nem sokkal gyorsabb a 980 Ti a Fury-nél, és nem sokkal gyorsabb a 390X-nél a 980, így számomra az AMD megoldások továbbra is mérföldekkel szimpatikusabbak. De ez nyilván mindenkinek a maga döntése.
(#17045) Keldor papa: Valamit akkor rosszul csinálsz.
8800GTS 320MB után HD3870-em lett, jó volt. Utána a 4890 is állta a sarat a GTX260 ellen. Utána 5850-et vettem, 3 éven keresztül vidáman elvitt mindent magas grafikán, korrekt zajszinttel a ref hűtővel, az egyik legkedvesebb VGA-m volt. Utána 7950/7970, azok is a mai napig remekül állák a sarat, sőt, mikor a 7970 kijött, még a GTX680 volt az ellenfele, most már ehhez képest a GTX770 is már van, ahol kikap tőle. A 290-em is remekül teljesített, mikor olyanom volt fél évig, és most sincs okom semmi panaszra a Tahiti-LE magos "7870"-emmel, teljesen jól elfut rajta még a BF4 is High-on, élsimítással, ami szerintem ennyi pénzért igen korrekt.
Szerintem sokaknál itt van a galiba, a csodát várják ahelyett, hogy használnák. Ehhez képest az NV-nél senki nem várja a csodát, hanem évente cserél mindenki, mint a katonatiszt. Ott tök természetes, hogy csoda nincs, és az egyéves hardver már elavult, venni kell újat.
(#17046) oAcido: 600Mhz? Érdekes. Itt alaposan megnézték, adtak is neki rendesen, és nem látom nagyon 850Mhz alatt [link]. 600Mhz-es esésekkel a sebességkülönbség sem csak néhány % lenne a Fury-X-hez képest.

(#17047) Keldor papa: Miért nem inkább a TPU méréseit nézed? Ott sokkal korrektebben mértek.
Ott a Nano 186W-ból kitolt 98.6FPS-t Metro alatt míg a 980 Ti 211W-ból 110FPS-t. Szerintem ez sokkal reálisabb mérés, mint amit itt peak értékekkel dobálnak. Így hatékonyságra a két kártya kb. egyforma volt.
Szerintem ez a kép is elég beszédes: [link].(#17048) mcwolf79: Köszönjük, Emese.

(#17050) schawo: Sanszosan visszafogja a 64ROP, legalábbis a legtöbb tesztből ez jött le, mivel sokszor nem nagyon tudott elmenni a Hawaii-októl, miközben minden másban lényegesen erősebb.
A jelenlegi trendek alapján viszont egyáltalán nem baj, hogy van benne bőven ALU kapacitás tartalék. -
HSM
félisten
válasz
keIdor
#17042
üzenetére
Most nem értelek... miért nem egy Nano-t hasonlítunk egy 980 ti-vel? De így sem egészen fair az összehasonlítás, mert a 980Ti-n a fogyasztáselőny az egyszerű, hardveresen butább felépítésből fakad, amit nem tud a másik oldalon a HBM teljes mértékben kompenzálni. Azért azt nem árt észrevenni, hogy tudásban egy Fury/Nano GPU-ja minimum a Pascal szintjén van. És nincs ingyen a beépített nagyobb tudás fogyasztásban.
De ugye ez egy elég régi, sokszor áttárgyalt téma...
-
HSM
félisten
-
HSM
félisten
válasz
schawo
#17037
üzenetére
A Fury-nél sajna egy épkézláb tesztet nem láttam, ahol mondjuk megnézték volna, hogyan skálázódik a fogyasztás, ha az ember nem max órajelen járatja a GPU-t.

Viszont a Nano fogyasztási adatai alapján brutál jól kell skálázódnia a cuccnak.
Meg lehet nézni a TPU tesztjét, alig lassabb a Fury-nál (), miközben átlag 60W-al kért kevesebbet. [link]
És aMetro sebesség, ahol az átlag fogyasztást nézték: [link].
Ez azért eléggé nem lett rossz.
Igen, én is csak érdeklődök ezek a cuccok után. De mindenképpen örülnék, ha egyszer, mikor majd használtan elérhető árban lesznek, lehetne egy ilyen HBM-es kártyám. Nekem egy első generációs Fury is tökéletes lenne amúgy még sokáig.

Jó kártyák voltak a 7970-ek, nekem most a kistesója van, és nekem is kezd kicsit kevéske lenni. Aztán majd meglátom, mit hoz a piac utódnak, de az se lehet drága kártya.
Mindenesetre kíváncsian várom az AMD P10 Polarisait, hátha kavar kicsit az állóvizen. -
HSM
félisten
válasz
schawo
#17035
üzenetére
Nézd, ha a memóriarendszer önmagában megzabál a kártyán 60-70W-ot, akkor ennyivel kevesebb a GPU játékterülete, ez egy fix fogyasztás, amivel nem igazán tudsz mit kezdeni, vagy skálázni.
Ha ugyenz megvan 10-20W-ból, és a többi a jól skálázható GPU-ból jön, akkor máris van játéktered, sokkal nagyobb, mint a másik esetben. Ez pedig erősen látszani fog a végeredményben, ha mondjuk otthon az épp aktuális igényeidre próbálod szabni a kártyát, mert az egyik úgy fog skálázódni lefelé fogyasztásban, ha nem kell az összes lóerő, mint az álom, a másik meg, háááát, kevésbé.
Tehát itt igencsak látszódni fog az eredmény az abszolút fogyasztásban és fűtésben és hangban. -
HSM
félisten
válasz
schawo
#17030
üzenetére
200W magasságába tippelném. De amúgy inkább úgy mondom, a memóriaalrendszer részéről számítok egy 50-60W előnyre fogyasztás tekintetében a HBM2-es megoldás javára a 384bites GDDR5X-hez képest.
Aztán ezt az előnyt el lehet használni a GPU-nak extra TDP-keretre, vagy simán hagyni ennyivel alacsonyabban a fogyasztást. Majd eldől úgyis.Ezenkívül a jóval kisebb fogyasztású memória révén skálázhatóbb is lesz a csip, ha visszaveszed kicsit, sokkal több fogyasztást lehet majd nyerni, mint eddig. Tudom, hogy ez keveseket érdekel, de akiket igen, azoknak ez igen hasznos, hogy egy egyszerűbb grafikájú vagy régebbi játékban ne egyen 200W-ot a VGA, amikor elég lenne neki mondjuk 70 is. Vagy ha mondjuk a legmelegebb nyári napokon mégsem akarod 200W-al fűteni a lakást is lehet jobb opció kicsit visszavenni és megspórolni 50-100W-ot. Egy 2-3 órás játékpartin izzadságban mérhető az ilyesmi.

-
HSM
félisten
Az AMD-nek már van egy rakás tapasztalata a Fury-val. Az azért nagyon nem mindegy.
A fogyasztás nagyon is számít, elég markáns különbség lehet egy 175W-os és egy 250W-os kártya között egy átlagos szellőzésű házban. Szerintem nagyon komoly áramtemető lesz egy gyorsabb, 384bites, magas órajelű GDDR5X memóriarendszer a HBM-hez képest. Biztos, hogy GDDR5X-el hamarabb lehetnek majd a piacon, sanszosan nagyobb volumenben is, ugyanakkor ennek meglesz az ára, úgy gondolom.

Aztán majd úgyis kiderül, mi hogy lesz.

-
HSM
félisten
Fogyasztás szempontjából érdekes kontraszt lesz a HBM2-es Vegák és ezek a 384bites szörnyek között.
Nyilván nehezebb megcsinálni egy HBM rendszert, mint a már bejáratott GDDR5-öt továbbvinni. Nem véletlen mondta mindenki kb., hogy nem lesz az év ötlete egyből az Nv-nek HBM2-re menni.... Nem isa erőltetik úgy tűnik. Érdekes lesz. -
HSM
félisten
válasz
#Morcosmedve
#16900
üzenetére
Igen, 72hz monitorhoz 72FPS+ illik.

Sajna a mostani kártya nem hoz mindig annyit, 60-80 között ugrál High-on BF4-ben MSAA-val, de ennyi pénzért nem is kívánhatnék jobbat.
Akárhogy nézem, a harmadába se került, mint egy használt 290...![;]](//cdn.rios.hu/dl/s/v1.gif)
-
HSM
félisten
válasz
#Morcosmedve
#16896
üzenetére
Hehe...

A mostani Tahiti-LE-t épp húzom... 925 és 975Mhz közötti ugrálás helyett fix 1000-1050, mikor mennyire van meleg.
Szóval tök változó, mit kezdek a kártyáimmal, leginkább azt, ami számomra a legmegfelelőbb. 
A 290 TDP-jéhez már kevés volt a házhűtésem, de nem akartam hangosabbat, szval inkább lemondtam 50Mhz-ről, és úgy már jó volt. Bőven maradt erő benne úgy is.

-
HSM
félisten
válasz
TTomax
#16815
üzenetére
A számolásod teljesen korrekt. Viszont az értelmezés teljesen rossz.
Pontosan alátámasztottad, amit állítottam. Azaz, hogy most csökkent a legtöbbet a csíkszélesség hosszú idő óta, hiszen most majdnem felére (57%), míg a többi esetben csak a 60-70%-ára csökkent a csíkszélesség. -
HSM
félisten
Jó kis levezetés.
De azt is tegyük gyorsan hozzá, hogy én olyanra sem emlékszem, amikor két generáció között felezték volna a csíkszélességet.... 
Más elemzések is akár dupla elérhető órajelekről beszéltek az új processzekkel kapcsolatban... Szóval ez nekem eléggé papírformának tűnik bravúr helyett...

-
HSM
félisten
Később jönni fog elvileg GDDR5X-es variáns, az még lehet erősebb. De szerintem teljesen jó lesz ez így. Nekem bejön ez a 390X teljesítmény fele fogyasztással, kicsit jobbárasítva.

A Vega meg azoknak, akiknek semmi nem elég.![;]](//cdn.rios.hu/dl/s/v1.gif)
Persze, mindezt csak a jelenlegi pletykák alapján.

-
HSM
félisten
válasz
keIdor
#10730
üzenetére
Azért ne ugrjunk ennyire nagyot hirtelen... A GDDR5 abszolút maximuma a 8Ghz jelenleg. Az 512bit is elég macera, és 512bites PCB-t sem csinált még senki tudtommal 8Ghz-es GDDR5 alá. Ezenkívül az 512bites busz elég torkos, mivel sok memórialapka kell hozzá, rengeteg vezetékeléssel.
Szóval ha versenyképes termékben gondolkozunk, akkor kelleni fog valami komolyabb, mint a GDDR5, legalábbis a csúcskategóriában.
-
HSM
félisten
válasz
daveoff
#10722
üzenetére
Ez annyira High-tek (szándékosan K-val) cucc, hogy még interposer sem kellett a memóriák alá. Ez így ebben a formában annyit ér kb, mint amit nemrég linkelt Loha fórumtárs: [link]
Szóval amíg a Fiji egy kapható, működő termék, ez kb. csillámporos, de gyaníthatóan teljesen működésképtelen tálalása néhány elektronikai alkatrésznek és egy Nv logónak.
-
HSM
félisten
Párszor már hülyének voltam nézve azon nézetem miatt, hogy nekem csak akkor volt egy kártya vagy tuningja stabil, ha legalább félóra Furmark elment rajta megsülés nélkül.

Tudok én is ilyen esetet amúgy, nálam az Alan Wake nevű játék melegítette az 5850-es Radeonom furmark szinten.

Mondjuk az SC2 nálam szinte mindig procilimites volt, és meg sem érezték a VGA-im.
-
HSM
félisten
válasz
imi123
#10528
üzenetére
No igen. De ha a user húz kicsit a kártyán, akkor az nem garanciális eset, valamint egy gombnyomás, és vissza is állt a gyári (valóban, garantáltan stabil) érték. Az OC kártyánál viszont nincs gyáribb érték, hacsak nem bütyköli szénné a user, de akkor sem lesz már 100%-os. Néha látni olyan gyári OC kártyákat, hogy az ember a fejét fogja, fesz az egekben, kis plusszórajelért...

A saját csapdájukba futottak bele.(#10529) Abu85: Igazlmas egy móka lehet ez gyártói oldalról...
Szerintem ilyenkor azért páran csuklanak a partnereknél. ![;]](//cdn.rios.hu/dl/s/v1.gif)
-
HSM
félisten
válasz
gtamate2
#10500
üzenetére
Ja, azt az Afterburner nem tudja. Én csak annyit csináltam vele, hogy felvétel indít, kis erőforrásigénnyel felvételt elkészít, és annyi. Én nem vagyok nagy videózós, de örömmel fogadtam, hogy AMD oldalon is van lehetőség kis gépigénnyel felvenni a játékot.

Amennyire képben vagyok, a shadowplay legnagyobb okossága is ez volt. Bár AMD oldalon nem tudom, pl. twitch-re hogy lehet streamelni vele, meg hasonlók. De a GPU képessége ott is adott játék mellett h264-et kódolni.
Szerk.: Most nézem, elvileg a Gaming Evolved App, vagy mi a szösz tudja mindezt+Twitch-et. [link] Sosem használtam.

-
HSM
félisten
válasz
Ren Hoek
#10482
üzenetére
Szerintem az AMD-nek teljesen mindegy, a Nano-nak vagy a Fury-X-nek "csomagolva" adja el a csipjeit.
Igazából szerintem nagyobb a hasznuk a Nano-n, kevesebb komponens, olcsóbb hűtés. Persze, ha kicsit jobban válogatott a csip, akkor arra figyelniük kell, de gondolom, akad elég jó csip. -
HSM
félisten
Érdekes, erre nem tudok jó magyarázatot... Én amúgy a legtöbb tesztben nem láttam ilyen +100W-okat. Főleg érdekes, mivel a Sapphire kártyája igencsak jóminőségű (hatékony a VRM).
390 és 390X között nem lenne szabad túl nagy difi legyen, mivel az X-esekre jobban sikerült, kevésbé torkos GPU-k kerülnek.
Az általam linkelt tesztben referenciakártyák vannak a fogyasztási adatoknál, referencia paraméterekkel. Én azt tekintem "normális"-nak, mint összehasonlítási alapot.(#10423) daveoff: Ezt nem vontam kétségbe.

(#10426) Egon: Az average (átlag) mezőt nézd (az játék alatti átlag), ne a maximum-ot, ami Furmark.

-
HSM
félisten
válasz
mcwolf79
#10396
üzenetére
Már megint a süket kábítás.

Nézd meg pl. a Sapphire léghűtéses Fury-ját: [link]
Átlagosan 16W-al kért csak többet a Fury-X, aminek a fele a pumpa extra fogyasztása. Nem is hangosabb, csak nyilván melegebb. Szóval helyes volt az eredeti állítás, miszerint "jófejségből" tették rá, nem azért, mert egy kazán lenne. Az a 246W-os átlagos fogyasztás egyáltalán nem a "zabál, mint a disznó" kategória.
-
HSM
félisten
válasz
Locutus
#10362
üzenetére
Hát nézd, én már öreg vagyok a slideware-ekhez.

Nyilván mindenki kiragadja a legjobb körülményeket, és azt kommunikálja. Aki ezeket beveszi, és utána meglepődik, vessen magára. Ugyanazt csinálja az Nv is, csak ott mégsincsenek agyonköpködve érte, csak amikor már nagyon durva a szituáció, mint pl. a GTX970 "4GB"-ja.
Vagy a másik kedvencem, a Maxwell whitepaperjának első oldaláról: "Featuring Maxwell, The Most Advanced GPU Ever Made."
Ilyenkor miért nincs köpködés? Pedig a Tonga GPU két héttel előtte jelent meg, finomszemcsés preempcióval és hasonló jóságokkal....(#10363) gtamate2: Szerintem teljesen rosszul közelíted meg a kérdést. Én úgy fogtam ezt fel, hogy remekül eljátszogatok DX11 alatt (ahogy az Nv-sek is), és jé, dejó, itt egy játék, amiben egy óriási extrát is kapok, tök ingyen (ami NV-nél nincs).

Elégedetlen voltam szerinted? A frászkarikát, örültem neki mint majom annak a bizonyos testrészének.

-
HSM
félisten
válasz
gtamate2
#10354
üzenetére
Nem tudom, mi számít "erős procinak", én a saját i5 4690K-mat erős procinak gondoltam 4,4Ghz-en, 16GB 2133Mhz CL11 rammal párosítva. Így pedig amit nyertem, hogy a 290-es Radeonnal High helyett fel tudtam dobni Ultra-ra a grafikát anélkül, hogy nagyon 70 alá esett volna az FPS, míg DX11 alatt ehhez kevésnek bizonyult a gép. Ezenkívül a játék "késleltetése" is a töredékére esett vissza, ami már önmagában is jelentős mértékben növelte annak élvezeti értékét.

Ja, játékdömping nem volt, de nem is arra hozták ki a Mantle-t, hanem hogy kikényszerítsék vele a DX12-t és Vulcan-t, valamint, hogy el lehessen kezdeni a játékfejlesztést ezekre az API-kra. Ezt pedig sikerült 100%-ig elérniük.

-
HSM
félisten
Ez itt a baj. Marhára nem elég egy i3 egy komoly VGA alá.
Amit mutatni tudok kép, egy 290-es Radeonnal (900Mhz-en) BF4 multi, 64 fős szerver, Mantle-vel, max grafikán FHD-ben: [link]
Proci egy Intel i5 4690K, 4,4ghz-re húzva. Az is jól látható, hogy az átlagos CPU-használat majdnem 80%-os volt a 27 perces mérés alatt. Szerinted itt mit alkotott volna egy kétmagos i3 vagy Pentium? Szvsz leginkább semmit.
Amúgy a Crysis 3-ban is vannak pályák, pl. a Welcome To The Jungle, ahol szintén a 4,4Ghz-es procival is jó, ha megvan az 50FPS, amikor belegázolsz a fűbe, olyan CPU-limit van, hogy csak győzd nézni.
[link]
Mindkét képen 94% a teljes CPU-kihasználtság, megörökítette az OSD.
Ha bemész a fűbe, még jobban lezuhan az FPS, ilyen 30-40-re is. Na, ott is mit csinál az I3/Pentium feleennyi nyers erővel? Semmi jót... 
És ez csak két kiragadott mérés, amiről épp volt kéznél képem.... De pl. egy GTA4 alá már az 5850-es Radeonomalá is kellett a négymagos proci, lehetőleg húzva.
-
HSM
félisten
Az AMD PowerPlay amúgy gyönyörűen működik, főleg a Hawaii kártyákon.
Ugyanakkor a gyártó paraméterezi BIOS-alól, szóval ha az el van tolva, akkor hiába minden. 
Amúgy most is működnie kellene a szivárgás alapján beállított fesznek, a Tahitik esetében még szépen meg lehetett figyelni, ott egy táblázat volt a BIOS-ban, a különböző %-okhoz milyen feszültségeket adjon.
Bár azt megfigyeltem, hogy a hawaii kártyák szűkebb tartományon mozognak ASIC Q-ban, mint a régi Tahitik, azok 58%-tól voltak felfele 80% felettiekkel is, míg Hawaii-ból 70-80% közötti mind, amit láttam. Persze, ez nyilván nem reprezentatív minta.
-
HSM
félisten
válasz
daveoff
#10257
üzenetére
Annyiból nem baromság az a kártya, hogy az ugye egy vérbeli tuning kártya, és mint írtam, főleg extrém tuningra a minél magasabb szivárgású csipek a legjobbak. Tehát ott valódi hozzáadott érték a magasabb szivárgású csip.

A VRM is adott rajta, hogy durvább tuningok alatt is etethesse aGPU-t. -
HSM
félisten
válasz
schawo
#10251
üzenetére
Azért nem egészen. Az OGL elég sok sebből vérzett sajnos, leginkább a lassú fejlesztéstől és a nem teljesen jó kompatibilitástól. A Vulcan sokkal jobban ki lett találva az eddigi hírek szerint.
Ráadásul ellentétben a DX12-vel, több platformon is jelen lesz, különösebb hátrányok nélkül. Itt sokkal jobb esélyek vannak, hogy népszerű lesz a fejlesztők körében. 
Melyik a jobb? Az az alacsony szivárgású, ami jól bírja az órajelet a lehető legkisebb feszen.
Tehát amivel a lehető legkisebb fogyasztás mellett éred el a kitűzött órajelet.
A fórumokon viszont az (téves!) a nézet volt egy időben egyeduralkodó, hogy a kisebb feszen nagy órajelt tudó csip a legjobb, ezek pedig tipikusan a nagy szivárgású példányok.
Extrém tuningra is amúgy az extrémebb szivárgású csipek szoktak a legjobbak lenni, ott úgysem számít, mennyit fogyaszt.
A csipgyártók nyilván küzdenek a szivárgás ellen, hiszen ők azért jobban értenek a dolgokhoz a fómuzók többségénél.
-
HSM
félisten
"a túlnyomó többség megelégedetten használja"
Nem az emberekkel, hanem az AMD-vel szemben kiszúrás.
Bár ennek még lehet a felhasználókra is kihatása."Kapitalizmusról hallottál már?"
Igen. Nem is mondtam, hogy ez baj, csak ez történt.
Ez a kérdés amúgy nagyon messzire vezet. Az Nv itt úgy gondolom, a vásárlóik érdeke elé tette a saját anyagi hasznukat, míg az AMD nem. Számomra ez lényeges + az AMD oldaláról."Te, a kristálygömbbel?", "(I)Nekik is van kristálygömbjük?(/I)"
Szintén a fejlesztő fórumtárs írta, hogy 2012-ben már kész volt a DX12 prototípusa. Szóval már akkor láthatták, mi lesz az irány.
Nem reménytelen teljesen az ügy, de lényeges extra optimalizáció kell, és még úgy sem biztos, hogy minden gyengeséget helyre lehet hozni. Lásd Abu két VR cikkét a napokból.(#10246) schawo: Mert a fórumokon elterjedt (téves) nézet alapján a kisebb fesszel nagy órajelet tudó csip a jobb.

(#10249) Egon: Én is a Vulcan-nak drukkolok, hogy beváljon.
Win10 nekem nem adja.
Sors iróniája, hogy azt is az AMD-nek köszönhetjük. -
HSM
félisten
válasz
schawo
#10241
üzenetére
Tudom, mit jelent a szó.

"Márpedig alacsony fesz -> alacsony órjel, nagyobb fesz -> nagyobb órajel szabály régóta él."
Ez csak AZONOS csip esetén él, értsd úgy, ugyanazon egyetlen darab csip esetén. Ezért is van szivárgás alapján megkülönböztetve a dolog, a magasabb szivárgású csak akkor kerülhet a PCB-re, ha kisebb feszen is hozza az órajelet, különben kuka, mert nem fér bele a TDP-keretbe.
A legjobb csipek (kis szivárgás és kis feszültség igény) pedig többnyire notebookok számára kerül leválogatásra.(#10242) tailor74: Az van, hogy ez nem az ASIC %-on múlik. Az ASIC %-on az múlik, hogyha van két GPU, amik 1000Mhz-et tudnak 1,1V-on, akkor az fog kevesebbet fogyasztani azonos terhelés mellett, aminek kisebb az ASIC %-a.

-
HSM
félisten
válasz
tailor74
#10236
üzenetére
Az ASIC a csip szivárgása, se több, se kevesebb. Azt mutatja meg, azonos feszen melyik csip mennyi áramot fog fogyasztani.
Találkoztam már nagyon jól tuningolható alacsony szivárgású (ASIC) GPU-val, és nem olyan jól tuningolható magas ASIC/szivárgásúval is. Az első a létező legjobb kombináció, de viszonylag ritka, míg a második szerencsére szintén ritka, és a legrosszabb.
Nem is megy, de legalább jó az étvágya. 
(#10238) Dark KillerX: Nézd, szerintem meg az Nv-től volt hatalmas kiszúrás, hogy kidobták a Maxwell architektúrát, szembeköpve az AMD-t, amiről ők is tudták, hogy nem fog passzolni a DX12-höz.

Pedig az Nv már évekkel korábban tudta, merre tervezi az AMD és az Ms továbbvinni az API-kat és grafikai hardvereket....
Most az nyal vissza, amivel degeszre keresték magukat az utóbbi egy évben. És még sajnáljam őket? Ugyan, kérlek.
Amúgy nem pasziánsz szintre fog butulni az Nv, csak ahogy állnak a dolgok, nem fognak közelsem annyit gyorsulni, mint a konkurenseik.
(#10239) Szaby59: A power consumption állítás hibás, a többi nagyjából helytálló.
-
HSM
félisten
válasz
schawo
#10233
üzenetére
Nézd, engem nem érdekel, miért pont így nevezik. De úgy van, ahogy írtam.

Logikai bukfenc nálad: a magasabb szivárgású csip bír el nagyobb feszt.
Pont a szivárgása miatt. 
(#10234) Dark KillerX: Arról nem az AMD tehet, hogy az Nv meglovagolva a beragadó DX11 és 28nm technológiákat piacra dobott egy GCN-nél "butább", de ezáltal energiahatékonyabb architektúrát, aminek a DX12 újításai nem igazán fekszenek.
-
HSM
félisten
válasz
proci985
#10212
üzenetére
Fordítva... A low ASIC a kis szivárgás AMD-nél, ez 100%.

A tiédnél is az lehetett a gond, hogy a Matrix brutál VRM-jével az 1,25V elég brutál. Ahhoz képest meg nem olyan kicsi a szivárgásod.
(#10213) oliba: Igen, így kéne lennie. De itt éppen az van, hogy a magasabb ASIC (79.3) kap magasabb feszt (1,21V) az MSI 390X esetén, míg a "normális" fogyasztású PowerColor 390 csak 73.1% ASIC, és csak 1,15V-on megy, majdnem 100Mhz-el kisebb órajelen. Szerintem eme három tényező együttes kedvezőtlen fennállása magyarázza az MSI összességében elég komoly +100W-os többletfogyasztását.
(#10214) schawo: Mert amelyik csip magas szivárgású, és nem elég neki alacsonyabb fesz, abból radiátor lesz, nem GPU.
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#10228) Dark KillerX Az aszinkron compute-ban semmi zárt nincs, ahogy az API-ban sem, ki van adva szabványba, az nem zárt. Lásd pl. Vulcan API.
A VR-re azért jön "zárt" szabvány, mivel a nyílt szabványban még nincs kidolgozva az ahhoz szükséges támogatás. -
HSM
félisten
válasz
#85552128
#10204
üzenetére
Na ja, magasabb ASIC-ra még több feszt is ad.
Lehet sok lett a gyári OC.
Mondjuk ez nem magyarázza az üresjáratban/multimonitor/BR is magasabb fogyasztást.
Pedig amúgy nem lenne rossz, ezt is írtam a srácnak.
(#10205) Malibutomi: Én a gyárit nézem, mivel azt garantálják, abból lehet kiindulni. Ráadásul a hülye "Offsetes" tuning miatt a Hawaii kártyákon nem is olyan egyszerű az alulfeszelés, ha gyárilag eltolják a BIOS-ból...
Több, (sokkal több) mint 40 másodpercet szántam rá, csak én nem bízok azokban az oldalakban, amiket 40s alatt megtaláltál, így nem is foglalkoztam azokkal az értékekkel.(#10206) Televan: Azért az nem mindegy, 250W-ot kér a kártya, vagy 350-et... A 350W azért már tényleg kicsit durva, főleg gyárilag.
Azt ráadásul mind ki is kell szellőztetni a házból. -
HSM
félisten
válasz
Malibutomi
#10200
üzenetére
Azóta az kiderült, hogy akkor most végülis mi a tényleges fogyasztása?

A TPU azért nem szokott 100W-okat tévedni.
[link]
Másik horror fogyis teszt: [link], harmadik: [link]
Ennyi épkézláb oldal, és mindnél kb. +100W-al megy magasabb fogyasztással, mint kéne neki.... Se a TPU, se a Tomék nem piti vackokkal mérnek pedig és nem is ma kezdték..... Igazából olyat nem is találtam, ahol nincs meg ez a +100W.
Szóval nem a levegőbe írtam a fórumtársnak.
-
HSM
félisten
válasz
Malibutomi
#10198
üzenetére
Nekem nem jön be.
És a tesztekben a fogyasztása is borzalmasan magas volt pl. a Sapphire-hez képest.
Amúgy ezzel együtt élhető kártyának tűnik attól függetlenül, hogy nem jön be.
-
HSM
félisten
válasz
-Solt-
#10193
üzenetére
Hát nem tudom. Nekem nem ellenfele a 970/980 sem a régi 290-eknek, sem a mostani 390-eknek, soha nem is volt.
Az oké, hogy DX11-ben leveri, és eddig az volt a versenyszám, de én ha VGA-t veszek, akkor azt 2-3 évre. Persze, van, hogy 1 hónap után nem bírok magammal és fejlesztek, de az mindig elég ráfizetéses... 
Én ezt találom a 390 melletti leginkább komoly érvnek, hogy az architektúrája annak a csipnek áll a stabilabb alapokon, valamint az passzol sokkal jobban a DX12-hez.

Ehhez képest a Maxwell az egyszerű dizájnból és magas órajelekből él, amivel nagyot szakított a DX11 alatt. Ahogy TTomax szereti mondani, a fogyasztás a kulcs. Igen, ez vitte sikerre ezt a szériát.Én ezt a hülye szokásom nagyon hamar levetkőzném.
VGA VGA. Semmi köze a laphoz. PCI-hoz van köze, azt meg a processzor intézi úgyis, ami vélhetőleg Intel.
Giga és MSI 390-et én sem vennék.
Viszont a Sapphire szerintem bitang jó lett. Amúgy a PowerColor PCS+ sem tűnik rossznak, bár a PowerColornál előfordulhatnak gondok a ventilátorokkal. Asus sem tűnik rossznak amúgy, de arról nem találtam jó teszteket.Az amúgy tényleg érdekes, hogy a Giga pl. milyen állat jó hűtést tudott tenni a 980 G1-re, ehhez képest a sokkal torkosabb 390X-ekre meg csak az került, ami.... Én arra tudok gondolni, hogy annyival olcsóbb gyártani a 980-akat, annyival nagyobb rajta a gyártók haszna, hogy így tehetnek rá sokkal drágább/erősebb hűtést, míg a 390X-eknél azért jobban meg van húzva a nadrágszíj.
-
HSM
félisten
válasz
TTomax
#10127
üzenetére
Tévedsz. Direkt nem azt írtam. Alulfeszelve, 900mhz-en ugyanez már csak 300w volt, kompletten a gép. Ha leveszed a platinum táp hatásfokát, akkor mondjuk olyan 280w lehetett, amit úgy leadott.
A DX12 pluszterhelése kompenzálható az áramfelvételi korlát lejjebb húzásával. És még úgy is gyorsabb lenne, ha ilyesmire kellene sort keríteni.
(#10128) Habugi:

-
HSM
félisten
válasz
TTomax
#10120
üzenetére
Ilyen szemétrevaló hulladék alsókategóriás gagyi tápra építeni drága masinákat felsőkategóris VGA-val és procival...
Ez inkább elrettentő példának lenne jó.Egy normális 390 nem eszik sokkal többet a 970-nél, +70W. [link]
Amelyik tápban nincs még +70W, azzal kár is foglalkozni.Nekem amúgy BF4 Mantle alatt a komplett gép evett 350W-ot a gyári órajelű 290-el, 4,4Ghz-re húzott i5-el, 4*4Gb 2133Mhz rammal, és ennél az értéknél csak kevesebbet láttam más játékok alatt, pedig én még a PowerLimitjét is felhúztam +50%-ra....
-
HSM
félisten
válasz
Ren Hoek
#10117
üzenetére
Jó, hát utána kell nézni, mit vesz az ember... Ebben semmi meglepő nincs szerintem. Ugyanez van más termékeknél is.
Tudom, hogy itthon ez az ársáv a "menő", de ezzel nagyon nem tudok mit kezdeni. Kis pénzért kis VGA jár. A Pitcairn méretében nem is valószínű, hogy érdemes lenne nagyon belenyúlni modernizálni, csak drágább lenne tőle, és torkosabb.
(#10118) TTomax: Már vártam a hatereket. Ha neked a modern architektúra "mókusvakítás" ám legyen.

Ami a tápocserét illeti, ugyanaz a demagóg hülye duma. Amelyik táp elbírja a 970-et a maga 150-200W-jával, az nem fogja összesz*rni magát egy 250W-os 290-től sem. Komplett víz se kell alá, csak nem a legolcsóbb gagyi típus kell venni, ahogy a Maxwell-ből is vannak hangos típusok és halkak.
Ha neked nem elég biztosítás a jövőről, hogy az AMD prototípusa és a Mantle alapján készültek, akkor nem tudom, mi lenne az. Lehet, le kéne venni ezen a ponton a szemüveget....
A Fiji gyártási nehézségeit is elég övön aluli így belengetni... Igen, az AMD belevágott valami innovációba (megint), ahogy a GDDR5 fejlesztése is többek közt hozzájuk volt köthető. Ami viszont valami nagyon új, ott mindig nehezebb felfuttatni a gyártást. Ez van. Előbb utóbb utoléri úgyis a kínálat a keresletet. Az AMD legalább letesz az asztalra valódi, előremutató fejlesztéseket is.
-
HSM
félisten
Nem lett semmi? Éppen most kezd lenni belőle valami....
(#10055) gbors: Ami még marha érdekes kérdés itt, az a média felelőssége. Manapság ugyanis a "tudatos" vásárlók úgy vesznek kártyát, hogy megnézik a teszteket, és az alapján vesznek. Esetleg megkérdezik/utánaolvasnak a fórumban, de a fórumban is a tesztek alapján formálódik a vélemény. Mire akarok kilyukadni? Arra, hogy a médiából mindenhonnan az folyt, mekkora állat jó cuccok lettek ezek a Maxwell-ek, és SEHOL EGY ÁRVA SZÓVAL meg sem említették, hogy csodák márpedig nincsenek, ennek a kimagasló fogyasztás/teljesítmény aránynak még komoly ára lehet.
Ahogy a 970-nél is a 3,5GB memória-dolog után is bőven ajánlott kártya maradt, számomra érthetetlen okból.
Márpedig hogyan lehetett volna potenciális érték a "built to last", amikor a csapból is az folyik, hogy a szuper-modern Maxwell a remek fogyasztásával leveri a csúnya gonosz kazán GCN-eket....
Itt a topikban is mennyi cirkusz volt, mikor néha elgurult a gyógyszerem a sok ajnározástól, és néha be-beírtam, hogy nincs ingyenebéd, és még visszanyalhat a fagyi. Emlékszel, "buta Maxwell"....
Egyik kedvenc poszt februárból, amit kaptam: [link]. 
Már azért közutálatnak örvendtem egy jóideig főleg az Nv-sek részéről, mert egyáltalán azt mertem gondolni, amit....
Azért ez elég durva.(#10085) Locutus: Halasztott teljesítés, mega LOL...
Radeonom volt ősidők óta (9700, 3870, 4890, 5850, 7870, 7970, 290), szóval mondhatom, hogy végigjártam a felsőházukat, és mindig mindennel tudtam játszani akkor, amikor csak szerettem volna. Semmiről nem maradtam le, amiről NV-vel nem maradtam volna le. Amivel voltak/vannak gázok, az a CF, de az más téma. Az SLI-nek is megvoltak/vannak a maga bajai.Nagyon nagyon sokan vesznek VGA-t hosszútávra (2-3-5 évre) a spórolt pénzükből, csaképpen sehol nem kapnak megfelelő tájékoztatást, mit is lenne érdemes.
Én már a Maxwell-ek megjelenésekor is írtam, hogy inkább fogyasszon kicsit többet, és legyen 10%-al lassabb, de nekem inkább kéne a biztosabb alapokon nyugvó architektúra. Természetesen hülyének voltam nézve.A többire, amit gondolok a 18-82%-ról, lásd picit fentebb, amit gbors-nak írtam.
(#10090) gbors: Én azóta is a Maxwell whitepaper borítóján röhögök...
"Featuring Maxwell, The Most Advanced GPU Ever Made."
[link]
Ez az állítás még a megjelenéskor is finoman szólva is erősen megkérdőjelezhető volt.
Nem csoda, hogy vették, az oldalak meg ajánlották ilyen agymosás-hullám után.... A 3,5GB-nál is csak annyi volt a válasz, hogy "Our only intention was to create the best GPU for you."
[link]
Szóval szép dolgok ezek....(#10092) TTomax: Az az egész termékpaletta az áll egy GM204-ből, egy 1,5X GM204-ből és egy 1/2 GM204-ből. Nagy csoda. A GTX960 meg aztán főleg szép darab lett.
Ezért az AMD inkább ne adjon ki új vonalat.
(#10096) schawo: Nekem dereng egy GTX680 GTX770 dolog is.
![;]](//cdn.rios.hu/dl/s/v1.gif)
A G92-vel az volt a gáz, hogy becímkézték a korábbi csúcskártya (G80 vagy 8800GTX) fölé 9800GTX-nek, meg hasonlóknak, amikor álmában sem érte utol a nagytestvért és memória is kevesebb volt rajta.
Ehhez képest a Hawaii "rebrand"-ja teljesen korrekt, mivel egy elég jól sikerült, korszerű GPU-t "címkéztek" újra, és pont annak címkézték, ami. A Tonga bár átcímkézés, mivel már kiadák 285-nek, de az alapból az új generációba való. Egyedül a Pitcairn gázos kicsit, bár azért ott sincsenek komoly gondok az árszinthez képest, teljesen jól összerakott cucc.
-
HSM
félisten
válasz
imi123
#10081
üzenetére
Azért fognak arra optimalizálni, mivel az a gyengébb konzol. Tehát ami azon jól fut, az nagy valszínűséggel minden máson csak jobban fog futni, így elég egyszer belőni a kódot, menni fog mindenen kis módosítás/igazítás után.
Ami a DX11 tudást illeti, szerintem nem véletlen, hogy a játéknak bizonyos részei el sem lesznek indíthatóak DX11 mód alatt, mert játszhatatlan lenne. Le volt írva nem is olyan rég.
(#10055) gbors: Erre majd este még írok pár sort, ha hazaértem.

-
HSM
félisten
válasz
tibcsi0407
#10054
üzenetére
Egy dolgot kihagytál az elméletből: konzolok. Azok is GCN-ek és az API is szinte ugyanaz. Úgy máris borulnak az arányok. Nagy kérdés, az Nv mennyit fog segíteni az optimalizálás, de aggódom, hogy nem fogják tudni szoftverből megoldani a hardveres hiányokat, szóval a legjobb eset nekik szerintem ha nem lassabbak, esetleg picivel gyorsabbak, a másik véglet meg kb. 50-60% lemaradás a Dx11 alatt hasonló sebességű kártyák között.
-
HSM
félisten
válasz
tibcsi0407
#10052
üzenetére
Nem a tesztből vontam, hanem a DX12 technikai alapjaiból.
Az Nv szándékosan arra játszott, hogy megalkossa a Dx11 alá legjobb teljesítmény/fogyasztás arányú GPU-t, azonban az ilyesmi nem megy kompromisszumok nélkül. Sikerült is nekik, hülyére is keresték vele magukat.
Az AMD fogyasztásbeli hátránya is nagyban származott abból, hogy sok DX11 alá felesleges dolgot tudott. Ezek a hátrányok viszont most a DX12-vel előnnyé válnak, hiszen az eddig feleslegesen helyet és energiát fogyasztó egységek megmutathatják, mit tudnak. -
HSM
félisten
válasz
Locutus
#10034
üzenetére
Arról nem az AMD tehet, hogy eddig húzták a DX12-t. Ők már 2012-ben leadták a prototípust róla [link].
Elég gáz, hogy most lesz csak belőle valami, de a legkevésbé sem az AMD hibája.A múlt engem túlzottan nem érdekel, meg hogy kinek mi jött be, én a jelenlegi szituációról beszélek.
(#10035) gtamate2: Én kérek elnézést.

-
HSM
félisten
válasz
imi123
#10020
üzenetére
Én úgy tapasztaltam, a "múlt játékaihoz" bőven elég egy 290/390 is, a jövő játékaihoz meg inkább fog passzolni a 290/390, mint a GTX970.
Ez alapján én a Radeonos vonalat javaslom inkább, pláne 4-5 éves távlatban. A GTX970-ben úgy fest, jópár dolog áldozatul esett a jó fogyasztásnak, ami DX11 alatt nem volt hátrány, viszont DX12 alatt könnyen az lehet, ahogy most állnak a dolgok.A többire pedig ahogy gbors írja, van megfelelőbb topik.

-
HSM
félisten
Nézd, nálam ez a fajta működés, ami ha jól jönnek ki a dolgok, hoz 17%-ot (konkurens 290X-en meg 52%-ot, pedig már enélkül is gyorsabb volt), ha meg nem, akkor gyorsabb, ha kikapcsolod, ez éppen a "papíron létező" funkció. Egy olyan funkció, amit azért hoztak létre, hogy határozottan gyorsítsa a feldolgozást, az hogyha lassítani is képes, és ha gyorsít is csak kis mértékben, az akkor az adott lapkában csak papíron megvalósított (vagy rosszul megvalósított, ha így jobban tetszik) funkció.
-
HSM
félisten
Ajánlom akkor neked is: [link]
Attól, hogy korai messzemenő következtetéseket levonni, bizonyos dolgok azért kezdenek világossá válni.
1. A fórumtársnál alapból is azért volt gyorsabb, mivel sok compute futószalaggal dolgozott a motorjuk, az pedig az AMD-nek jobban fekszik.
2. A konzol jóval nagyobb piac, mint a PC, ezt ne felejtsd el.
3. ... Lásd első két sor. -
HSM
félisten
Most nem azért, de ha egy 290X 19ms alatt végez ugyanazzal, amihez a GTX980-nak 28ms kell, az eléggé mocsáricsiga kategória, pláne ahhoz képest, mennyivel drágább kártya volt a 980.
Ez másfélszeres FPS, ha átszámolod.... 35 vs. 52.A kérdéseid amúgy jogosak. Ugyanakkor ha azt nézem, a fő platform a konzol, akkor azért nem biztos, hogy prioritás lesz, hogy az Nv hardveres gyengeségeit valahogy szoftverből gyorsítgatni próbálják, amikor a GCN "magától" is gyors lesz.
-
HSM
félisten
válasz
Ren Hoek
#9984
üzenetére
Lásd egy kicsit lejjebb, 5. bekezdés, ugyanezt írtam.

(#9985) gbors: Dehogy pörögtem túl, csak pár gondolat ébredt bennem, amiket leírtam.

Szval efféle fegyverre gondoltál... Hát igen, mostmár úgy tűnik van.

sayinpety fórumtárs éppen olyan eredményekre jutott, hogy a GCN marha sokat gyorsult DX12-vel, míg a Maxwell-ek alig. De azt az eredményt jó rég linkelte. (Erre gondoltam (#9988) cain69, köszönöm!
)A Maxwell-ben a gond ott lehet, hogy pl. másolási műveletek nem futhatnak tetszőleges más feladat mellett, míg GCN-en igen. Ugyanis vagy grafikát számol, vagy mást, amennyire kivettem az adatokból. Ez pl. komoly gond lehet, főleg olyan programoknál, amik sok adatot másolgatnának, ami egyébként indokolt is DX12 alatt, elkerülendő a VRAM megtelését, és a mikroakadásokat.
-
HSM
félisten
Azért azt tartsuk szem előtt, hogy a város alatti óceán mindkét hardvert megizzasztotta annak idején, csak belerakatták, mert míg NV-n csak 17-21% sebességbe került, addig az AMD-s kártyákon 31-38%-ot vett el a teljesítményből. [link]
Háttérstory, hogy az Nv halál feleslegesen rakta bele a hardverébe az atomdurva tesszelátort, a HD5850-em "elsőgenerációs" tesszelátorával is még évekig remekül el lehetett lenni a legkisebb gond nélkül.
Async shader esetében viszont arról van szó, hogy az egyik termék tud egy igen hasznos funkciót, ami ráadásul a DX12 egyik lényegi újdonsága, amivel jócskán gyorsulhat a feldolgozás, míg a másik hardver úgy néz ki, csak papíron tudja ugyanezt és még lassulhat is.
Tehát az első esetben egy nem központi funkció irreális (mesterséges) túlhasználatáról volt szó, amitől mindkét hardver szenvedett, csak az AMD kicsit jobban praktikusan a semmiért. A második esetben viszont az új API egyik lényegi újdonsága fest úgy, hogy nem hoz pozitív eredményt az Nv hardveren, míg az AMD-n igencsak.
Továbbra is amondó vagyok, hogy korai lenne túl messzemenő következtetést még levonni (mindamellett azért már kezdenek kirajzolódni dolgok), az érvelésem csupán arra irányult, hogy én egészen másmilyennek látom ezt a szituációt, mint anno a Crysis 2 tesszelálós történetét.
(#9982) Ren Hoek: A GCN-nek nem okoz fejtörést, mert ott vannak a hardveres ütemezők (ACE-k) valamint "stateless" architektúra, azaz nem kell állapotot váltania bizonyos funkciók elvégzésére.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Kerékpárosok, bringások ide!
- Kertészet, mezőgazdaság topik
- Futás, futópályák
- One otthoni szolgáltatások (TV, internet, telefon)
- Amlogic S905, S912 processzoros készülékek
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- iPhone topik
- Xbox Series X|S
- Star Trek Online -=MMORPG=-
- Anglia - élmények, tapasztalatok
- További aktív témák...
- PowerColor RX 6700 XT 12GB GDDR6 RED DEVIL Eladó!
- 3év! AKCIÓ! ÚJ ASUS TUF GAMING Geforce RTX 5080 OC Edition 16GB VRAM Ray Tracing DLSS4
- Asus GTX770-DirectCU II OC 2 GB GDDR5 256 bit PCI-E Videokártya
- GIGABYTE RX 9070 XT 16GB GDDR6 AORUS ELITE OC - Új, 2 év gari - Eladó!
- Gainward RTX 5060 Ti Python III 16GB GDDR7 128bit (NE7506T019T1-GB2061T) Videokártya
- Lenovo T14s Gen 1 Ryzen 7 pro 4750U, 16GB RAM, 512GB SSD, jó akku, számla, garancia
- Eladó iPad Pro 12.9 tokok többféle színben és kivitelben!
- Beszámítás! Apple iPad 9 (2021) Wifi 64GB tablet garanciával hibátlan működéssel
- MacBook Air 15" (M3, 8 GB RAM, 512 GB SSD)
- LG 27GX704A-B - 27" OLED evo / QHD 2K / 240Hz & 0.03ms / 1300 Nits / NVIDIA G-Sync / AMD FreeSync
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
A windóz fejlesztői dokumentációja alapján pontosan az ilyen hibák javítása céljából lehet a monitorokhoz drivert telepíteni, és ez a driver gyakorlatilag tartalmilag megegyezik az EDID-el. Ezen dokumentáció alapján a hibás EDID-ű monitorokhoz a monitor driver hozza a javítást, és az tölti be a regisztrációs adatbázisba, az alapján lesznek kiválaszthatóak vagy ki nem választhatóak a felbontások, frissítési frekveniák. 
"
Szerintem ez egyszerű pszichológia, ez van a köztudatban, hogy az AMD driveresen rossz, és a user bármi hibát tapasztal, egyből ez ugrik be neki.... Aztán erre van fogva 1000 más hiba is. Ott virít pl. az adatlapdon, hogy húzva van a 3770K-d, az kapásból okozhat ilyen driver összeomlásokat, de az nincs benne a köztudatban, nem gondolsz rá.... Az hogy Nv-vel nem csinálja sem jelent túl sokat, mivel más kódot futtat a másik driver.


![;]](http://cdn.rios.hu/dl/s/v1.gif)




8800GTS 320MB után HD3870-em lett, jó volt. Utána a 4890 is állta a sarat a GTX260 ellen. Utána 5850-et vettem, 3 éven keresztül vidáman elvitt mindent magas grafikán, korrekt zajszinttel a ref hűtővel, az egyik legkedvesebb VGA-m volt. Utána 7950/7970, azok is a mai napig remekül állák a sarat, sőt, mikor a 7970 kijött, még a GTX680 volt az ellenfele, most már ehhez képest a GTX770 is már van, ahol kikap tőle. A 290-em is remekül teljesített, mikor olyanom volt fél évig, és most sincs okom semmi panaszra a Tahiti-LE magos "7870"-emmel, teljesen jól elfut rajta még a BF4 is High-on, élsimítással, ami szerintem ennyi pénzért igen korrekt.



