Új hozzászólás Aktív témák
-
#85552128
törölt tag
válasz
Malibutomi
#6883
üzenetére
Tekintve, hogy AMD-vel még mindig szarabbul fut (letiltott CF, a benchmark mód is crashel) így továbbra is helyben vagyunk "a melyikkel jobb" kérdésben.
A port "minőségét" meg maga a 30 FPS lock is mutatja (ami egyébként feloldható)...
970-el játszottam kb. 20 percet, 40-60 FPS megvan, pár néhány droppal, ha valamit lejjebb veszek/javítanak lenne még jobb is... -
#85552128
törölt tag
Mondjuk"kis" tuninghoz nem kell feszültség emelés sem, hacsak nincs már eleve a határra kihúzva a GPU órajel az alapfeszen...
(#6858) mlinus, (#6856) FLATRONW: maga az effekt szép ez tény, de kilóg a játékból, talán azért mert amúgy grafikailag nem nagy szám, de egyáltalán nem realisztikus ez a mennyiségű füst...
Ugyanez a véleményem a GTA V-s árnyékokról is, a PCSS túl lágy, a CHS meg túl éles, a játék saját megoldása sokkal realisztikusabb mint bármelyik gyártóé... -
#85552128
törölt tag
válasz
Laja333
#6861
üzenetére
Nem a driver miatt van, Win10 topicban egy AMD usernek is előjött
[link]
Az alap tűzfal/vírusirtóval van gond nekem is csak addig volt probléma az utorrenttel amíg fel nem raktam az ESS-t: [link]
Viszont bármilyen más hálózatot használó alkalmazásokkal is előjöhet, jelenleg az egyetlen megoldás felrakni egy másik vírusirtót. -
#85552128
törölt tag
válasz
FollowTheORI
#6852
üzenetére
Elvileg nincs lock, de ezen is olyan Vsync van, hogyha nincs stabil 60 FPS akkor 30-ra korlátoz...
A Gameworksos füst viszont nevetségesen néz ki

nVidia SmogWorks™:
Szerintem ha ezt kikapcsolom kapok vagy +15 FPS-t

Amúgy van rajta valami filter (Chromatic A. ?) is mert ennek nem ilyen "szemcsésnek" kéne kinéznie.
-
#85552128
törölt tag
válasz
FollowTheORI
#6849
üzenetére
Nem rossz... Én "ma" már nem kezdem el.
Siklás közben nincs szaggatás ? -
#85552128
törölt tag
válasz
westlake
#6845
üzenetére
Biosz szerkesztéssel, eddig átírható volt AMD-n is (GCN 1.0/1.1), nV-vel is bios flash kell ha kiakarod tolni a TDP-t és a PSU sávokból felvehető teljesítményt az alap +20%-os csúszkánál magasabbra.
Amúgy szerintem +/-20 vagy +/-50%-os limit lesz, s bár a 2x8 pines+PCI-e csatlakozó csak szabvány szerint 375W, az 500W-os 295X2 is többet vehet fel valójában... -
#85552128
törölt tag
válasz
Xmister
#6811
üzenetére
Egy rossz Driver igen, de nem egy specifikus játékban, hanem mindenhol.
Éppen ezért amikor "whole computer freezing" meg "crashing to BSOD" az inkább hw issue Főleg ha az a játék jóval nagyobb terhelést rak a rendszerre mint az átlag és ezáltal minden komponens sokkal nagyobb stressznek van kitéve.
Kettő ember is írta, hogy a grafika csökkentése megoldotta a problémát ami ugye a terhelést is csökkenti, az utolsónál meg egy alaplapcsere segített, de volt aki a szellőzés ellenőrzését ajánlotta nem véletlenül...
Én végig tudtam vinni a játékot egyetlen crash nélkül kb. 130 órámba telt, úgy gondolom bőven volt ideje kijönni a driver bugnak
Viszont igaz, hogy ebben a játékban maxra húzva akár +10°C-al melegebb a VGA ezért is írják sokan az R200-as usereknek, hogy vegyék lejjebb a GPU órajelet ha crasht tapasztalnak. -
#85552128
törölt tag
válasz
Xmister
#6804
üzenetére
Igen, alapproblémákra te felhozod, hogy nem volt 0day tökéletes az SLI tényleg egy súlycsoport...
Bezzeg amikor a 295X2-re hetekig nincs CF profil akkor jön a "problémás" a multi-gpu kifogás..."nVidia drivers tried: 345.20, 347.52, 347.88, 350.05 (the supposed DAI beta), 350.12. "
"to a BSOD or equivalent and a reboot of the system. "
Nem kell atomfizikusnak lenni, ahhoz hogy lássuk ez HW/Táp probléma, legrosszabb esetben is a driver crashelne nem a gép indulna újra...
-
#85552128
törölt tag
válasz
Xmister
#6800
üzenetére
Nálam 130 óra alatt egyszer sem omlott össze nV-n, pedig az 1. naptól játszottam.
Az egyik patch/DLC után voltak gondok, amire pár nap alatt jött driver update.
Mantle alatt meg hetekig "known issue" volt az AMD driverjegyzékben is, illetve többen úgy tudták megszüntetni, hogy downclockolták a GPU-t... -
#85552128
törölt tag
Pontosan, én a Dragon Age megjelenésekor vettem VGA-t, de eszembe sem jutott, hogy 290X legyen pedig AMD-s játék, de tudtam hogy csak a gond lenne belőle...
Utólag látva mennyit szívtak az AMD-sek vele jól döntöttem, teljesítmény szempontjából akkor kb. egyformán teljesítettek, de mostanra már szinte minden jobban fut 970-en mint 290X-en... -
#85552128
törölt tag
"Batmant is előrendelted már, biztos jókat lehet majd benne ugrálni a háztetőn, de csodálkoznék ha valakit 1-2 óránál tovább lekötne... "
Látom átjött a játék lényege (bár MP játékot SP-hez hasonlítani is érdekes), elárulom lefog pár milliót napokra/hetekre

A BF4-es példádat meg nem tudom minek hoztad fel, az évi játékfelhozatalról volt szó ami jelenleg a Hardline-on kívül semmi más, így meg elég nehéz rávenni az embert, hogy AMD VGA-t vegyen. -
#85552128
törölt tag
válasz
Malibutomi
#6782
üzenetére
Egyfolytában azt halljuk, hogy az AMD-nek mennyi fejlesztőt sikerült magához csábítania.
Teljesen jogos kérdés, hogy miért nem látjuk ennek eredményét, ha az nV jóval kevesebb kiadóval képes azt hozni, hogy szinte havonta jönnek az általuk támogatott AAA játékok....
A másik dolog megint ezen játékok természete, egy Dying Light, Far Cry 4, Mordor, Witcher, Batman nem összevethető egy olyan okádékkal mint a Hardline, vagy az egyelőre fenntartásokkal kezelt NFS... Az egyetlen valamire való AMD-s játék az éven talán a Battlefront lesz az év végén... -
#85552128
törölt tag
válasz
Malibutomi
#6778
üzenetére
Az új driverrel 0.6 FPS a különbség a 290X javára a 780Ti-vel szemben, úgy hogy több ROP-ja van és a játék eléggé ROP intenzív.
Szerintem elég jó munkát végeztek, ennyi különbség a megjelenéskor is volt a két kártya között. -
#85552128
törölt tag
válasz
Malibutomi
#6775
üzenetére
Örüljetek, hogy van a Gameworks mert ha nem lenne akkor nem tudnátok mire fogni, hogy szarul megy

Witcher 3-ban GW effektek nélkül is lassabb volt a 290X mint a 970 pedig ugye elvileg fordítva kéne lennie...(#6777) rocket: Most épp a low-levelen van a hangsúly, ha ott is lesz valami a driverrel (elvileg nem kéne) tényleg vicces lesz.

-
#85552128
törölt tag
válasz
Malibutomi
#6771
üzenetére
Nem nagyon érdekelnek a "miértek" ugyanúgy mint ahogy jó néhány vásárlót sem....
Ismét egy olyan játék jön ami nV kártyával jobban fog futni pedig állítólag az AMD mögött fejlesztők és kiadók hadserege áll csatasorban (a valóságban meg egy Hardline-on kívül más még nem jött ami AMD-s és vége az év első felének...).Ja és nyilván nem most kaptak az AMD-sek sem hozzáférést a játékhoz, csak szokás szerint megkésve jön a support...
-
#85552128
törölt tag
3 hónapja kísérleteznek ez ám a jó támogatás...

Persze most sem az AMD hibája.
Esetleg a többi kártyát is megnézhetnék mert ahúzott 290X390X még a 970-et sem éri el FHD-ban: [link]De ahogy látom a Project Carst sem sikerült javítani persze az meg a játék hibája: [link]
Ha már állandóan a Keplerrel példálóztok legalább ezeket is említsétek meg, mert AMD oldalon jó néhány ilyen esetet lehetne felmutatni egy új megjelenésnél - persze AMD-ék háza táján minden happy

Előre várom mi lesz majd a holnapi Arkham KNighttal, mert az nV driver a frissített SLI profillal kint van...
Komolyan mondom az amit itt egyes AMD "fanok" írnak egyik másik cégről csak abban segít, hogy ellenszenvem legyen az AMD iránt... -
#85552128
törölt tag
És megint visszatértünk a W3-hoz, ahhoz az egyetlen játékhoz amiben a Kepler pár napig/hétig gyengébben teljesíttett... Gratulálok, még sok ilyen szakmai elfogulatlan hsz-t tőled

Elhiszem, hogy addig kell ütni a vasat amíg meleg és még sokáig a köztudatban tartani, mert ritkán adatik ilyen lehetőség
Jut eszembe GTA V MSAA grafikai hiba javítva van már a GCN 1.0-s kártyákkal ? Csak 3 hónap telt el legutóbb mikor néztem (2 hónappal a megjelenés után) még mindig nem volt javítva...
-
#85552128
törölt tag
válasz
#Morcosmedve
#6723
üzenetére
De itt nem a GPU-t nyomják, hanem a "Quantum" koncepcióját (AMD logóval a dobozon...) , ott pedig a CPU+GPU rész is egyaránt fontos. És CPU+GPU-t gyártó cégként azért ez így eléggé "érdekes" volt
Olyan mintha a Sony Xbox One-on demózna egy PS4 exkluzív címet 
-
#85552128
törölt tag
válasz
#Morcosmedve
#6720
üzenetére
Mondjuk több értelme lett volna ha most csak bejelentik, jövőre pedig mondjuk egy Zen CPU-val és esetleg az új csúcskártyával demózzák.
Senki nem a technikai részt sérelmezi, hanem azt, hogy marketing szempontból a konkurens CPU használata baromság volt...
-
#85552128
törölt tag
válasz
stratova
#6713
üzenetére
Te kb. mindig beírod még akkor is amikor határon folyik a beszélgetés, úgyhogy nem számollak bele

De amúgy te is este írtál be, délelőttől ez ment mert valaki felmerte hozni, hogy a pH-n állandóan az nV bajok vannak felnagyítva, az AMD-ről meg csak a pozitívumok jelennek meg... -
#85552128
törölt tag
válasz
CsonkaImo
#6704
üzenetére
Tudom, ha valami AMD negatív dolog röppen fel akkor az ultimate kifogás amivel rögtön "lezárható" az a "nincs köze a topichoz".
Pedig azért ha nem is közvetlenül, de van...Hétvégén pl. az AMD találgatósban egész nap az nV/Gameworks/W3 fikázás ment, senki nem dobta fel, hogy nem oda tartozik...
-
#85552128
törölt tag
válasz
CsonkaImo
#6699
üzenetére
"Olyanok verik a falba a fejüket, akiket úgy sem érint a Quantum."
És ? Itt semmi köze ahhoz, hogy érdekel e valakit a termék vagy sem, nem is arról lett vélemény formálva...
Abu szerint pl. egy APU is elég bele

Egyébként a probléma csupán annyi, hogy akkor sem kéne reklámozni a konkurens termékét egy "saját" demó termékkel... Ezzel csak az amúgy sem túl erős CPU brandjüket csorbítják tovább.Bár ez a döntés is kitűnően reprezentálja, hogy utólag mit gondolnak a saját fejlesztésükről

-
#85552128
törölt tag
De mire az lenne addigra már lesz új, versenyképes (?) processzoruk vagyis akkor eljutunk oda, hogy soha nem is volt/lesz alternatíva

Nem véletlenül hagyták a fenébe az egészet pedig egy új chipsettel, 28nm-en azért nem lennének ezek rosszak még ma sem 1 GPU-s Konigokhoz, az APU refresh helyett több értelmét láttam volna egy ilyennek... -
#85552128
törölt tag
válasz
stratova
#6618
üzenetére
A 6 Pin-ről is lelehet szívni 75W-nál többet, elméletileg akár 150W-ot is. Attól függ, hogy van a kártya konfigurálva.
Pl. az nV biosokban a PCIe és a két PSU sávhoz is külön be kell állítani mennyit vehet fel belőle, és ugye léteznek 6 pin -> 8 Pin adapterek is, mivel a +2pin csak gnd. Attól függ, hogy az AMD Bios hogy kezeli ezt és, hogy a táp képes e elég anyagot szolgáltatni
Szerk.: Egyébként ja, elvileg a 3.0 magasabb fogyasztást enged.
-
#85552128
törölt tag
Metro Last Lighttal tesztelik
"Average: Metro: Last Light at 1920x1080, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen). In order to heat up the card, we run the benchmark once without measuring power consumption."A GPU is nagyobb feszt kap mint egy ref 290X (1.14 V vs 1.21 V).
-
#85552128
törölt tag
Azért ezek az "egyéni" beállítások is megérnek egy misét...
Az ezeréves Skyrimben 8xMSAA valahol semmilyen, valahol meg FXAA/SMAA, BF4 - Mantle OFF (talán még mindig benne van a Frostbite-ban a VRAM memory leak
? ), Sniper - Mantle On.
Nyilván olyan helyzetekben tesztelte ahol a saját kártyájuk gyorsabb, majd a független oldalak eredményei alapján kell ítélkezni...
1080p és 1440p-re leszek kíváncsi.Amúgy "múltkor" még a Far Cry 4 nem Average 54 és 43 min volt ?

-
#85552128
törölt tag
válasz
mcwolf79
#6570
üzenetére
Azért nyomatják mert magasabb felbontáson jellemzően jobbak mint az nV kártyái.
Amúgy valakinek a 30 FPS is megfelel, (főleg, hogy konzolon még 1080p-n is annyi van) meg lényegében játékfüggő, van ami most is megy 50-60 FPS-el.Mondjuk az már nekem is sok volt, amikor a
7870370-et úgy mutatták be mint Future Proof 4K Ready a 4 GB GDDR5 miatt
-
#85552128
törölt tag
Húzd ki a monitorkábelt és dugd vissza, ezzel én vissza tudtam hozni amikor előjött.
Elméletileg ki lehet kapcsolni, hogy ne menjen zerocore-ba csak be kell rakni egy "virtuális" monitort: Possible workaround to fix ZeroCore issues:
Bár így is sem garantált, hogy néha nem jön elő...
Azt nem írtad milyen csatlakozást használ a monitor, elméletileg csak DVI-vel probléma, HDMI/DP-re váltással alapból kikapcsol. -
#85552128
törölt tag
Elvileg 79 az alap temperature limit vagy kitoltad ?
Nekem Dragon Age Inquistion alatt szokott felmenni a Strix 970 82-re, +50W-os Power Targettel és 86-os temp limittel (meg egy kis oc-val
)
79 szerintem túl agresszív limit (jó egy ilyen giga g1 meg sem közelítené még a 70-et se, de akkor is). -
#85552128
törölt tag
Egy külföldi CF user véleménye: [link]
"Crossfire is that amazing service for loyal customers that pay AMD double, triple or even quadruple the amount of money compared to other customers and receive an awesome "F**K YOU" for game and driver support. Highly recommend."

A fölötte lévő sem rossz :
"What is this "crossfire profile" you speak of? I only know them out of myths. My second R9 290 is only installed for the cozy warm feeling in my flat."
-
#85552128
törölt tag
Ha helyben van minek rendelné ? Én is inkább elmennék érte mintsem egész nap a futárt várjam, ráadásul 1 nappal hamarabb is kézhez kapom.
Amúgy nem olyan ritka, még egy játékmegjelenéskor is szokott ilyen lenni - igen még Magyarországon is...A kép pedig kitűnően reprezentálja, hogy ismét jókora vásárlói hullámról csúszik le az AMD...
-
#85552128
törölt tag
A 14/16nm-re váltás azért már önmagában elég kedvező dolog, de nem hinném, hogy az architektúrába mélyebben belenyúlnának. FIJI kb. feleennyi lenne méretre mint most, majd pakolgatnak bele pár magot és kész is az új csúcskártya, esetleg egy új GCN revízió, de több nem hiszem, hogy lenne. Eleve arra játszanak (legalábbis eddig), hogy a konzolok miatt előnyben lesznek.
-
#85552128
törölt tag
válasz
Yllgrim
#6270
üzenetére
Csak ezen a fórumon 4 ember jelezte, hogy crashel a játék és érdekes módon mindnek AMD VGA-ja volt... Az EA fórum is tele van/volt vele.
Még a márciusi AMD driverben is benne volt mint "known issue" a Mantle crash, de ugyanúgy DX11 alatt is megvan/volt hónapokkal a megjelenés után.
A GTA V MSAA bugja meg 1 hónapja nincs javítva... -
#85552128
törölt tag
"és abból, hogy a Kepler a TWIMTBP játékokban, miért van ennyire leszakadva a Maxwelltől."
Egyetlen egy, kiírom számmal is: 1 GW játékban volt jelentősen nagyobb különbség a Maxwell előnyére, ami inkább a fejlettebb hardverfelépítés miatt jött elő (48 / 56 ROP - 780Ti/970) azóta meg arra is jött driver.
AMD-nél meg szinte minden új játéknál probléma van GW nélkül is, az itteni Dragon Age: Inquisition topiban is kb. 4 ember jelezte, hogy rendszeres crashek vannak még most is AMD kártyával pedig az "saját" cím...Persze lehet ezen lovagolni, hogy mekkora átvágást csináltak és egy ideig pár FPS-sel kevesebb volt, csak nem az AMD-t kéne felhozni mint pozitív példa...
-
#85552128
törölt tag
válasz
FLATRONW
#6195
üzenetére
Azt ott rosszul írtam csak már nem tudtam szerkeszteni.
Akkoriban pont az nV hozott mindent hamarabb, ugyanúgy nem származott belőle számottevő előnyük
Na jó a 8800-ból igen, de ott sem a DX10-es újdonságok miatt, meg ugye eléggé megkésett az akkori ATi válasza és nem is volt valami siker a 2900XT...
Meg ha jól emlékszem a 6600GT/7600GT is akkor "best buy" volt. -
#85552128
törölt tag
válasz
Malibutomi
#6192
üzenetére
Ugyanez terjed visszafelé, az RB Tier 3-al, főleg mivel pH-n minden egyes cikkben ez van kihangsúlyozva...
(#6191) Televan Ez most nem teljesen igaz, mivel így az XO sem támogatja így ez őket is érinti, legalábbis jobban mint eddig.
Nyilván nem lesz belőle akkora érvágás vagy megoldhatják emulációval is, de ezért mondják sokan, hogy nem DX12-t kell szem előtt tartani kártyavásárlásnál... -
#85552128
törölt tag
válasz
Malibutomi
#6189
üzenetére
Az MS hozott létre annak a két dolognak egy külön Feature levelt...
Simán mehetett volna a 12_0-ba mint opcionális funkció, főleg ha olyan "jelentéktelen".
Az MS-es GDC prezentációban is benne volt.Nekem is mindegy, nem DX12-re vettem a kártyát...
-
#85552128
törölt tag
válasz
Malibutomi
#6187
üzenetére
Nem az nV hanem az MS csinálta, ugyanúgy ahogy a 10.1, 11.1, 11.2-t - amikor is ugye az AMD volt előnyben...
A Shader model 3 meg a DX10.0-nál az nV-nél volt hamarabb, van ilyen
-
#85552128
törölt tag
válasz
Firestormhun
#6183
üzenetére
Nemrég említettem én is, akkor az volt a "magyarázat", hogy támogatja csak másképp/megoldható... Úgy látszik mégsem.
Angolul: AMD confirms GCN, including Xbox One GPU, does not support DX12 feature level 12_1
"Hallock said it shouldn’t be an issue that AMD cards only support feature level 12_0 since all the features relevant for games are included in 11_1 and 12_0. Also, most games will stick closely to what the consoles use and will therefore mostly use 12_0. Keep in mind, though, he’s the global head of technical marketing, so his words shouldn’t just be taken as gospel. Computerbase also pointed out Nvidia said the same thing when their Kepler cards didn’t support feature level 11_1."
" If you want a fully compatible DX12 card you should look into getting a Nvidia GTX 960, 970, 980, 980 Ti or Titan X."

Lesznek itt még érdekes dolgok...
-
#85552128
törölt tag
válasz
Yllgrim
#6160
üzenetére
Nem cicereg allandoan, terhelesfuggo, de amikor igen akkor sem hallani a hazbol mert a hutes elnyomja. Az ujabb tipusoknal meg mar a cw is ritka, az enyem meg osszel volt veve.
En mondjuk 1450/7800-on hasznalom amivel eleve nagyobb terhelest kap es a strix az egyik leggyengebb custom... -
#85552128
törölt tag
"De egy ősrégi 7970-et is előbb vennék 50K-ért, mint egy GTX970-et...."
Ezzel szerintem magadat és az "objektivitásodat" minősíted...
"Az Nv kamu-TDP-je jobb a Maxwell-nél, amit szándékosan alullőtek?"
Milyen kamu TDP ? Minden tesztben gyári TDP limittel mérnek, így "alullőtt" TDP limittel is gyorsabb.
Ha te customot veszel (és OC-zed) akkor persze hogy többet fogyaszt, de gyorsabb is jóval mint a ref...
Miért baj az hogy van még benne potenciál ? Így is gyorsabb..."Az se véletlen, hogy koncerteztek a korai példányok, mivel a TDP-hez lett belőve a táprész, csaképp a TDP nem annyi volt, mint papíron...."
Nem a Strix 970 TDP-je 163W-ra van beállítva biosból, ez +18W-al a referenciához képest, de magasabbra is boostol... Viszont így is cicereg, tehát a gyártók eleve alul méretezték még a referencia TDP-hez képest is.
-
#85552128
törölt tag
Az egész dolog lényege az volt, hogy az AMD fel sem tünteti ezt az infót és a ZeroCore-t, ha már annyira a specifikációt nézzük a 970-nél.
Csak ugye más szemében a szálkák, sajátunkban a gerendát sem látjuk...De a 290X TDP-je továbbra is 250 és 300W között van ezt nem én hanem tőled és tőlem is hozzáértőbb oldalak állítják...
"Mert a piaci igények ezt diktálják? A jelenlegi API-nál van létjogosultsága a több ramnak, ezt nem firtatom. "
Innentől kezdve pedig nincs miről beszélni...
"De hogy ne tereljek a 4G-s fijinek is meglehet a célterülete,alacsonyabb felbontás, de magasabb fps, 144hz fhd, oculus 90hz-el, stb."
Oculus 2016 Q1-ben jön ki, addigra már jöhet 8 GB-s Fiji is...
A Fiji-nek igazából azt kell bebizonyítania, hogy már most jobb mint a 980 Ti és a -2 GB sem fogja semmiben sem limitálni..."Akkor hajrá nv-sek, törölhettek ti is. "
Méghogy nem vagy AMD fan

-
#85552128
törölt tag
"Számít mi van oda leírva, azon kívül hogy azt mondhasd, hogy több mint az nv-é? "
Ha elolvastad volna az elejétől azt a beszélgetést láthattad volna miért volt felhozva...
Mert csak úgy lehet valami jobb, ha több? Ésszel használni a meglévőt és abból kihozni többet miért nem lehet jó?
Igen az AMD eléri azt ~4 GB-vel amit más a ~12-vel már csak az a kérdésem, hogy akkor a gyengébb 390X-ből miért jön 8 GB-os ?

"Nyilván a vramból való törlés csak a fanatikus amd-sek fegyvere... "
Nem, ez a Low-Level API-k egyik funkciója (mégis ugye már 8 GB-os leendő csúcskártyákról pletykálnak...) és nem csak AMD-n használható

De ugye DX11-ben nincs ilyen funkció implementálva - illetve van de rontja a teljesítményt... -
#85552128
törölt tag
"Jó, így már nem terelsz, de pl a TDP felvetésekre nem mondtál semmit, pedig eddig olyan fontos volt, hogy mennyi is a tdp."
Nem csak a mennyiség a fontos, fel van tüntetve az AMD specifikációknál egyáltalán bármilyen TDP ?
"Melyik meg nem jelent feature-ről beszélünk a 4G-ről? Úgy ahogy lehet 3,5G-re optimalizálni, úgy lehet 4re is"
A kb. 250k-s "csúcskártyánál" eleve úgy indulunk, hogy azzal kel foglalkozni ne fussunk ki a VRAM-ból ? Ok, lehet...
"A textúra felbontása meg azért annyi, mert törlés nélkül elég véges a memória"

Véges ? A Ti-n 6 GB van, a Titanon 12 GB, a jövőre megjelenő csúcskártyákon meg standard lesz a 8 GB, de 16 GB vagy több is lehet, köszönhetően a HBM2-nek.
Nem a memória véges, a HBM1 és a FIJI memóriája véges és azért jönnek ezzel a törléssel, hogy elhidd elég lesz a 4 GB mindenre... -
#85552128
törölt tag
Nincs kedvem elvakult AMD hívővel vitázni... Az objektív tesztoldalaknak jobban hiszek...
Nem terelek, egy meg nem jelent feature-ről állítod, hogy 100%-ban működni fog, de az egyrészt sem a mostani, sem pedig a jövőbeni játékokra nem biztosíték.
Jelenleg még szinte minden játékban 2k vagy kisebb felbontású textúrákat használnak. Miből gondolod, hogy ez a jövőben nem lesz másként ? Modokkal már most is 4k/8k textúrák érhetőek el...
3.5 GB elég ? 1080p-re "simán", néhány játékban már azért jobb lenne több, de igazából az a +512 MB sem segítene ki sokkal, de igaz, hogy jobb lenne ha már fizettem érte...Aki magasabb felbontáson (4k) játszik esetleg több GPU-val ott már kevés lehet a _jelenlegi_ játékokhoz...
Szerk.: Nem arról volt szó, hogy mennyi haszna van ennek a konstrukciónak, az nyilvánvaló, hogy nincs.
A specifikáció ettől fogva viszont jogilag is megállná a helyét mert a kalkuláció módja nincs feltüntetve. Valaki írjon nekik hogy vegyék le ha zavarja őket... -
#85552128
törölt tag
A szenzorokból kinyert adat nem "valós mérés"...
"A Fiji-nél a 4gb eretnekség, de a 970nél, tiltsák, sebaj, elég az a 3,5G is...? "
A Fiji 2x annyiba fog várhatóan kerülni mint egy 970 és a GPU jóval magasabb felbontásra is elég. Ez lesz az AMD első prémiumterméke...
A memóriatörléses dolog egyetlen játékban sem működik jelenleg, az hogy a jövőben csökkenhet megint csak feltételes mód."JA és a linkelt cikkben a mondat további fel így hangzik a teljesség kedvéért:"
Ugyanazt írtam le amikor magyaráztam hogyan használható az utolsó szegmens, a lényeg ott van, hogy technikailag igazolni tudják egy esetleges perben a 224-es értéket - ha a specifikációkat nézzük.
Az, hogy a valóságban hogy működik más kérdés, lásd ZeroCore és GPU boost... -
#85552128
törölt tag
Hivatalos oldalt kértem arra próbáltam rámutatni, hogy az AMD nem tünteti fel a hivatalos specifikációkban a fogyasztást/TDP-t GCN 1.0-n megnézhető bios editorral, GCN 1.1 és fölötte nincs kompatibilis bios editor, de kilehet hexázni ha valakit érdekel...
A HDMI dologban biztos vagyok és elvileg DP-vel is így van, mert a hangátvitel miatt nem lehet aktív régebben voltak emiatt gondok gondolom utána inkább kikapcsolták...
"A 224GB/s sávszélesség ugyanis elérhetetlen a termékkel a hagyományosan alkalmazott értelmezés szerint."
Ez igazából ettől bonyolultabb, 7 sáv érhető el egyszerre ~196 GB/s-en, az utolsónak is 32 bites kapcsolata van a memóriavezérlőhöz, de az vagy megy/vagy nem esetleg megosztva, az pedig nincs a specifikációknál részletezve, hogy milyen módon kapta ezt az értéket az nVidia - ez egy kitűnő védekezési alap - és ezt nem csak én, de más tesztoldalak is így látják: [link]
"This in turn is why the 224GB/sec memory bandwidth number for the GTX 970 is technically correct "
Sunyi dolog: igen, támadhatóak: nem - majd kiderül...
Pl. a Boostnál is csak az alap órajel van feltüntetve, de ettől mindegyik kártya feljebb fog menni."Oké, nincs megemlítve, hogy HDMI-vel nem megy, de az sincs, hogy megy."
De az sincs, hogy mire kell érteni, úgyhogy számomra "hagyományosan alkalmazott értelmezés szerint" működnie kellene bármivel...
És ez azért nem egyetlen kártyát, hanem az egész GCN lineupot érinti.A gond inkább ott van, hogy ok mellőzzük a 970-et mit kéne venni helyette ? 290X-et egyre több újabb játékban lassabb ? +50-ért 980-at ?
-
#85552128
törölt tag
Nem marketinganyagot kértem, hanem hivatalos linket a specifikációkhoz és a 290X-hez.
Úgy mellékesen pl. az sincs megemlítve sehol, hogy a ZeroCore HDMI-vel nem lehet aktív - aminek én mondjuk csak örülök, de ha már annyira fenn vagy akadva a 970 specifikációinál akkor nem ártana a másik gyártónál is észrevenni ezeket a hiányosságokat...A linkelt kép is a "tipikus" fogyasztást adta meg - jelentsen ez bármit is, de az játékonként változhat illetve azt is jelentheti, hogy a 295X2 lévő GPU-kon szigorúbb lehet a TDP szabályozás (lehet, hogy egyenként nincs csökkentve, de pl. CF-ben hamarabb vesz vissza).
A többi tesztoldal is 250-300W közötti fogyasztást ad meg a 290X-hez: Techpowerup - 290W"Based on our test results we’re seeing 290X draw more power than any other “250W” card in our collection, and in reality the TDP of the card is almost certainly closer to 300W. There are limits to how long the card can sustain that level of power draw due to cooling requirements, but given sufficient cooling the power limit of the card appears to be around 300W, and for the moment we’re labeling it as such."
Tehát a 250W mint max sehogy sem jön ki, 300W-hoz közeli.
-
#85552128
törölt tag
Linkeld már be nekem a 290/X hivatalos TDP-jét - hivatalos AMD oldalt kérek! (nem 250W mint ahogy az néhány tesztben van az a 280X-é...)
Az alacsonyabb órajel és a kevesebb aktív mag miatt éppenséggel pont, hogy valamivel (nem sokkal de olyan ~10-20W) kisebb a TDP-je csak nálad is azért kellett az adott típust downclockolni mert alulméretezték a hűtést még az X-hez is...
Tudom, hogy van normális hűtős megoldás, de a ref. nagyon nem volt az, még a 2 ventis customok sem az igaziak. -
#85552128
törölt tag
válasz
FLATRONW
#6106
üzenetére
Ezt nagyon jól összefoglaltad.

Én ~10 évig AMD VGA-t használtam, de az nV-nek tavaly/most jobb ajánlata volt/van.
Ettől persze nem zárom ki, hogy akár most/jövőre ne váltsak AMD-re ha letesznek egy jó ajánlatot (akár CPU téren is...), de ahhoz az kell, hogy már most DX11-ben is jók legyenek. -
#85552128
törölt tag
válasz
FollowTheORI
#6099
üzenetére
Meg volt még régebben egy 3dfx Glide-unk is

-
#85552128
törölt tag
válasz
Yllgrim
#6093
üzenetére
Nem nem örülünk, de ez is része a dolognak és érdekesnek tartom, hogy a low-level api-val valahogy mindig a pozitív dolgok vannak kihangsúlyozva (DrawCall/Overhead) - amelyek bár tényleg pozitívak, de legalább ennyi negatívuma is lehet ennek az egésznek.
Pl. a fenti példámmal is élve szépen visszaélhet a gyártó is és a fejlesztő is néhány dologgal olyan szinten, hogy utólag a gyártó _semmit_ nem tehet ellene - most azért nem ez a helyzet...
A másik ami később lehet érdekes, hogyan fog egy néhány éves support nélküli játék futni az új architektúrákon, vagy mondjuk egy Ubisoft Kijev (
) fejlesztőre rámerjük e bízni, hogy lényegében drivert írjon a hardverhez... -
#85552128
törölt tag
Amúgy ha már GW és gépigénynövelés:
Mi akadályozza meg egyik másik gyártó által szponzorált fejlesztőt, hogy elkezdjenek a másik termékével "szórakozni" ?
Ugye az AMD-ről ma volt szó, hogy "elméletileg" egyes feature-ket a Tier3-hoz kötnének a közelgő játékokban.
Mert ugye driveres optimalizáció nem lesz vagy legalábbis közel sem olyan szinten mint most és így pl. az nV partnerek is olyan Radeon-lassító kódot rakhatnak a játékmotor renderjébe amilyet nem szégyellenek
(#6091) -Solt-
Értem, tehát ha nálad és +1 embernél nem volt gond ~4 éve akkor működik (Azt ugye tudod, hogy az első pár hónapban bugos volt a driver és nem is engedte ZeroCore-ba néha a kártyát ?
)Most pedig keres rá arra, hogy "AMD zerocore problem" és ennek alternatívái...
-
#85552128
törölt tag
"Az elégedetlen AMD júzerekhez megy annyit, ha akkora esélyem lenne a lottó ötösre, mint amennyi ezekből a panaszkodásokból a júzer error, akkor nem sok gondom lenne a továbbiakban."
Miféle user erorr ? ZeroCore-t kikapcsolhatod -> NEM, CF profilt írhatsz magadnak -> NEM, Grafikai hibát ki tudod küszöbölni -> NEM
Nem nem beszéltük meg, azokra a "problémákra" amiket te felhoztál volt és van is megoldás, ezekre viszont nincs és nem is olyan dolgok amelyeket a user fixálhatna - nem kell hinni nekem nézd végig az itteni AMD kártyák topicjait főleg ami az R200 óta van pedig azok is csak rebrandok...
Azt már csak mellékesen említem meg, hogy jóval kevesebb AMD kártya van a piacon mégis több baj van velük szoftveresen, valahogy pont fordítva kéne lennie..." Az AMD évek óta fejleszti a hardvereit, mindig bemutat valami újítást, amiből aztán az adott körülmények között szinte semmi nem lesz, mert a szoftveres réteg nem követi az újításokat... "
Az AMD a hardvereinek _jelenlegi_ kézzelfogható teljesítményén is bőven tudna/lenne mit javítani a mai szoftveres korlátok mellett is, a probléma az, hogy nem teszik és mivel ezek aktuális dolgok, valahogy nem vigasztal, hogy mire lehetne/lesz majd egyszer az üveghegyen túl képes...
-
#85552128
törölt tag
Nem írtad csak céloztál rá, mivel a mennyiségi mutatókkal tényleg nem lehet vitázni...
" Én zseniálisnak vélem az AMD utóbbi másfél évét, ahogy a sarokba szorított helyzetből úgy kormányozták ki magukat, hogy szinte minden úgy alakult, ahogy nekik jó."
Én ezt a meglátást tartom zseniálisnak!

De posztold be azokba a topicokba is ahol épp alvás után nem ébred fel a VGA, nem működik a CF, gyengébb procival rosszabb teljesítményt érnek el mintha olcsóbb nV kártyát vettek volna, vagy épp az aktuális játékokban lassan 2 hónapja grafikai bug van biztos osztják majd a véleményed...
Ahány AMD topicot nézek mindig valami trükközésről, tweakről, bugfixről van szó még külföldi fórumokon is - legalábbis jóval nagyobb arányban vannak elégedetlen AMD userek, mint elégedetlen nV-sek
"majd a low-level API-k elterjedésével kiderül, hogy valóban igaz-e az, hogy a DX miatt voltak "feleslegesek" az AMD fejlesztései... "
Majd™ by AMD
Értsétek már meg, hogy ezeknek a kártyáknak nem DX12-ben kell megállniuk a helyüket, hanem most.
Ha a DX12-re készülnék akkor várok jövő év Q4-ig míg mindkét szereplő kihozza a 14/16nm-es lapkákat 8/16 GB HBM2-vel a fedélzeten...
A "majd" még egyetlen céget sem húzott ki a csávából.... -
#85552128
törölt tag
"(#6071) Szaby59: A dVGA "piac" 90% azt se tudja, mi az a VGA.
"Uhh ez valami frappáns válasz akart volna lenni ? Mert keresem, de nem találom a poént...

Nyilván a vásárlók 90%-a technikai analfabéta hisz aki nem a - papíron nagy tudású - GCN-t vesz az csak az lehet... Más kérdés, hogy ettől még ugyanúgy nem törvényszerű egyik gyártó irányába sem a jóval nagyobbb részesedés.
Főleg, hogy az elmúlt 6 hónapban pont az "okos" AMD-től pártoltak el nagyon sokan a buta Maxwellre, tehát annyira nem lehet minden rendben.
Egy cég ha nyereséges akar maradni azt kell gyártani amire kereslet van, ez eddig sem zárta ki, hogy mellette fejlődés is történjen. -
#85552128
törölt tag
"Az ilyen jobb support és társai mantra pedig csak önigazolás, semmi más. "

A dVGA piac 75%-a (and counting...) másképp gondolja. HC játékosoknál akik 2+ GPU-s konfigokat vesznek még csak az említés szintjén sem jön szóba az AMD, mert a CF "supportja" katasztrofális.
Igen lehet azt mondani, hogy minek veszik ha nyűg a multiGPU, de van aki magasabb felbontáson játszik oda meg 1 GPU még jó darabig nem lesz elég... Az SLI supportja még így is kimagasló a CF-hez képest...
A "normál" support mellett meg egy fokkal még mindig az nV jobb ha a játékokat nézzük, bár most a W10-es topic is tele van ilyen olyan ui bugos AMD userekkel, de arra még rálehet fogni hogy béta...A usereket pedig az érdekli, hogy a pénzükért melyik megoldással lesznek elégedettebbek mi sem mutatja jobban, hogy az utóbbi fél év alatt 10%-ot csalogatott át az nV az AMD-től...
-
#85552128
törölt tag
Egyetlen W3 tesztben volt ez meg, ami még a megjelenés előtt készült a többiben rendeződött a hierarchia.
De amúgy a 295X2 usereknek sem tetszhet, hogy majdnem minden játékban 290x szintet produkál a normális CF profil hiánya miatt pedig az is 1500$-ba került...
Sőt megjelenéskor még a DA:I-ben (ami AMD-s játék) Mantle alatt is ~10%-al lassabb volt a kártya mint dx11-ben.Szerk.:
Azért a WB Games és a Ubisoft alá tartozó fejlesztők nem hiszem, hogy rászorulnának az nV könyöradományára főleg ha ilyen rossz feltételek mellett történik.
Az, hogy ezen kiadók konkrétan leszarták eddig a PC-s piacot és igénytelen portokat adtak ki már más dolog, ez GW nélkül sem változott volna. -
#85552128
törölt tag
A vízen is 64x van pedig az állítható .ini-ből is...
A másik dolog a middlewarek önmagukban nem hibáztathatóak a piac alakulásáért, azért teljesen más dolgok (is) felelősek voltak az egyik/másik cég oldalán...
Sőt ha azt vesszük az nVidia is csak a fejlesztői igényeket elégít ki
Mert eszerint van rá
-
#85552128
törölt tag
válasz
Laja333
#6045
üzenetére
"A Fiji meg épp annyira lesz kazán, mint a TX."
Na és mi jön az alsóbb szegmensbe ami felveszi a versenyt a 980/970 teljesítményével és fogyasztásával ?

Mert mondhatjuk mellékesnek, hogy a 970 legalább -100 W-os TDP-vel rendelkezik és kb. ugyanazt hozza mint a 290X, azt rá lehet fogni arra, hogy újabb... De most az új szériával mi lesz a kifogás ?
-
#85552128
törölt tag
"Azzal, hogy az NVIDIA kontrollálhassa az adott játék igényeit"
>
"TressFX mindenkinek a haján rajta lesz, de ezt a módot csak akkor aktiválja, ha TIER3 a bekötési szint."Nekem eléggé hasonlónak tűnik... Bár igaz a TressFX igénye még egy szereplőnél is ~30% veszteséget hozott a Tomb Raiderben szóval ez még nem garantálja a normális futást.
A HairWorks-ot viszont minden kártyán bekapcsolhatod, ilyen szempontból nem limitál az nV.
Ha pedig azt vesszük, hogy minden AMD kártya Tier 3-as akkor meg egyértelmű, hogy miért kerülhet hasonló dolog bele
Bár van egy olyan érzésem, hogy nem kell ettől félni, a fejlesztő sem saját maga ellensége, hogy a nagyobb vásárlói közeget szívassa... -
#85552128
törölt tag
válasz
Laja333
#6028
üzenetére
A Radeonok között is vannak eltérések még az 1.0 és az 1.1 között is mégsem változott a Tier támogatás, szóval valószínűleg úgy van ez az egész rendszer kialakítva, hogy 1-2 funkció ne okozzon problémát.
(#6029) Abu85 Ez akkor semmivel sem jobb megoldás mint amit az nV csinált a GW effektekkel, amit egy XO GPU-ja elbír azt egy 770, 960+ is. Azért elég érdekes lenne, hogy egy jóval nagyobb teljesítményű GPU nem tud megbirkózni ugyanazon effekttel csak azért mert alacsonyabb Tier-en van...
-
#85552128
törölt tag
válasz
hugo chávez
#6025
üzenetére
Mondjuk ettől még a Maxwell 2 és a GCN is ugyanolyan Feature leveleket támogat, tehát amikor 1-2 fórumozótól azt hallani, hogy a GCN-nek van full 12-es supportja nem igaz mert a Resource Binding Tier 3-as szintje nem ezt jelenti, az a Feature level... Nyilván a GCN-nek több erőforrása van innen jött a Tier 3 és ez az XO-n ki is lesz használva esetleg majd pár év múlva PC-n is jól jöhet.
A másik dolog, hogy így akkor az a feltételezés sem igaz, hogy a fejlesztők vissza lesznek az nV miatt fogva, mert megírhatják akár FL 12_1-re is, max a régebbi kártyákon nem kapcsolható majd be az adott effekt/nem lesz olyan gyors. -
#85552128
törölt tag
Tehát akkor a Feature Level 12_0 a DirectX 12 támogatást jelenti, a 12_1 meg valami DX12+ (12.1 ha a régebbi elnevezések alapján nézzük ?) ?
Mert akkor lényegében ott vagyunk, hogy az aktuális DX12-es specifikációk alapján jelenleg nincs is olyan GPU a piacon aminek _teljes_ dx12-es támogatása lenne az opcionális dolgokkal mindent együtt véve.
A GCN-nek nagyobb bekötési tierje van, de a Feature level szempontjából ez nem jelent változást. a Maxwell2-nek kisebb bekötési tierje van, de a FL szempontjából több dolgot támogat - még ha ezek opcionális dolgok is.A táblázatból nekem igazából az szúrt szemet, hogy a GCN 1.0 nem támogatja a Feature level 12_0 - akkor ez most tényleg így van vagy az is hülyeség ?
Illetve a Feature Level 11_X most akkor lényegében azt jelenti, hogy "visszaskálázódik" DX11.X-es szintre ? Vagyis el fog indulni a DX12-es app, de más dolgot pl. overhead csökkenés nem érünk el vele ?
-
#85552128
törölt tag
Olvasgattam a DX12 és a Vulkánról, hogy egyáltalán érdemes e új VGA-ban gondolkodni, de most "kicsit " összezavarodtam:
Eddig itt mindig a bekötési modell (resource binding) szintje volt kihangsúlyozva, tehát Tier 2 - Maxwell2, Tier 3 GCN, Tier 1 a maradék.
Viszont nem inkább a Feature level ami az újdonság és/vagy ami fontosabb ?Mert a 12_0 és a 12_1 feature levelnél egyaránt a Tier 2-es bekötési modell van megadva, de pl. a 2 opcionális funkciót (Conservative Rasterization, Rasterizer Ordered Views) csak a Maxwell 2 támogatja, tehát lényegében full 12_1 supportja is csak ezeknek van.
A másik érdekes dologot a wikipédiás összesítő táblázat alapján vettem észre :
Most lehet, hogy ez már azóta változott, de konkrétan a 12_0-s feature level szintet is csak a GCN 1.1 és 1.2 kártyák támogatják, tehát a Fermi, Kepler, Maxwell 1, GCN 1.0 a 11_0 és a 11_1 szinten van.
Gondolom a feature level itt a DX 11 és 11.1 támogatásra utal, most akkor lényegében ezek "csak" az overhead eltűnésből profitálnak és a 12 feature level újdonságaiból nem ? Mert ez alapján ok, hogy a GCN Tier 3-as ha a bekötési modellt nézzük, de gyakorlati hasznát csupán ennek nem nagyon látom, sőt... -
-
#85552128
törölt tag
válasz
ricshard444
#5963
üzenetére
A fényeffektek szépek, de a növényzet és a talaj ronda az állandóan himbálózó növényzet is gagyi.
A Dragon Age: Inquisition fél évvel ezelőtt sokkal jobban nézett ki és optimalizáltabb is, nem lenne baj ha ronda, de azért ~60 FPS-t még a 980 se tud tartani 1080p-n az vicc...Szerk.: Igen még a GTA V fényeffektjei is szebbek, de ebben a játékban ez a maximum amit kitudok emelni...
-
#85552128
törölt tag
Mondjuk azt nem értem miért váltott előbb 970, majd utána 980-ra. Ennyi "átmenettel" persze, hogy bukik rajta mert mindig olcsóbban kell adnia...
Még a 290 -> 970 váltást is meggondoltam volna.
De amúgy ha már itt tartunk az egész "bukok" rajta dolgot nem tartom lényegesnek, használod 1-2 évig hogy bukhatnál már rajta ? -
#85552128
törölt tag
A DX11-re nem az van mondva, hogy "limitál", hanem gyakorlatilag úton útfélen fikázva van. Ha kijön egy szarul optimalizált játék azért vagy a DX11 vagy a draw callok vagy az nVidia lesz a hibás
Miközben azt sem lehet mondani, hogy ezen játék XO/PS4 portja a low-level elérést használná az adott platformon...
De a Halo 3-hoz visszatérve, ha 9 illetve 6 évvel ezelőtt ezek jó API-k voltak akkor miért nem tudták rá kiadni a 8 éves játékot ? Megválaszolom: mert amúgy sem akarták...A Halo 2 Vista húzócímnek jött aztán kiderült, hogy elég hozzá az XP is...
-
#85552128
törölt tag
"Amikor arról beszélünk, hogy a DX12 micsoda előrelépés a DX11-hez képest, akkor az jön elő, hogy milyen jó ez a DX12. Valójában ezt úgy kellene felfogni, hogy milyen rossz a DX11. A DX12 csak rendbe hozza, amit már rég rendbe kellett volna hozni."
Cikk pont tőled:
A reformok kora
Miről is szól a DirectX 10? Melyik gyártó implementálta jobban? Most kiderül..."A D3D10 legfontosabb fejlesztési szempontja, hogy az alapoktól újraépítették a rendszert megfeleltetve azt a kor követelményeinek."
"Teljesítmény növeléséhez az elsődleges szempont az API késleltetések időigényének jelentős csökkentése. Ennek megfelelően több kritikus ponton is átdolgozták a rendszert ezáltal a CPU használat nagymértékben csökkent."

Szóval az utóbbi évtized "reformjai" után én inkább hátradőlök és kivárom mi teljesül belőle...
A DX10 is "előrelépés" volt meg a DX11 is, mire megjelent teljesen más kép alakult ki róla, most meg egyenesen minden része szar. -
#85552128
törölt tag
Főleg, hogy az eredeti kérdés az volt, hogy az AMD miért nem szedi ráncba a drivereit a jobb
Erre megkaptuk azt, hogy az nV csúnya húzása miatt nem jönnek a superior AI-val (
) szerelt konzol-exkluzív címek mert nem jut mellé processzoridő. 
Tehát mindegy mit hozunk fel egy igazság van: Az nVidia tehet róla!
De még HA így is lenne: se Halo 3-at nem kaptunk sem jobb AMD drivert úgyhogy valahogy nem áll össze nekem ez az indoklás

-
#85552128
törölt tag
válasz
stratova
#5901
üzenetére
Nem tudom mit akarnak, valamennyit még biztos lehet javítani rajta, bár még mindig elfogadható teljesítményt ad:
NVIDIA on The Witcher 3 – New Driver Updates Will Address Kepler IssuesVagy az is lehet, hogy a játékhoz jön patch.
-
#85552128
törölt tag
Újak közül elég sokban a 290X van a 780 Ti fölött Dying Light, GTA V Witcher 3-ban is, de arra állítólag lesz megoldás...
Szimplán annyi, hogy míg az nV-nek már a Maxwellre kell fókuszálnia addig az AMD továbbra is a régi kártyákkal foglalkozik és mivel az új széria sem hoz új kártyákat (a Fijin kívül) egy ideig még kaphatnak pár %-ot a meglévő=aktuális kártyák.
Most még driverek terén jobb az nV, DX12-től viszont a drivernek minimális szerepe lesz optimalizálás tekintetében is... -
#85552128
törölt tag
válasz
Malibutomi
#5881
üzenetére
Lehetne, de annyi HBM nem lesz

(#5880) Abu85: Ha nem kapcsolnám ki és fullra optimalizálva lenne, akkor nem 40-re hanem mondjuk 45-re esne be. Minden játékot úgy állítok be, hogy 50 alá ne menjen, de az 55-60 a cél tehát nekem édes mindegy, valaki ezért vesz +1 VGA-t én nem fogok max nem kapcsolom be...
-
#85552128
törölt tag
Mivel is csesznek ki velem ? Eleve kikapcsolom a Hairworksot mert még anélkül is sokszor beesik 40 környékére az FPS.
Majd ha rendbe szedik a játékot akkor lesz időm azon aggódni, hogy ~10%-al gyorsabb is lehetne a HairWorks...Ugyanúgy ahogy kikapcsoltam a Dragon Age-ben is az MSAA-t, mert még a 2x is -30 FPS-t jelentett akkor nyilván az is direkt volt ilyen, mert más játékban nem lassabb ennyivel...
(#5875) Malibutomi: Ha egy i3-on ennyire szarul fut akkor az összes AMD APU-n és FX-en is mivel azok még gyengébbek egy szálon, de akár az olcsóbb/régebbi i5-ön is amit nem lehet tuningolni.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Okos Otthon / Smart Home
- Hisense LCD és LED TV-k
- Milyen autót vegyek?
- Milyen légkondit a lakásba?
- WoW avagy World of Warcraft -=MMORPG=-
- Xiaomi 15T Pro - a téma nincs lezárva
- Nintendo Switch 2
- Amlogic S905, S912 processzoros készülékek
- Megtartotta Európában a 7500 mAh-t az Oppo
- Jogász topik
- További aktív témák...
- Xiaomi 14 512GB, Kártyafüggetlen, 1 Év Garanciával
- ÁRGARANCIA!Épített KomPhone i7 14700KF 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- Gamer PC-Számítógép! Csere-Beszámítás! R5 5600X / RX 7600 / 32GB DDR4 / 1TB M.2 SSD
- Újabb 20 db Lenovo ThinkPad X1 Yoga G6 (6th Gen) - i7-1185G7, 32GB, 512GB SSD, multitouch + TOLL
- GYÖNYÖRŰ iPhone 13 128GB Starlight -1 ÉV GARANCIA - Kártyafüggetlen, MS3437, 100% Akkumulátor
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
![;]](http://cdn.rios.hu/dl/s/v1.gif)






? ), Sniper - Mantle On.



