Új hozzászólás Aktív témák
-
proci985
MODERÁTOR
válasz
Raymond
#34798
üzenetére
Miert gond az hogy GPU limit mellett a CPU terheles nincs 100%?
itt most arrol beszeltunk, hogy a gamesgpunal harom CPU mellett hajszal pontosan ugyanolyan eredmenyek jottek ki. a video alapjan lehet a 8700K meg nem CPU limites, de a 7700Knak mar (reszben) annak kene lennie. ennek ellenere a gamesgpu a 7700K es a 8700K eseten ugyanazokat az adatokat irja.mindezt ugy, hogy a kiindulasi pont az, hogy a gamesgpu grafikonokat publikalt egy nappal a demo kijovetele utan. tobb mint 20 cput tobb mint 20 gpuval, harom felbontason. ami kizart.
nem az a kerdes, hogy annyira masok-e, siman lehet, hogy mertek par cpuval es par kartyaval es a tobbit extrapolaltak, esetleg meres helyett fogtak a tobbiek eredmenyet, picit jatszottak a szamokkal majd kiraktak mert megiscsak az ovek az elso atfogo "teszt". tehat van motivaciojuk, kb ugyanugy, mint a full kamu 2080Ti teszteknek az utobbi heten.
ahogy eddig kinez egesz egyszeruen csaltak az adataikkal mert amiket kiirtak, azok egyszeruen nem realisak, foleg nem egy nap alatt.
rendesen merni ido.
-
proci985
MODERÁTOR
válasz
Raymond
#34795
üzenetére
ez az allitas ellentmond a hwunboxingos videonak, a cputerhelesuk ment 67% fole a videon. meg ize, epp arrol beszelunk, hogy fabrikaltak az adataik, tehat nemar az o "adataik"bol vonjunk le kovetkeztetest, hogy akkor ez most cpu limites vagy egyszeruen csak egy ordasnagy kamu.
meg vannak meresi elteresek is, tehat ha tenyleg lemertek volna akkor is lenne nemi elteres itt-ott.
varjuk meg a szokasos megbizhatoakat (pl anandtech), ezt a gamegput meg felejtsuk el.
-
proci985
MODERÁTOR
válasz
Raymond
#34792
üzenetére
jo de ok ahogy neztem egy procival neztek es nem huszonkettovel. itt mindent kell merni mindennel, szoval innentol nagysagrendi kulonbsegrol beszelunk.
egy procival vagy egy gpuval ez meg hiheto is lett volna, de #felbontas*#lekepezo*#GPU*#CPU*#meresek mennyisegrol van szo.
tehat 3*2*11*1*X = vs 3*1*26*22*X. az 66*X vs 1716*X. nagyon nem ugyanaz a kategoria ennyi ido alatt.
-
proci985
MODERÁTOR
válasz
cskamacska
#34789
üzenetére
meg egyszer, ez volt az az oldal, ami kepes volt publikalni az eredmenyeket miutan az egyik gyarto osszes kartyajan bekapcsolva hagyta a VSyncet es ez senkinek nem tunt fel publikalas elott. ez par napja tortent.
tegnap jott ki a demo es ahogy nezem vegigmertek kb 22 cput 26 vgat 3 felbontason. namost vagy egy teljes gepparkjuk van kb ketezer(!!!!) teszt lefuttatasara (ami idealis esetben inkab 6-10ezer ha tobbszor akarnak merni biztosabb adatok miatt), vagy hadd gyanakodjak a munkametodussal kapcsolatban. a masik oldal tesztje a par kartyaval realis, az 50-250 eset foleg ha nehez kontrollalni a mereseket, csak ezzel elmegy fel-egy nap es akkor meg analizalni kene az eredmenyeket es megirni a cikket. az oroszoknak vagy van legalabb 40-50 konfigjuk par emberrel aki 24orazott, vagy legalabbis reszben fabrikaltak az eredmenyeik. mert fizikailag ennyi kombinaciot nem lehet ennyi ido alatt stabilan es metodikusan lemerni egy hatalmas geppark es egy csomo ember nelkul. ha extrapolaroltak az eredmenyeket akkor pedig fabrikaltak az adatok.
bocs, ez nem triggered, ez arrol szol, hogy szerintem teljesen megbizhatatlanok a korabbi cikkjeik alapjan. vagy szerinted az oke, hogy senkinek nem tunik fel publikalas elott, hogy az osszes radeon 60as fps cappal megy? esetleg tenyleg realis, hogy vegigmertek 2000 kombinaciot egy nap alatt? persze ha neked igen / igen a valaszod, akkor nyugodtan olvasd oket, nekem a privat velemenyem az, hogy ignoralom barmit is hoznak le.
es ennek az egvilagon semmi koze nincs ahhoz, hogy nekem milyen setupom van. es semmi koze nincs ahhoz, hogy esetleg a GCN talan elavuloban van. ami szinten lehetseges, de ezt az allitast nem a gamergpu alapjan fogjuk megerositeni / megcafolni szerintem.
(aztan persze triggered, de ez a metodika egy logoutos szemelyes bejegyzesnek / forum hozzaszolasnak is szemet lett volna, nem hogy kirakni cikkent)
snecy20 10-20%os diffek azert vannak. es figyelembe veve hogy hany konfigot mertek le nekem gyanus, hogy a gamergpunal valami nem stimmel.
-
proci985
MODERÁTOR
válasz
Looserke
#34779
üzenetére
szerintem a gamergpu.rut akkor innentol felejtsuk el mint forrast...
a legutobbi vsynces meres utan en nem igazan adnek a szavukra. tetejeben techspotnal elegge eltero eredmenyek vannak,
-
proci985
MODERÁTOR
válasz
CsonkaImo
#34718
üzenetére
es televan hulyesegekkel, pl ha kesobb veszed meg penzt vesztesz rajta. vagy az, hogy attol fuggetlenul, hogy nem tudjuk mennyire lesz jo a teljesitmenye a kartyaknak, maguk az uj featureok siman indokoljak a magas arat. meg pl az, hogy az 1080Ti nem jo 4Kra (dehogynem*). meg van meg par masik onellentmondas a toms cikkben. pl vedd a 2080Tit az 1080Ti helyett, mert jovoallobb es ket ev mulva jobb lesz... mikozben az 1080Ti ket eves.
egyebkent a GNnel is felmerult, hogy a toms cikk szarkasztikus, viszont akkor jobban vegig kellett volna gondolniuk, hogy ez egyertlemubb legyen.
marpedig a vegen az editorial alapjan nem vagyok benne biztos, hogy ez igy mi volt. marmint azon kivul, hogy a tomsos velemenycikk tenyleg nagyon rosszul volt megirva.
plusz a celcsoport gondolom emlekszik a physxre 2008ban, a tesszalaciora 2011ben (crysis2 es a tenger). elobbi hala egnek teljesen megdoglott, nalam pl borderlands2ben 5760x1080ban megvolt a 60fps AA es physx nelkul, physXel mozgalmasabb pillanatokban ez 20-30fpsig is leesett teljesen jatszhatatlanna teve a jatekot. a tesszalacio mondjuk jo dolog es hala egnek mara ertelmesebb dolgokra hasznaljak.
* marmint annyira dehogynem, hogy jellemzoen minimalis minosegbeli csokkentessel mindenhol megvan a 60as minimum is.
-
proci985
MODERÁTOR
válasz
#45997568
#29743
üzenetére
jaja, EK pl remek lesz (nekem az van mindket hawaiin), vagy barmelyik masik normalis FC.
viszont megiscsak ez volt az elso custom huteses teszt amit lattam.
(#29744) HSM : ja hat a crimson layoutjaval azota se vagyok kibekulve UX szempontbol. es az huz fel, hogy lehetne jo is, csak csomo apro hulyeseg van benne (pl mindket kartyat miert nem lehet monitorozni? wattmant es monitorozast miert kell elrejteni a gaming ful alatt a global settings ala? ki talalta ki az egyseges designt ugy hogy a tileok egy resze csinal valamit a tobbi meg nem?), tetejeben ahogy hallom nem teljesen stabil.
Fury legnagyobb baja szvsz az aran kivul az volt, hogy a 390X kb kannibalizalta hazon belul.
-
proci985
MODERÁTOR
water cooled VEGA, ugyan az alphacool kb a legprosztobb "fullcover" blokk (igazabol GPU bazinagy bordaval a VRMnek), de remekul mutatja a jelenlegi helyzetet. plusz tomshardware akik valamennyire megbizhatoak es nem pistikeyoutube, tehat pl van normalis gpu clock plot.
ugy nez ki vagy
- a wattman meg mindig bugos mint annak a rendje (nem lenne meglepo)
- vagy tuningpotencialban a hawaii szintjen mozoga gpu clock plot alapjan mindketto lehet, nekem nagyon gyanus, hogy vizen is dobalja az orajeleit ami siman lehet amiatt, mert a wattman nem hajlando kitolni a power maxot rendesen. az, hogy nem skalazodik az orajelekkel szinten lehet architekturalis bottleneck, vagy a statek vezerlese irdatlanul bugos. vagy csak a wattman X fokos VRMnel visszavesz egy statet (ill egyeb vezerlesbeli dolog amit meg nem tudunk).
(#29739) HSM: meglatjuk hogy lesz, a Fury utan en azert valamennyire szkeptikus vagyok.
-
proci985
MODERÁTOR
válasz
Milka 78
#28727
üzenetére
a Giga WF3 alapu G1 a legjobb 970 volt, kb 20% gyari OC volt a kartyan es az osszes tulajnak 1400+os orajeleken ment, marmint gyarilag. mikozben a 290X WF3mmon egy hasonlo huto alig birt el a Hawaiival.
a 290Xet legen meg lehetett huteni, de az elegedett tulajok jellemzoen kivetel nelkul FC vizhutessel hasznaltak / hasznaljak. en is.
-
proci985
MODERÁTOR
válasz
FragMaster
#28586
üzenetére
vaporX csak csucskategoriabol szokott lenni. az meg utoljara custom szinten a 290Xnel volt.
-
proci985
MODERÁTOR
Topik kitakaritva, keruljetek a flamet / személyeskedést, troll etetes helyett meg irany a modker.

-
proci985
MODERÁTOR
válasz
huskydog17
#26491
üzenetére
"The new API-governed AFR means more work for the developer, but also far greater control, which the speaker believe, will benefit the users"
Ja, fórumon gyönyörűen követhető, ahogy fogynak a multigpus userek. teljesítmény kéne, de túl sok a probléma. ez pedig mindkét oldalon igaz.
-
proci985
MODERÁTOR
válasz
Raggie
#24762
üzenetére
De attól még mert a fejlesztők java része pancser attól még nem kellene azt mondani
Ez se igaz ám.Erőforrások, határidők, célok, lehetőségek... a játékok válaszidő varianciára érzékeny valósidejű rendszerek, fixált HW konzolokon kívül nincs, tetejében jönnek a nyalánkságok, mint a hálózat vagy a VR. Meg alapvetően azt se feledd el, hogy az is csak egy fejlesztői munka.
Régebben kevesebb játék jött esetleg ki de azok minőségibb kóddal rendelkeztek. Legalábbis nekem ez a benyomásom.
Ehhez először is definiálnunk kéne, hogy mit értünk kód minőség alatt. Sok sikert hozzá, kurrens szakirodalomban voltak erre próbálkozások, de láttam mindent Platón szépségideájától (mondjuk az egy tényleg mindenre használható modell) 20-30változós gyakorlatban használhatatlan attribútomtömbbig. LoC könnyen mérhető, de az is lehet minden párszáz sor/óra és 1 sor / nap között domaintól függően.Ami történt, hogy elszálltak a költségek. Úgy 2000től beindult egy feature creep, gyakorlatilag egy akkori AAAs játékot egy indie stúdió össze tud rakni (nekem a Magnetic: Cage Closed volt hatalmas meglepetés ilyen szempontból pár éve), platformer szinten pedig ennél is durvább a helyzet (egy csapatnyi elsőéves 10 hét alatt egész korrekt dolgokat össze tud hozni). Vagy ott a Surgeon Simulator, annak egy hétvégés gamejam végére már működő prototípusa volt.
Nézd meg a Deus Ex: Mankind Divided. Nézd meg a textúráit. Aztán nézd meg közvetlenül utána a Human Revolutiont. Ami 5 éve a csúcs volt. Az MD után ronda és kidolgozatlannak tűnik. Ugyanez igaz a Dishonored 1 és 2 viszonyára, pedig a Dishonored 1 az egyik legrészletesebb UE3 motoros játék volt.
-
proci985
MODERÁTOR
válasz
Habugi
#24749
üzenetére
passz én pár hete leszedtem és kivártam. ha a textúraméretet vissza kell venni nekem az se baj, de konkrétan 5760ban akármilyen beállítással sem volt meg a 30 fps egy hónappal a megjelenés után, úgyhogy kivárok amíg stabilnak nem tűnik.
viszont a fórumok alapján a 980Ti / 1070 tulajok már úgy néz ki kezdenek elégedettek lenni, ami jó indikáció.
-
proci985
MODERÁTOR
Nem, a másik nem személyeskedett és teljesen igaza volt abban, hogy a hír tolmácsolása és a hír valós tartalma nem nagyon függött össze. Ami súlyosabb esetben moderációs alappá válhat.
(#24736) lezso6: Alapvetően a cikk nagyon hatásvadász, de benne van a lényeg.
Alapvetően annyira programozási szempontból nem tudom, mi változott (HLSL specet átnéztem changelogban, de nekem annyira nem mondanak sokat a hozzáadott funkciók, mármint, hogy mire kellettek és mit oldanak meg / mit tesznek lehetővé), de gyanús, hogy időbe fog telni mire a programozók felkészülnek erre. A programozási nyelv egy eszköz, de idő kell hozzá, amíg az ember ráérez. A grafikai enginek meg azért elég bonyolult megoldások, ahol adott esetben tényleg számítanak azok az extra optimizációs lépések (pl encapsulation kilövése mert az egy extra function call), amik általános esetben azért az utóbbi 10-15 évben már egyre kevésbé váltak kritikussá.
Ezzel persze megint ott vagyunk, hogy játékosként nem örülök neki, hogy a DX:MD három hónappal a megjelenés után már talán lassan játszható lesz 1440p/medium felett (mármint akármin), de fejlesztőként teljesen érthető, hogy nem ment simán a start és az is, hogy miért nem ment simán.
Tetejében DX12 egy része ahogy így a partról láttam eleve elosztott számíttatásra lett belőve, na az meg tényleg az, amihez csak akkor nyúl az ember ha nem lehet nem elosztva elintézni.
-
proci985
MODERÁTOR
válasz
wjbhbdux
#24621
üzenetére
ha kétkártyás, akkor ameddig megy a CF, addig hoznia / vernie kell az 1080at és hoznia / megközelítenie a Titant.
perf/W gyengébb lesz.
(295x2 v2, yay!)
mondjuk dual gpura jelenleg max VR ígérgetés van, de mivel pcs VR meg nincs 750 euro alatt... én nem építenék rá komoly vásárlói réteget. multiGPU támogatás idén meg katasztrófa kb.
-
proci985
MODERÁTOR
válasz
cyberkind
#24544
üzenetére
DoF remek dolog, egyedül multimonitorral nincs értelme pár esetben mert ott a kijelzőtömböt eleve nem tartja az ember fókuszban.
kivétel ott is van, amikor a DoFot történetmesélésre / designra használják fel, erre is van bőven példa.
lezso6: emlékszel még az Deus Ex: Invisible Warra? egyik első játék volt blurral, ott is sokan panaszkodtak rá, pedig visszanézve remekül volt implementálva.
-
proci985
MODERÁTOR
Bioshock Infinite nalam mondjuk 5760x1080ban kemenyen foldbeallt 2GB rammal mediumtol kezdve.
egyebkent erdemes osszehasonlitani mondjuk a Dishonored1et es a 2ot, eltellt 4 ev, a 2 kb lowon is szebb, mint amit az erosen moddolt UE3 ki tudott magabol ultran preselni. ultran meg az ott a hatterben realtimeban renderelve reszletesen az egesz varos.
-
proci985
MODERÁTOR
Carmageddon Max Damage eyefinityben siman megzabal 3.8GB VRamot. nem mikroakad meg semmi baja, de azert megis. ja es nem teljesen kimaxolt beallitasok mellett.
ja es egy 290X 4GBvel, szoval ez nem azert van, mert terpeszkedik a Titanon ahova jol esik neki.
Sinesol: nem AAAs jätékban gyártótól függetlenül egy középkategóriás kártyán megvan a 60 fps, de az esport cuccok jórésze kis túlzással egy sajtreszelőn is vígan elfut. bár másik oldalról a Deus Ex egyik modjában konkrétan még volt crossfire support, ott majdnem lehidaltam. a játék ugye kb élvezhető volt egy p2 + voodoo2 kombón.
-
proci985
MODERÁTOR
oke, ahogy nezem a doboz meg a hutore nyomott felirat tert el
. jaja PCS+ok szepek, csak nem nagyon lehet oket kapni. 7850bol volt egy HIS ICEQ Turbom es egy PCS+om, moka volt, mert mindket szeriabol az enyem volt az egyetlen a forumon. es jok voltak.290X PCS+ azt hiszem nem is nagyon volt a topikjaban. mondjuk nekik volt meg az LCS (avagy EK blokkal keszreszerelve). meg ott volt a Devil13 ami gyakorlatilag a 295X2 volt par honappal elobb kiadva.
-
proci985
MODERÁTOR
ez volt a vicc egyebkent, hogy a 290X X-Editionnak pont egy nagyon massziv fem vaza volt, funkcionalis (ertsd ott volt a gap pad a hata mogott) backplatehutessel.
azon azt ereztem, hogy ez tenyleg oke legen meghuteni a 290Xet, mig a Matrix Platinumnal vegig az volt az erzesem, hogy a gyari hutot kb azert raktak ra, hogy az ember tudja tesztelni a kartyat mielott rarakja az FC blokkot / LN potot. (ezt egyebkent valamennyire a kartyak uzemi hoje is megerositette)
-
proci985
MODERÁTOR
ja, mondjuk VTX3Dnek a vege fele tenyleg nem volt sok ertelme. volt Powercolor PCS+ es VTX3D X-Edition kartyam (mindketto hazon belul elvileg flagship, bar a PCS+ 7850 volt, az X-Edition pedig 290X), a VTX3D minosegben siman hozta a PCS+ minoseget. az meg foleg moka volt, hogy az elvileg kinara szant olcso VTX3D X-Edition osszessegeben minosegibb volt, mint az Asus Matrix Platinum 290X fronton. pl normalisabb volt a backplateje (egy Giga 970 G1hez kepest is), meg nem sporoltak le a memhutest rola.
EVGA mar a 970nel is lejjebb adta, ld az elvagott hocsoves cicergo 970 ACXek.
(#24403) FollowTheORI: HD2900at sose hevertek ki... HD48x0 szeria akkor mi volt? meg a GTX280nal amikor hirtelen parszaz dollarral arat kellett csokkenteni?
. 480al semmi baj nem volt azon kivul, hogy nagyon meleg volt es csak ket kijelzot tudott meghajtani szimultan. -
proci985
MODERÁTOR
nem eri meg valtani.
enthusiast szinten vannak azok akik kepesek 20% teljesitmenyert felkonfigot cserelni, b verzio meg az, hogy en egy lassan 5 eves procin nem erzem, hogy barmiben lassu lenne. mondjuk nekem nem a jatekok amik igazan megterheloek (jo, threadlimiteseknel jo lenne +100% de az nem nagyon van), hanem a virtualizacio.
megallt a fejlodes.
VGAt meg az idei PCs AAA felhozatal utan en nem ujitanek.
-
proci985
MODERÁTOR
válasz
Ren Hoek
#24302
üzenetére
IGP megmentette a diplomát

Elso diplomamunka felenel kiszedtem a masodik videokartyat... aztan miutan leadtam aludtam egy napot, visszaraktam a helyere a masodikat es ugy mar az akkori csucsnal kb 10-20%al jobb teljesitmeny eleg volt arra, hogy a Crysis3 szepen menjen 5760x1080 mediumon, levezeteskepp.
-
proci985
MODERÁTOR
válasz
lezso6
#24216
üzenetére
Blur is ilyen volt par eve. Ld Deus Ex Invisible War, "lassito effekt amitol rondabb lesz a jatek?". Ahhoz kepest meglepoen jol oregedett kinezetre.
Egyebkent reszletesseg novelese meg a megoldas, de azt sokan nem veszik eszre a felhasznalok kozul. Dishonored2nel meg vagyok dobbenve, hogy mennyien tartjak rondanak, pedig gyonyoru.
-
proci985
MODERÁTOR
válasz
Petykemano
#24211
üzenetére
multiprogramozas nehez. eleve threadkezeles pl C++ban nehezkes volt egy idoben (C++11 szabvanyositotta, elotte meg lehetett oldani de sokkal bonyolultabban). masik, hogy ha kozos cache kell akkor eleve felso korlat lesz arra, hogy mennyi teljesitmenyt lehet nyerni, egyebkent meg felso korlatnak ott Amdahl tovenye.
es akkor meg ott vagyunk, hogy hiaba ott mar a language support, ha a fejleszto nem erti mit csinal, akkor vagy korrupt lesz az adat, vagy (jobb esetben) csak tetulassu / nem fog skalazodni. nehez a terulet es nehez az atallas.
ahol en csinaltam a BSCt kepeznek jatekfejlesztoket is, gyakorlatilag harom masodeves egymasraepulo kurzus utan amibol ketto csak erre fokuszal jutnak el oda, hogy a halozati kodot mukodokepesre meg tudjak irni.
masik oldalrol viszont 2010ben nem hittem volna, hogy hat evvel kesobb meg mindig negy magon allunk mainstreamen.
-
proci985
MODERÁTOR
melyik jatek alatt?
eddig nagyon keves DX12 cim jott ki es kb a DX12es AAA cimek egy resze gyartofuggetlenul katasztrofalisan futott megjeleneskor. Dishonored2nel ugyanugy megvan a 970el katasztrofa / 970el jol fut tapasztalat steamen.
Maxwell/Hawaii volt mindket gyartotol, mindkettonel lattam mikrolaggot.
-
proci985
MODERÁTOR
válasz
velizare
#23913
üzenetére
egyáltalán nem vészes. kimaxolni még valszeg nem lehet, CF nincs, de egyébként nagyon részletes kb fél óra játék után és egy az egyben az első rész hangulatát és mechanikáját viszi tovább.
jó nem tökéletes, de ahhoz képest amit vártam ez teljesen kultúráltan nyitott. ha meg játékként van olyan jó mint az első rész volt, akkor simán év játéka esélyes annyi alapján amit láttam.
egyébként steamen mostly positiven áll, 4:1es igen/nem arányban, szóval azért kompromisszumokkal, de bőven játszható.
-
proci985
MODERÁTOR
oke.
na mindegy, meglatjuk, nagyon ugy nez ki a gameplay egy az egyben maradt a regi, max felpatchelik. foleg, hogy egy helyen talaltam 40 euroert (inkl definitive edition), szoval ennyiert max varok par hetet amig valamennyire helyrerakjak.
Deus Ex Mankind Divideddel is ez volt a fo problema, mire tul voltunk a masodik het nagyjavitasan addigra mar vegeztem is vele... majdnem annyira jo moka volt, mint az elso Deus Ex, usq 16 evvel ezelott.

-
proci985
MODERÁTOR
pedig nagyon úgy néz ki, hogy nem az idTech6, hanem az idTech5 távoli rokona (neten mindkettőt írják, de az előbbi a valószínűbb).
oké, mondom másképp: az idTech5 iszonyatosan háklis volt az égvilágon mindenre, az idTech6 ugyan látványban semmi extrát nem tud, de legalább a stabil 60fpst hozza közepes hardveren 1080pben megjelenés után pár nappal, ami így 2016ban egyáltalán nem rossz.
mindegy, meglátjuk, ha teljesen random módon katasztrófán fut akkor valszeg az idTech5 kódbázisra épül.
-
proci985
MODERÁTOR
most nézem, hogy enginet cseréltek (grafika alapján nem tűnt fel, hogy nem UE van alatta), a Void engine pedig nem más, mint az átcímkézett idtech5.
komolyan, nem véletlenül nem használta senki azt a vonatszerencsétlenségnek is beillő motort (pontosabban: olyan erőforrásmanagement és szinkronizáció kellett a megatextúrázáshoz ami potenciálisan agyonveri a teljesítményt, miközben valós előnye már nincs, tetejében kb a csillagok állására is érzékeny futásteljesítmény szempontból).
akkor azt hiszem részemről kivárok.
-
proci985
MODERÁTOR
válasz
wjbhbdux
#23892
üzenetére
iden mar vegigtoltam egy jatekot 1080p lowon (ugy volt meg az 50fps Deus Ex: Mankind Dividednel es tul jo volt ahhoz, hogy varjak), nemar, hogy a Deus Ex steampunk forkjanal is ugyanez a helyzet.
20 fps egy 290el az kb katasztrofa, ez alapjan kb 1070 alatt mindenen potencialisan jatszhatatlan.
meg jo, hogy nem rendeltem elore (DX:MDnel azzal nyugtattam magam, hogy a PCs CEt egy nap alatt elkapkodtak)
-
proci985
MODERÁTOR
végre
agyalok kéne még egy erősebb desktop és amikor kifut, a belépő Haswell-E remek megoldásnak tűnne a célra, de ha végre lesz mainstream vonalon belépő i5 alacsonyabb órajelen 6x2 számolóegységgel, akkor inkább kivárok.
főleg, ha valamelyiknek lesznek virtualizációs kiterjesztései is. ezek után már csak az kéne, hogy pl a gradle scriptek tudjanak több szálon futni, aztán részemről teljes lenne az öröm és bódottá.
-
proci985
MODERÁTOR
mindket szeriaban 200-250Wos kartyak vannak a csucson mindket gyartotol. megfelelo hutes nelkul ennyi idosen mar halhatnak, de adott esetben 4-5 eves kartyakrol beszelunk.
csaladban van egy HIS 6950 2GB ICEQ (5 eve en vettem), csendes, de uresben 50fokos, terhelve pedig 84 korul szokott megallni multimonitorral amig en hasznaltam. mai napig elvan. a 2013ban vett 7850eim elvileg egy haveromnal mai napig szepen mennek, pedig CFben voltak vilag eletukben es jellemzoen 80+ fok volt a normalis nekik.
ja igen, megfelelo hutes 250Wos kartyaknal ugy a 25-30ezres jol szellozo hazaknal kezdodik, illetve a csucs csendes hazak meg eppen elegek.
-
proci985
MODERÁTOR
válasz
Peat;)
#23852
üzenetére
Ez ennél sokkal de sokkal bonyolultabb.
Játékoknál a 90es évek közepétől volt egy eszméletlen feature creep, aztán a projektek szépen az egy fejlesztői hét - egy fejlesztői év - egy fejlesztői évszázad(!) szinten eszkalálódtak 10 év alatt. A Masters of Doom a kornak egy szép lenyomata, bár az inkább élménybeszámoló, mint egy valós case study.
A kereslet egyébként nő, a gaming business köszöni jól van.
-
proci985
MODERÁTOR
válasz
tothm1991
#23805
üzenetére
Milyen videokártyát vegyek topik, ezt kerested. Ez itt off.
Monitornak szintén saját topikja van. Továbbiakat törölni fogom.
-
proci985
MODERÁTOR
vizhuteses domainen vannak paran egyebkent akik youtubeon vannak es jok, de az specialis, foleg mivel ott a vizualis inspekcionak eleg nagy szerepe van, ellenben 10-20%os meresi elteres ami GPUnal kritikus az viznel annyira nem.
de ott eleve nyomtato sajto nem nagyon mert mert annyira retegmegoldasokrol van szo. bar anandtechnek most vegre volt egy hianypotlo irasa, avagy vegre megbizhato helyen is osszevetettek egy szep nagy epitett vizet az egybevizekkel / csucs leghutesekkel.
-
proci985
MODERÁTOR
válasz
Milka 78
#23731
üzenetére
bele se kezdjünk abba...

btw végül ment az a 290X CF csendben és hatékonyan terhelés alatt, csak megfelelően méretezett hőleadó kellett.
mondjuk így levizezve viszont nagyon elégedett vagyok a kártyákkal. főleg amíg megy a multigpu
. -
proci985
MODERÁTOR
ugy emlekszem valamelyik tesztoldalnak van kamera alapu frametime merese, annak elvileg mukodnie kell. viszont nem emlekszem, hogy tomsnak, anandnak techpowerupnak vagy hocpnek volt ilyenje. (utobbi egy-masfel evben miota megvannak a 290Xek nem nagyon nezek GPU teszteket).
-
proci985
MODERÁTOR
válasz
->Raizen<-
#23464
üzenetére
ja, 1080pben nekem is gyonyoruen ment a Shift1... csak eppen en 5760x1080ban toltam vele, ott par palyan par ponton akadt be, egyebkent boven 50+fpsem volt. CPU grafikonon is latszott.
imi123: Max Payne lehet jobban futott, azzal nem jatszottam sose.
-
proci985
MODERÁTOR
válasz
Peat;)
#23461
üzenetére
1080pben eleg a 470, inkabb maradjunk ennyiben.
DX9-> DX10 valtas is csak kesobb latszott, ahogy DX10-> DX11 is. DX11 eroforrasigenye sokkal alacsonyabb mind a ketto elodjenel, ami akkor es ott nem latszott, viszont visszanezve egy akkori csucshoz kepest kb threadszinten 100%al erosebb CPU es egy nagysagrendileg bikabb GPU DX11 alatt sokkal kevesbe hajlanos CPU bound lenni. DX9 ilyen szempontbol konkret katasztrofa (NFS: Shift 1 5760x1080ban 20fpsig esik par helyen es egyertelmuen a CPU fogja meg, Shift2nel ugyanazon a palyan ugyanazon a kornyezetben szebb grafika mellett megmarad a fix 60fps nalam), de a korai DX10 cimek se voltak sokkal jobbak.
eyefinity/surround/4K esetén a DX9 címek egy része simán CPUlimitbe fut. DX12nél pedig szempont, hogy bírja a 4Kt, bírja az 5Kt, bírja a 4K eyefinity/surroundot és bírja a 8Kt. Mármint simán skálázódás szempontból. az új leképező nem feltétlenül a jelennek készül.
Mig mondjuk egy Metro2033nal vagy Stalker: CoPnal amikor megjelentek DX10 es DX11 kozott nem nagyon volt teljesitmenybeli kulonbseg, ez jelenleg modernebb hardverrel hatalmas kulonbsegeket jelent. Csak ez a jelenlegi cimeknel mar nem tunik fel, mert evek ota DX11et hasznal minden.
Reszletesebb texturakra az uj lekepezo miatt ne varj, az nem azon mulik. Plusz ott az uncanny valley jelenseg aminek a tresholdjat mar regen elertuk, szoval csak azert mert szebb a grafika nem feltetlenul fogja az user szebbkent ertekelni. Bonuszkent meg ott a Mankind Divided, ahogy neztem eleg keves embernek tunt fel, hogy mennyire reszletesen kidolgozott es mennyire irgalmatlanul valtozatosak a texturai. Persze, mert normal esetben az ember nem bamulja egy jatekban a repedeseket a falon negyed oraig es nem hasonlitja ossze mondjuk amit 10 eve megjelenitok mukodeserol / textura designrol tanult.
Utoljára emiatt is volt hatalmas, elsőre látható különbség mondjuk a Stalker SoC / HalfLife 2 DX7-8-9 módja között (csak DX9ben voltak dinamikus fény-árnyékok és látványosan jobb volt az árnyékkezelés). DX9 és DX11 között még voltak különbségek (pl Stalker CoP), fényárnyékok DX10.1/11 alatt javultak látványosat, de ha ezt nem tolták az user képébe akkor nem volt feltétlenül feltűnő. Ld Stalker CS nyitójelenet a napfelkeltével, ami kb megfelezte az FPSt szóval később nem is nagyon használták ennyire durván az effektet (de azért durván gyönyörű volt). Meg talán még a bump mapping (DX9) / normal mapping (DX11) váltás volt iszonyatosan látványos ha az ember közelről nézte a dolgokat. Meg mondjuk az effektívebb shaderkód, de az se feltétlenül direkten látszott.
Durva és elsőre látható különbségek alatt azt értem, ha összehasonlítod a 93mas Wolfeinstein3dt, a 94es Doomot, a 96os Quaket, a 97es Quake2ot, a 99es Quake3mat, a 2004es Doom3mat, a 2011es Raget es a 2016os Doom (reboot)ot. Pl a Wolf3d es a Q3A kozott boven nagyobb a kulonbseg, mint a Doom3 es a Rage kozott, a Rage es a Doom (2016) kozott ez meg kisebb.
Visszanezve elegge durva volt, hogy 11 ev alatt a sprite alapu pseudo3dtol a dinamikus feny-arnyek szamitasig jutottunk. Ehhez képest vesd össze a DX9.0Ct és a DX12 közötti különbségeket, ahol szintén kb ugyanennyi idő telt el.
-
proci985
MODERÁTOR
válasz
imi123
#23445
üzenetére
Nem tudom, en semmi ilyet nem tapasztaltam egy 7850 CF / 970 / 290X (CF) kornel. Amig megvolt az fps (es nem fogyott el a memoria / nem dobalta le szignifikansan az orajeleit a kartya) mindegyik siman futott.
a 970 es a 290X valtas kb ugy nezett ki, hogy vakon par jatekban nem tudtam volna megmondani, hogy melyik van epp a gepben 1080pben.
kieg: az viszont teny, hogy az "orajelleodbalos" 290X merhetoen rosszabbul teljesit, mint egy rendesen hutott. namost nekem viszonylag hamar viz kerult a kartyakra.
(#23456) Keldor papa: multiGPU frametimeoknal megfordult a helyzet valamennyire, 980hoz kepest mar a 290X adott altalaban jobb frametimeokat. viszont amikor utoljara komolyabban osszehasonlito teszteket neztem annak mar masfel eve, azota megint lehet valtozott a helyzet.
-
proci985
MODERÁTOR
válasz
keIdor
#23280
üzenetére
nincs multiGPU es egy kartyaval a 4K@30fps sincs meg.
az latszik, hogy 1080pre is pontosan addig optimizaltak amig az 1080nak meglett a 60fps (de semmi masnak).
engem mondjuk jobban erdekelne egy frametime plot kombinalva GPU usage es CPU usage plottal (lehetoleg max egy 4+4magoson mert ott meg latszik ha valamelyik thread belimital), avagy elnezve a grafikont ez nekem nem igazan tunik GPU limitesnek.
-
proci985
MODERÁTOR
válasz
Venyera7
#22759
üzenetére
Deus Exet egyelore hagyjuk, nem ad normalis kepet / teljesen random modon fut jol / katasztrofalisan hasonlo konfigokon.
forumokon ahogy neztem a HEDT / multiGPU tulajok (jellemzoen SB-E / H-E + 980 SLI / 980Ti SLI / 290X CF) kozul eleg soknak megmagyarazhatatlanul lassan megy a jatek.
jellemzoen egy csomoan 1080 / high borderless windowed (gyakorlatilag ablakban futo jatek) beallitasokkal toljak, mert egyedult ugy kapnak ertelmes fpst. adott esetben time spy alatt 20-30ezreket behuzo rendszerekrol beszelunk amiket 4Kra raktak ossze, jellemzoen egy kartyaval is az ajanlott gepigeny folott. egykartyas rendszerek is erintettek, pl az 1070 is.
a "bennmaradt az MSAA / shadow" kizarhato, tul sokan vannak problemakkal es a leirasokbol latszik, hogy adott esetben 5 oranyi debug utan egyszeruen feladtak.
ertsd: nalam fullscreen modeban threadlimites a jatek (IB-E@3.7, ajanlott gepigeny folott), 1080p@ultran van 30fpsem (msaa nelkul), 1080p@lowon 35.
-
proci985
MODERÁTOR
en Crysis3 eredmenyeket szoktam nezni, az megbizhatoan GPUlimites, multiGPUval is (foleg 4Kban), szoval altalaban eleg jol mutatja az erosorrendet. ott kb azt lattam, hogy az 1080 lemaradt a 295X2tol (sajat GPU alrendszeremhez az all a legkozelebb, bar az enyem semennyire nem downclockol), viszont a Titan mar picit gyorsabb volt.
FE vs FE erdekes kerdes, en jobban szeretem, ha olyan kartyakat tudunk osszehasonlitani ahol a hutes nem jelenik meg confounding variablekent.
ettol fuggetlenul tovabbra is tartom, hogy 4096 szamoloval nezve lehet, hogy 1200-1500 koruli orajel kene a Titan megfogasahoz az uj AMD kartyanak hacsak nem csinalnak valami varazslatot architekturalis szinten.
-
proci985
MODERÁTOR
válasz
lezso6
#22710
üzenetére
hát nagyon leegyszerűsítve a dolgokat kb ha 1200-1400as órajelet el tudnak vele érni és nem fogja meg a memória, akkor meglesz az. Titan(új) tesztek alapján (már amennyi van) annyival nem gyorsabb egy 1080nál, ilyen kb 20% volt ahogy néztem (de tényleg nagyon kevés teszt van, 4K surround + SLI lenne érdekes).
-
proci985
MODERÁTOR
válasz
MiklosSaS
#22323
üzenetére
Igen, csak gondolj bele mi lett volna, ha kifogod a bottom 5% kártyát a 980TIből mert arra is lett volna esélyed. Emiatt mondtam, hogy egy pillanatra cserélj sapkát.
Jó, gamerként alap, hogy az ember örül a +20%nak, ezt aláírom.
Egyébként én is gamerként szoktam fejleszteni a jelenre. -
proci985
MODERÁTOR
Intel procik is a terhelés függvényében állítják az órajeleket. Ezt az alaplapgyártók egy része overrideolja, de pl a sokmagos szerverprociknál eléggé szembetűnő különbség van az egymagos max boost és az összes magos max órajel között.
Plusz dinamikus fesz és órajelállítás szintén van intel fronton is, ld statek. Ez is fejlődött, ld a C2Qnak volt két stateje, a jelenlegi SB-E I7emnek pedig elég sok.
De itt még egyszer két különböző dologról beszélünk, az AVFS implementáció lehet jó az AMDn még úgy is, hogy alapból kb határon járó chipeket adnak ki hogy kompetetívek maradjanak (Hawaii über / Fury X downclockokra más magyarázat nem nagyon van szvsz).
-
proci985
MODERÁTOR
válasz
MiklosSaS
#22312
üzenetére
Olvasd el még egyszer amit írt, és gondold végig. Ne gamer hanem mondjuk mérnöki szemmel.
A Maxwell és Kepler nem azért szar (adott esetben), mert van bennük 15-35% OC potencia, hanem azért, mert az alapján amit Abu leírt a 95%ban van 15% OC potencia, mondjuk a 5%ukban pedig 35%. Tehát leveszel két kártyát a polcról amiknek tegyük fel az egyszerűség kedvéért hogy van 1000res alapórajele, és nem tudod, hogy 1150 vagy 1350, esetleg 1050 lesz a vége. Gyártói szempontból ez azért szívás, mert választhatsz, hogy eladod az összeset 1050en, 95%ot 1150en, esetleg 5%ot 1350en. Esetleg befektetsz es előre bineled a chippeket mint az EVGA, de az is járulékos költség.
Zárójelben: És akkor binelhetsz, de ott meg előjön az a vicces helyzet, hogy 970 és 970 között nagyobb variancia volt teljesítményben (OCvel is!), mint a ref 970 és 980 között.
Ennek semmi köze ahhoz, hogy a Hawaii és a Fury is eléggé a határára volt órajelezve.
gbors: Intelnél nézd végig, hogy hogy ment az OC a Core2 generációtól a jelenkorig.
Core2nél iszonyatos variancia volt, főleg a legalsó bines q6600nál (9x266, <1.200 és 1350 közötti gyári Vcpu). Nagyon sokunknak volt a topikban szóval bőven volt minta. Az alapján kb az látszott, hogy 100ból kb volt kettő ami nem volt stabil 333as órajel mellett (ami a következő fsb lépcső lett volna) és százból kb 50 vitte a 400as FSBt (megfelelő léghűtés mellett), százból kettő pedig vitte a 9x400at 95Wos TDPn.
A fogyasztás és feszültségi görbe szintén iszonyatosan szórt, a sajátomnak volt 1.285ös gyári alapfesze, 1.008on már stabil volt (fele fogyasztás!) és befér a 45Wos TDPosztályba, viszont 3.6hoz kellett neki 1.46V és ott behúzott 175Wot. Ja igen, akik próbálták, azoknak kb az volt a tapasztalata, hogy az esetek 95%ban hatalmas ráhagyás volt a feszekre.
Ha megnézed a mostani intel procikat, van bennük max 10-15% OC (a 35-60 helyett) és olyat se fogsz sűrűn látni, hogy 25% ráhagyás van a feszen. Az, hogy ez jó vagy rossz, azt rádhagyom.
-
proci985
MODERÁTOR
válasz
keIdor
#22244
üzenetére
ilyet en 970G1el is lattam, igaz havi egyszer (79x0 ahogy hallottam lenyegesen problemasabb volt, meg AMD viszonylatban is).
miklosss2012: ez így Hawaiival is mind megvolt, nem véletlenül közös a legboldogabb Hawaii topiklakókban, hogy szinte kivétel nélkül ott figyel a vizesblokk a kártyán.
használtan 150 euro körül mentek errefelé (egyhez ennyiért még FC blokk is volt), gondolkodtam családtagnak beszerezni egyet, aztán úgy döntöttem, hogy nem akarom megszívatni vele meg magamat sem.
970 sokkal élhetőbb kártya volt.
-
proci985
MODERÁTOR
válasz
#85552128
#22018
üzenetére
persze, ez mind igaz
inkább arra írtam, hogy performance / watt javulásnál ne a TDPből induljunk ki Maxwellnél, mert az csak visszafogottan ad reális képet (senki sem vett refet kb).
G1et én nem tuningoltam, de jellemzően 1500 körül mentek. az EVGA meg szépen megvette a superflower gold platformját, ami kb az egyik csúcsplatform az utóbbi években. jó táp
. -
proci985
MODERÁTOR
válasz
#85552128
#22010
üzenetére
970 g1 gyárilag 1392-1420 között boostolt, három kijelzővel (1080phez képest ez magasabb terhelés jellemzően), adott esetben konstans 99%os GPUterhelés mellett (pl Borderlands 2 ultrán kikapcsolt vsynccel). szóval a Strixhez képest simán 10%al magasabb órajeleken járt. még egyszer, ez a gyári értéke volt, és a topikban nem csak az enyém ment ennyin.
de a G1 a strtix / msi lightninghoz képest is egy külön állat volt, 250Wra állított VRM limittel és hiperagresszív órajelemeléssel.
Habugi: Hawaii szivárog. a Matrix Platinumom tetejében nagyon alacsony ASIQos (lehet arra válogatott LN2 tuning miatt), 70Wot nyertem a teljes gép fogyasztásán csak azzal, hogy kapott egy vizesblokkot. ennyit jelentett, hogy 94 helyett 62-65fokon tetőzött a GPU.
ami ennél is súlyosabb, hogy a nagyobb fogyasztású kártyák simán 310-330W körül fogyasztanak, szóval nem véletlenül kritikus a hűtésük. meg nem véletlenül nőtt a kereslet az épített vizek után.
-
proci985
MODERÁTOR
válasz
Venyera7
#22007
üzenetére
GTX 980 ~165W
ja, a refnek ami ledobálja az órajeleit.970 is gyárilag 145W ami jól hangzott, csak a 970 G1em konkrétan 200Wot húzott be gyárilag játékok alatt, igaz kb 20-25%al gyorsabb is volt megintcsak gyárilag a ref 970nél. dolog nem tűnt volna fel, ha nem nézem a hőfokokat ami figyelembe véve a hűtést meg a 970 gyári TDPjét nem lettek volna teljesen irreálisak.
-
proci985
MODERÁTOR
válasz
velizare
#21992
üzenetére
VRM jellemzoen a kartya GPU feloli oldalan van. VRMnek nem kell jetplate, teruletre levetitve messze nincs akkora hotermelese mint a GPUnak.
290X refeknel volt ra pelda, hogy a VRM meg vizen is meleg volt (ezen jobb gap paddal lehetett segiteni + a backplatet is lehet hoteritesre hasznalni), de ez megint relativ, leghuteshez kepest azert meg ugy is jobb volt a helyzet.
egy 6mmes hocso (ahogy nezem akkora) az talan ilyen 25Wot tud, de a 8as is kb 35Wot ha jol emlekszem. vagy valahogy akorul.
-
proci985
MODERÁTOR
válasz
proci985
#21850
üzenetére
na kozben talaltam egy megfelelo tesztet, tenyleg nem ment a Just Cause 3ban a multigpu egyik oldalon sem.
Az egyetlen kulonbseg skalazodik / nem skalazodik szinten a ket gyarto kozott nemi microstutter GTA5 alatt AMDnel CFben. Ebbol nekem az latszik amit korabban mondtam, hogy ha az egyik gyartonal skalazodik a multiGPU, akkor a masiknal is fog. AMDnel megesik, hogy par napot kesik a profil, de elnezve az idei helyzetet sajnos mar nem nagyon van profil.
Egyebkent ahogy nezem ez is a szokasost hozza ki, avagy minel GPUnehezebb a helyzet, annal jobb a skalazodas, ha van. Viszont tenyleg eleg sok jatek van hibahataron belul egy gpuhoz kepest, foleg 2016 kiabrandito. Ami meg ennel is jobban kiabrandito, hogy egy GPU meg mindig nem teljesen eleg 4Kra.
miklosss2012: ez nekem tulmelegedesnek tunik, nalam a Matrix Platinum csinalt ilyet meg legen aminel kisse alulmereteztek a hutest (ill kicsit magas volt a gyari fesz az alacsony ASIQos kartyahoz, ez nezopont kerdes).
a masodik ket kephez hasonlot en tulmelegedo memoria miatt lattam Project Carsban.
ja igen: Crysis3 magasabb felbontasban jobban terhel a furmarknal rendszerszinten (GPU szinten hasonlo a helyzet, de mas is melededik ami a hazban adott esetben magasabb ambient tempet csinal).
ez persze rajtad nem segit, az meg kulon szomoru, hogy adott esetben a 290X utan a furyt is custom vizzel kellett huteni.
-
proci985
MODERÁTOR
290Xnél a kiegészítésed egész pontos. A teljesítményében nincs hiba, de ismerősöknek én se nagyon ajánlottam 1080pre a 970 helyett, részben a fogyasztás, részben a hűtési igény miatt. Az intel mainstream platformon egy i7 + 970 kombo beérte egy 400Wos táppal és hűtésnek egy teljesen csendre hegyezett Fractal R5 is tökéletes volt (egyik barátomnak konkrétan ilyet raktunk össze pár hónappal azután, hogy a saját 970em visszaküldtem). 290Xeknél a topik legboldogabb lakói vagy feszt optimizáltak, vagy lightning/vaporX/triX kártyájuk volt, vagy levizezték.
A hűtés második, komolyabb problémája volt, hogy egyrészt microstuttert okozhatott (és okozott) a dinamikus órajelállítás és komoly teljesítményt lehetett vele bukni. Tehát benchmarkokban egy rosszul hűtött ref 290X legalább annyira nem adott reális képet a kártya teljesítményéről, mint mondjuk egy ref 970. Szvsz részben emiatt is állt elő az a helyzet, hogy az eredetileg 780 ellenfél 290X 390X néven (picit jobb hűtéssel és kisebb fogyasztással) már lényegesen jobban teljesített.
A hűtésére én nem mondanám, hogy igénytelen, inkább úgy fogalmaznék, hogy 300Wos fogyasztás mellett légen pciE szabványon belül (max 2 slot!) nem lehet csodát tenni, főleg nem egy blowerrel.
De tényleg, a GTX480 után pár évvel az ember nem számított rá, hogy az AMD is kiad egy hasonlóan élhetetlen kártyát.
-
proci985
MODERÁTOR
válasz
TTomax
#21849
üzenetére
JC3ban ahogy en lattam csak "single SLI" volt, tehat nem megy. force AFR van AMDvel is, de azzal nem sokat erunk.
de ha tudsz mutatni benchmarkot ahol az SLI javulást mutat azt szivesen veszem.
Egyébként pedig nem fogom az AIO-s TitanXeimet fillérekért leadni valakinek,majd ha lesz olyan egy gpu ami ennél gyorsabb talán,nekem pascal kimarad mert semmi értelme.
TXek helyett nekem FC vizezett 290X OCk vannak, de a mondat többi része áll. Azzal a kikötéssel, hogy az új Titan talán már gyorsabb náluk GPUbound helyzetben extrém felbontásban, az 1080 még biztos nem volt az.Jó, pár napja persze közepesen mérges vagyok az új Deus Exre, de némi irritáció kisimítja a ráncokat és sokkal kevesebb energia, mint mondjuk eladni két kártyát, a vizesblokkokat, bukni darabonként kb 200 eurot helyi áron, beszerezni egy 1080at még 200 euro ráfizetéssel (+150 euro elkerülni egy második átszerelést amikor rájövök, hogy ez is baromi hangos terhelve*), szerelni 40 órát, kihúzni a forgalomból a desktopomat egy-két hétre miközben dolgozni is kéne rajta lehet, aztán konstatálni, hogy van három cím ami már jobban fut (amiből kettőt kitoltam szóval mértékkel érdekes). miközben mondjuk a tavalyi kevésbé HWigényes játékok ahol megy a CF jellemzően 60+ fpssel mennek eyefinity ultrán. hát persze.
*ez relatív, vannak csendes kártyák, de épített víz jellemzően más világ.
-
proci985
MODERÁTOR
válasz
TTomax
#21845
üzenetére
A CF egyébként megy HWInfo alapján (Afterburnerrel még mindig CTDzik), valahol máshol van bottleneck.
Ha ott jól megy akkor levonhatod a konzekvenciát,múltkoriban ezt próbáltam meg vázolni neked.
Ehhez képest Te is még mindig SLIzel ha jól emlékszem
. Márpedig ha az egyik gyártónál megy a multiGPU akkor záros időn belül a másiknál is rendben szokott lenni.Btw, néztem steam fórumokat, láttam ugyanazt a problémát ami nálam van, csak ott 980Ti SLI volt (ugyanúgy SB-E platform 32GB memoriaval). Viszont SB-E + multigpu kombo eleg ritka, szoval tippre meg az SB-E nem hivatalos pciE3.0 tamogatasa is lehet az indokok kozott.
-
proci985
MODERÁTOR
válasz
daveoff
#21838
üzenetére
grafikában semmi előre mutató
Ultran a jelenlegi egyik legszebb jatek, ha nem a legszebb szvsz. Nem az effektek miatt, hanem olyan szinten reszletes a grafikaja, amit meg nem lattam. Kepeken es videokon ez nem jon at, de amikor egy lakasban kb nincs ket egyforma textura a mahagoni boritasu falon, az osszes postit es ujsagcikk a falakon olvashato (nem klikkelesre, tenyleg el lehet olvasni mi van rajtuk), az szerintem mindent elmond. A performance problemak egy resze is emiatt van szvsz.Gyakorlatilag ugyanaz a helyzet mint a HR eseten: Nem az volt az akkori legszebb jatek (hanem a Crysis3), de reszletessegben es designban behozta a lemaradasat.
UInel nagyon ugy nez ki a fel dev csapat gondolta arra, hogy nem mindenki 50es FoVval 16:9en jatszik, a masik fele meg nem, es ettol van par problema.
Performance problema nalam is van, nalam a borderless widescreen oldotta meg a dolgokat kb, de tippre a DX12 lekepezonek a nalam jelentkezo problemakat el kene tuntetnie: Nem a VGA a bottleneckes, nem a CPU (egeszeben) a bottleneckes, en threadlimitre gyanakszom.
-
proci985
MODERÁTOR
válasz
proci985
#21793
üzenetére
csereltem drivert nem szamitott.
mennyire akadnatok ki ha azt mondanam, hogy dedicated fullscreen (azaz fullscreen) helyett atalltam sima fullscreenre (win10 alatt gyakorlatilag ablakban fut teljes kepernyon), es hirtelen leesett a CPUterheles es felment az fps 58ra ugy, hogy a ket szelso monitor ment, majd leesett 48ra lekapcsolva a szelsoket (wut).
ilyet en meg nem lattam, hogy egy AAAs jatek ablakban jobban fusson. elvileg lehetseges a dolog mert ugy nincs multiGPU, de a CPUterheles az ami minimum gyanus.
na mindegy, meg mindig tetulassu a jatek a benchmarkokhoz kepest, de legalabb mar kezdek elfogadhato fpst kapni.
kieg: FoV ertek allitasara ugy nez ki nagyon erzekeny a program, 50 es 70 kozott 15% kulonbseg volt mas beallitast nem allitva.
kieg2: 1080p / ultra borderless windowednel 42 fps avg (ez nem elkepzelhetetlen ugy, hogy csak egy kartya megy), mikozben dedikalt teljes kepernyon 1080p medium tud 35ot (ultra 30at).
-
proci985
MODERÁTOR
válasz
#85552128
#21788
üzenetére
koszi, ezt kiprobalom.
gyiku: megnezem, ebben nem vagyok biztos, hogy tudja a lap.
gbors: ez ilyen
. csaladtag atlag leghuteses gepet (Fractal Define, Thermalright hutes, ATX, egy VGA, 2 disc) masfel ora alatt kenyelmes tempoban kave es sutiszunettel raktam ossze (es ebben bennevolt a vezerlopanelen a ventik belovese es a szep kabelrendezes is), a sajat gepemnel kb 40 oras az osszeszerelesi ido. van itthon meg ket radim amit agyalok, hogy integralni kene a rendszerbe (meg esetleg ketkorositeni a hutest), de szerintem a ket unnep kozottig biztos nem nyulok hozza.---
DSR tema: szvsz a 4xes az egyik legszebb eredmenyt adja kepminoseg szempontjabol, mas kerdes, hogy 1080phez 4Kban szamoltatni azert eroforrasigenyes. a koztes megoldasok a pixellekepezes miatt viszont lehet elmosottabb kepet adnak. en mondjuk nem nagyon hasznaltam, 5760x1080nal a DSR gyakorlatilag 4K eyefinitynek felelne meg.
-
proci985
MODERÁTOR
tegnap egyebkent vegre sikerult jatek adatokat is kiszedni belule (afterburnertol meg mindig CTDzik indulasnal nalam). CPUterheles 60-75% kozott egy i7-3820al, multiGPU nagyon ugy nez ki megy viszont a benchmark alatt se volt GPU limit, neha HWinfo kijelzes alapjan mindket kartya henyelt mikozben a jatek lassu (oke, 1080p mediumon kinomban). os, steam kulon ssdn, gepben 32GB DDR3-2133 van (quad channelben). pciE3.0 x16on ulnek a kartyak. kikapcsolt multiGPU sem segitett. hutes, tap oke (custom viz, hofokokat monitoroztam es a viz nem ment 42 fok fole).
a CPU elvileg az ajanlott szinten van (I7-3770 kb hibahataron belul van, 8350nel egy szalon sokkal gyorsabb, embarassingly parallel esetben tippre legalabb hasonlo), mem duplaja, GPU duplaja. lehet le kene meg egyszer gyalulni a drivert es ujrarakni, egyszeruen nem ertem mi az ami belimitalja. ertsd 1080p medium kb 35 avg, 1080ultra 30 avg, 5760high 29.5avg.
threadlimites helyzetekben lattam meg ilyet, illetve amikor a Crysis FSBlimites volt, de figyelembe veve, hogy DX11 renderernel threadlimitet meg nem lattam es figyelembe veve a HEDT platform sajatossagait (quad channel memoria), ezt kb szinten kizarnam.
Time Spy alatt 6416 pontot kapott a rendszer (7749 graphics, 3249 CPU), szoval ugy, hogy megy a CF (marpedig megy) ezek a szamok katasztrofalisan alacsonyak. ugy, hogy nem megy a CF, ugy meg a tavalyi/idei eroforrasigenyes cimek (Doom, Just Cause 3) meg mindig 40-70fpseket tudtak.
utolso patch fent, beallitasokkal kb mindent vegigprobaltam medium-high-very high-ultra / shadow on / off / soft OFF / MSAA off, AA altalaban off, AO off vonalon. ha valakinek van jobb otlete a driver gyalulasnal persze szivesen fogadom. kizarasos fullscreen ok.
tippre driver lehet es a DX12nek is meg kene oldania (eltero bottleneckek), de igy kicsit ideges vagyok, hogy ha mar fel evet csusztattak a starton meg ugy is eddig katasztrofa szoval tudnam jellemezni amit csinal.
-
proci985
MODERÁTOR
válasz
#85552128
#21691
üzenetére
290X CF high (ish, AA kikapcsolva), 5760ban tol 30as AVGt.
CF nem tudom megy-e mert afterburnerrel nem hajlando elindulni, hofokok alapjan talan. ha megy rendesen a CF az elegge vicces mert 4Kra ide tenyleg multiGPU kell meg mindig.
kieg: vegigmertem ultra - very high - high - medium preseteken 1080pben, fpsre 30rol (lehet ultra textura nem volt bent) felment 36ra az fps (mediumra), remelem 1-2 patchen belul jo lesz mert ez igy nagyon nem oke. Lehet egyébként a multiGPUt kene kikapcsolni, vagy a szelso monitorokat, vagy a beallitasokat... vagy... tokmindegy, nem engem fizetnek ezert es ha minden mas jatek mukodik akkor nem az en rendszeremben van a hiba.
Ja igen: ha gondolkodsz rajta de meg nem vetted meg varj par hetet. A launchot sikerult jobban elszurni mint a Just Cause 3 eseten, miután mar egyszer fel evet toltak rajta. A jatek a jelen formajaban meg nincs kesz.
-
proci985
MODERÁTOR
válasz
TTomax
#21595
üzenetére
kb így, bár a soft shadowt én szeretem.
azért én itt látok különbséget, a dinamikus fény-árnyékok/megvilágítások eléggé szembetűnőek. plusz DX11 egyszálas terhelése sokkal alacsonyabb, mint a DX9-DX10 leképezőé ahogy néztem a játékokban ahol volt több lehetőség, a DX11 variáns jellemzően jobban futott, főleg három kijelzővel.
-
proci985
MODERÁTOR
válasz
Venyera7
#21550
üzenetére
van valahol normalis PC port review? pl van 48:9es keparany, beallitasok, etc?
egyebkent ez a human revolutionnal is igy volt, mas kerdes, hogy ultra es high kozott kepminosegre majdnem nulla volt a kulonbseg jatek kozben (vagy tenyleg kb elhanyagolhato) ellenben nalam kb dupla - triplazta az fpst.
ha VSR jellegu az AA (es gyakorlatilag 4Kt szamol a videokartya) akkor meg nem kell csodalkozni ha alig van meg valamin 1080p ultran a 60fps.
ja es a legfontosabb: lesz multiGPU support?
-
proci985
MODERÁTOR
Hawaii így lassan két generációval később azért egy jól sikerült kártya volt. Ahhoz képest, hogy a 780(Ti?) ellen kezdett, a 980 ellen is szépen tartotta magát extrém felbontásban (1080 startig gyakorlatilag 290X CF / 980 SLI volt a járható út 4Khoz, vagy drágábban a 980Ti/TX SLI).
Ahol szépen megy a multiGPU (pl Crysis3), ott a 295X2ot vegul most az uj titan tudta megfogni tempoban.
Más kérdés, hogy én elég óvatosan szoktam ajánlani, bármennyire is elégedett vagyok a saját setupommal. A járulékos költségek magasak (spec hűtés az irdatlan fogyasztás miatt, nagyobb táp) és azokon spórolva kb 2004es Northwood P4 EEket megszégyenítően élhetetlen setupok rakhatók össze a Hawaii kártyákkal. Amik tetejében problémásak lesznek játék közben is adott esetben, mert a kártyák hővédelme próbálja menteni a menthetőt.
-
proci985
MODERÁTOR
válasz
=WiNTeR=
#21477
üzenetére
facebook prioritalja a videokat mert jobban szeretik oket nezni.
bizonyos celokra jobb (pl haz revieweknel ha vizhutesre kell tobb szogbol meg lehet nezni mi merre hany centi), VGA reviewre szvsz idopocsekolas de en eleg gyorsan olvasok alapbol (ilyen 1000szo/perc korul monitoron).
toflehi: kb, viszont ha elgondolkodom a szamokon / belegondolok mit irsz akkor ez persze lassabb. termeszetesen ez fugg az adott szovegtol, formalis bizonyitasoknal ez adott esetben harom nagysagrendet is eshet
. viszont egy atlag ujsagcikknel kb ez a tempo megy ha sietek. -
proci985
MODERÁTOR
válasz
MiklosSaS
#21410
üzenetére
ez nekem kifogyott memóriának tűnik vagy tulmelegedett a memoria a kartyan (nincs ott a textura es rikit, hogy a dev konnyebben ki tudja szurni).
cain69: deus ex elvileg elozo honap vegen aranylemezre ment. DX12 hianya miatt en egy pillanatra elgondolkodtam, hogy ebbol CEt akarok (hamar az elozorol lemaradtam / akkor meg dragallottam), aztan max az lesz, hogy varok vele ket hetet.
-
proci985
MODERÁTOR
Tetejében Oculusnál kb két éve ismerősök panaszkodtak, hogy kb minden egyes SDK update agyonvágta a kódjukat.
gollo91 : ez gyakorlatilag mar egy cave. egyebkent annyira nem uj a dolog, irodalomban es eloben is lattam mas hasonlot 20 eve (pl Nixdorfban volt egy latogathato varians a 90es evek vegen, igaz nekem kb instant hanyinger volt), igaz mas interakcioval.
repulokkel es autokkal megszokott pont amiatt, mert annyira nem kell mozogni. az ipari parkban ahol vagyok is van pl egy hasonlo cucc egy Volvo S80 kore epitve.
-
proci985
MODERÁTOR
persze, hogy lassu, ha 16kban szamoltatjak a jatekot, "On a 1920x1080 monitor, 2x SSAA renders Rise of the Tomb Raider at 2688x1512, and at 3840x2160 with 4x SSAA. ", gyakorlatilag az SSAA a DSR megfeleloje ahogy nezem.
de valahogy el kell adni a TitanX SLIt, meg ha ehhez a gyakorlatban negy (!!!) 4K kijelzonyi pixelt is kell szamoltatni.

-
proci985
MODERÁTOR
válasz
TTomax
#20550
üzenetére
Ha ez valamilyen oknál fogva mégsem felel meg,akkor bizony az Afterburner tudja kártyánként állítani a ventiprofilt,órajeleket,és úgy kb mindent csak ki kell venni a "generals settingsnél" a "syncronize setings for all similar gpu" elöl.
Ezt amikor en probaltam harom eve meg biztosan bugos volt. Adott szerian belul (ez ket 7850 volt) a ket legjobb hutesu kartyam volt (HIS ICEQ, PowerColor PCS+). Eltero gyartoktol, mert amikor megvettem a masodik kartyat gyakorlatilag az elsot nem lehetett kapni ertelmes boltbol.
Elonye annyi van, hogy egyel kevesebb dolog, ami ossze tud akadni a tobbivel.
Memtuning mondjuk szvsz annyira nem fajo pont, VCore mar jobban. Ujabb szeriakat mondjuk nem tudom hogy allnak, a sajat Hawaii Matrix Platinumnal tesztnel 1.35ig mentem epitett vizen es programbol meg lehetett volna neki adni tobbet, csak az mar vizzel se lett volna biztonsagos forumos tapasztalatok alapjan. Egyreszt a fesz, masreszt ~350+W azert epitett vizzel is sok. CFben mondjuk nem probaltam a kartyakat huzni, bar az arrol is szol, hogy nem vagyok hajlando egy Mora3t rakni a gep moge, 900Wra meg mar az kene.
-
proci985
MODERÁTOR
pontosan.
TTomax: ha 10bol 9 jatek nem downclockol akkor a tizediknel adott esetben 5%al gyengebb teljesitmeny nekem siman ert annyit anno a hd6900 szerianal, hogy ne lepje tul a fogyasztas tresholdot. foleg, ha mondjuk 5% fpst eszre se lehet venni, ellenben a mondjuk 10-15% fogyasztas difit (underclock + undervoltage) es az emiatt hangos ventit mar igen.
egyebkent emlekeim szerint NVnel a Maxwell ota a target clock ugyanugy parameterezheto fogyasztastol fuggoen, tehat igazabol a ket gyarto termekei kozott nincs kulonbseg ilyen szempontbol.
-
proci985
MODERÁTOR
válasz
TTomax
#20540
üzenetére
azert a driverbol parameterezheto hutes szerintem jo dolog. anno a 7850 CFnel konkretan ket kulon programnak kellett futnia, hogy minket kartyan megfeleloen mukodjon a parametrizalt szabalyozas (eltero gyartoktol voltak mondjuk).
MSI afterburnert is jellemzoen erdemes drivercsereknel pucolni (en szoktam).
Sok fpst szeretnék csendesen,a downclockot én meghagyom màsnak...
Nem Te vagy a celcsoport. Egy HTPCnel ahol kompromisszumot kell kotni hutesben ott adott esetben par fps veszteseg de csereben csend szvsz adott esetben indokolhato (ez sokmindentol fugg). Full towernel ez jellemzoen nem erdekes, de vannak, akiknek a PC nagyszoba/elettars kompatibilitasa szempont.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Elektromos autók - motorok
- One otthoni szolgáltatások (TV, internet, telefon)
- Samsung Galaxy Watch8 és Watch8 Classic – lelkes hiperaktivitás
- Milyen egeret válasszak?
- Linux Mint
- Eredeti játékok OFF topik
- Bemutatkozott a Poco F2 Pro (már megint)
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Autós topik
- exHWSW - Értünk mindenhez IS
- További aktív témák...
- AKCIÓ! Apple iPad Pro 13 M5 1TB Wifi tablet garanciával hibátlan működéssel
- DDR5 8GB / 16GB 4800-5600MHz SODIMM laptop RAM, több db- számla, garancia
- Utolsó raktáron! Apple Mac Studio M2 Ultra 24/60 mag, 64GB RAM, 1TB SSD - 27% ÁFA
- Apple iPhone 11 Pro Max 64GB, Kártyafüggetlen, 1 Év Garanciával
- Részletfizetés. BankMentes. Kamatmentes. Új noblechairs EPIC FEKETE ARANY. 3 év garancia!
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest

, es azert harom, mert az a max.
. az a hocso viszont gyonyoru volt rajta.
. 480al semmi baj nem volt azon kivul, hogy nagyon meleg volt es csak ket kijelzot tudott meghajtani szimultan.

, mármint elmagyarázni a statisztikát hogy működik
Egyébként én is gamerként szoktam fejleszteni a jelenre.
