Új hozzászólás Aktív témák
-
Malibutomi
nagyúr
AOC launches FreeSync anti-blue light monitors priced from £99
Nem nagy szam monitorok(ennyiert nyilvan) de halad a folyamat hogy mibdenben lesz freesync.
[ Szerkesztve ]
-
Televan74
nagyúr
válasz Malibutomi #9452 üzenetére
Megnéztem a spec -t a weboldalon sehol sincs freesync. Csak 1080p@60Hz.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
Yllgrim
őstag
válasz Televan74 #9453 üzenetére
Probaljuk meg a gyarto honlapjan, ha mar ok gyartjak biztos tudjak mi van benne
[ Szerkesztve ]
Peace is a lie, there is only passion. Through passion, I gain strength. Through strength, I gain power. Through power, I gain victory. Through victory, my chains are broken. The Force shall free me.
-
HSM
félisten
válasz Televan74 #9450 üzenetére
A 290-el csak a BS volt bizonyos lapokkal a gond. A melegedés a gyártók spórolása volt a hűtésen. A hőtermelésnek megfelelő hűtőt kellett volna rá tervezni, és akkor nem melegedtek volna. Ahogy a 390-nél már azért nagyjából sikerült nekik.
Azért így is volt pár jól sikerült típus.
[ Szerkesztve ]
-
Televan74
nagyúr
válasz Malibutomi #9459 üzenetére
Én 144Hz -set szeretnék jövőre 1440p -ben. Remélem addigra kitalálnak valamit az alacsony fps -nél jelentkező képtörésre is.
De még bizonytalan vagyok abban is,hogy Greenland vagy Pascal.
[ Szerkesztve ]
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
HSM
félisten
válasz gtamate2 #9461 üzenetére
A ref modellnél spóroltak a hűtéssel, azért volt forró, ugyanazt kapta, mint a jó 50W-al kevesebbet fogyasztó 7970. Az gáz volt, ez tény.
A leírtakon kívül teljesen jó volt még a PowerColor PCS+ is. Igazából csak néhány modellel voltak a melegedési gondok, más téma, hogy valamiért azok elég nagy számban voltak vásárolva az emberek által.
-
HSM
félisten
válasz gtamate2 #9463 üzenetére
Az Asus nem volt elvileg vészes, csak kicsit joban meg kellett pörgetni rajta a ventit, mint gyárilag tették. MSI-vel már voltak rosszabb tapasztalatok.... Én amúgy nem is értettem, minek vettek annyian olyan típust, ami melegedős, ha zavarta őket... Van már manapság ezer teszt, utána lehetett volna nézni időben...
-
-
Joshi
titán
Ilyen körülmények között a Fury X mit produkál?
-
rocket
nagyúr
Vasarnap estig ingyenesen jatszhato a Steamen az ARK Survival Evolved, ma jon a DX12 patch a jatekhoz, lehet tesztelgetni
"A lower resolution generally means that there can be more quality per pixel."
-
nagyúr
Jah énis csak azért raktam fel, mert amugy elégé nem nekem való játék.
Jelenleg a grafikájához képest (epic) tényleg nem valami sebes... GTX980-on is alig van meg a 30+ fps...
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
do3om
addikt
válasz FollowTheORI #9468 üzenetére
Gyanús hogyha dx11-et pach-elik meg az is hoz sebesség növekedést nem kel hozzá dx12, de ezt ilyenkor ugy sem tudjuk meg. A lényeg gy is az hogy remélhetőleg gyorsul.
Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A
-
HSM
félisten
Persze, csak utána az olcsójános nem a gagyi kártyáját vagy a saját rossz döntését szidta, hanem az AMD 290-et, mert hogy kazán, meg szétég meg mindenbajavan... Ez az óriási probléma.
El kell fogadni, azonos áron 3 év garival nem lehet ugyanazt a színvonalú kártyát adni piaci verseny esetén, a +1 év garancia ugyanis egy szolgáltatás, ami pénzébe kerül a gyártónak. -
nagyúr
-
Abu85
HÁZIGAZDA
válasz FollowTheORI #9468 üzenetére
Az UE4 más játékban is ilyen, szóval a teljesítményprobléma forrása a motor. Ennek a motornak nem az API-val van gondja, hanem azzal, hogy két leképzőt támogat. Egy forward opciót a mobilba és egy temporal deferred alternatívát a DX11-hez. Mivel az UE4-et AAA projektekhez a nagy kiadók már nem licencelik, így a mobil leképző kapja a fókuszt, míg az alternatív leképző optimalizálása egyelőre nagyon rossz. Természetesen az Epicnek is korlátozottak az anyagi erőforrásai, így olyan helyre invesztálnak, amely eladást hoz számukra. A DX12 annyiban jelent könnyítést, hogy az UE4 DX11 kódja meglehetősen limitált, mert a PC kapja a legkisebb fókuszt és ezen belül a legnagyobb probléma, hogy az erőforrásokat hogyan hozzák létre úgy, hogy ne legyen nagyon korlátozott a teljesítmény. Nyilván DX11-ben nem lehetséges a futtatási időben létrehozni azokat, de DX12-ben már igen, és itt pont szereznek annyi előnyt, amennyivel a DX11-es leképző rendkívül gyenge sebességét előremozdíthatják. Ennek persze az lesz a hátránya, hogy a DX11-es kódot már sosem rakják normálisan össze, mert nincs értelme hónapokat eltölteni ennek az optimalizálásával, amikor van DX12, és ott az erőforrás-kreálás sokkal kedvezőbb formában megoldható. Innen egyébként nekik nagyon egyszerű lesz a DX12-vel sebességet hozniuk, mert a DX11 kód hibáit ki tudják ütni. Ezért is lesz érdekes ez a patch, mert ez lesz az első projekt, ahol a low-level váltást nem tökéletesre csiszolt DX11 leképzőkhöz hasonlítjuk, hanem egy olyanhoz, amely meglehetősen rossz optimalizálással rendelkezik.
De az is látszik, hogy még a DX12-ben sem fókusz a PC. Az UE4 csak a kötelezően támogatandó dolgokat kezeli, mint a többszálú parancskreálás és az aszinkron DMA/compute, illetve lesz multiadapter mód, hogy az IGP teljesítménye hozzáadódjon a dGPU-hoz, de sajnos a hagyományos több GPU-s rendszerekre (2-3-4 ugyanolyan VGA) már nem lesz támogatás. Valószínűleg ezt már túl költségesnek érzik, hogy specifikus multiadapter implementációt írjanak rá.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
lowzor
veterán
Valami ráció van is benne, mert a kártya nagy fogyasztása miatt szenvedtek páran ezekkel a hűtésekkel. Geforce-oknál ugyanilyen hűtések kiválóan teszik a dolgukat, mindenféle szívás nélkül. Az viszont teljesen igaz, hogy mielőtt valaki megveszi utánanézhetne a kártya fogyasztásának, ehhez mérten a hűtés méretét meglátva pedig mérlegelni, valamint átgondolhatná, hogy elégséges-e hozzá a házhűtése.
-
HSM
félisten
A GF-ok picit takarékosabbak voltak. Az a durván +50W [link] az épp annyi, hogy a GF még szépen elvan, a 290-es meg "kazánkodik". Kicsit nagyobb hűtő kellett volna, mint a GF-okra és nem lett volna gond.
Házhűtés szempontjából is számít ez a plussz hő. Pláne, ha összeadod a két hatást... Ugyanabban a házhűtésben +50W, és ráadásul a VGA-n is egy 50W-al kisebb VGA-ra tervezett hűtés... Már meg is van a "baj".[ Szerkesztve ]
-
lowzor
veterán
Viszont te is ugyanúgy megvetted a Gigát, mert jóval olcsóbb volt, mint a jó hűtéssel szerelt példányok. Talán a Tri-X volt, ami nem volt sokkal drágább, de ott meg a gari tántoríthatott el sok embert (mondjuk emlékszem, hogy mesélted, hogy a Tri-X is jóval drágább volt, mikor vetted). Az nem vitás, hog nagyobb hűtés kellett volna rájuk.
-
HSM
félisten
Egy árban volt minden típus, +/-5000Ft. Az nem tétel már egy ilyen drága kártyánál, vagy legalábbis nem lenne szabad az legyen. A Gigát ehhez képest pár napig 25 000-el adták olcsóbban a többinél, akkor vettem, hülye lettem volna kihagyni. Úgy viszont piszokul megérte, nem is bántam meg. Nekem tökéletes volt néma csendben 900/1250MHz-en, a gyárihoz képest -50W-ot fogyasztva. A különbözetből később le is vizezhettem volna valami komplett rendszerrel, így nem volt vesztenivalóm és ott volt a 3 év gari is. Amúgy a tuningot is szépen bírta, csak akkor már visított rajta a hűtés, azt meg én nem bírtam.
Normál 290 árakon megtartottam volna amúgy a Vapor-X 280X-em. Így viszont a kíváncsiság győzött.
[ Szerkesztve ]
-
hugo chávez
aktív tag
válasz Yllgrim #9455 üzenetére
"...ha mar ok gyartjak biztos tudjak mi van benne "
Á, csupán emiatt még közel sem biztos. Mert pl. erősen úgy tűnik, hogy az Intel sem tudta, hogy a Haswell IGP-je támogatja a DP floatot... Amíg valaki nem szólt nekik erről.
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
rocket
nagyúr
válasz ->Raizen<- #9479 üzenetére
Kicsit elcsusztak
"Thanks for being so patient, we ran into a few critical issues last night with 204 which we worked through the night to fix."
"A lower resolution generally means that there can be more quality per pixel."
-
nagyúr
válasz ->Raizen<- #9479 üzenetére
Nem jött, mármint ami a lényeg lett volna... le is töröltem.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
->Raizen<-
veterán
válasz FollowTheORI #9481 üzenetére
Már megjött a patch, szemre jobban fut és kevesebb volt az akadás, iszonyú nagy gépigénye van, komoly függőséget tud okozni a játék, már csináltam baltát, csákányt stb.
[ Szerkesztve ]
-
nagyúr
válasz ->Raizen<- #9482 üzenetére
A lényeg nincs benne mondom:
Fórum:
" [08/28/15] ARK DirectX 12 Delay
ARK DirectX 12 DelayHello Survivors,
It's been a long week here at Studio Wildcard as the programming team has been grinding to get the DX12 version ready for release. It runs, it looks good, but unfortunately we came across some driver issues that we can't entirely tackle ourselves . We’ve reached out to both NVIDIA and AMD and will be working with them to get it resolved as soon as possible! Once that’s tackled, we’ll be needing to do more solid testing across a range of hardware with the new fixes. Sadly, we're gonna have to delay its release until some day next week in order to be satisfied with it. It's disappointing to us too and we're sorry for the delay, really thought we’d have it nailed today but we wouldn't want to release ARK DX12 without the care it still needs at this point. Hang in there, and when it's ready for public consumption, it should be worth the wait!"
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
->Raizen<-
veterán
válasz FollowTheORI #9483 üzenetére
Ja, értem.
-
veterán
[ Szerkesztve ]
-
veterán
780 Ti-hez viszonyított sebesség látható megjelenéskor és most a legfrissebb driverekkel, 1440p-ben.
A 980 megjelenéskor 5%-kal volt gyorsabb a 780 Ti-nél, most 7%-al gyorsabb.
A 780 Ti megjelenéskor 9%-al volt gyorsabb a 290X-nél, most 6%-al gyorsabb
Ezek az eltérések akár a 3GB vs 4GB VRAM számlájára is írhatóak ilyen beállítások mellett, de a lényeg nem változott megjelenés óta.
Given its 3GB framebuffer and the fact that some newer titles are pushing up against a requirement of well over 3GB at 1440P, the performance results from Kepler’s flagship are actually quite impressive.
[ Szerkesztve ]
-
#85552128
törölt tag
válasz daveoff #9487 üzenetére
Azt sem kell elfelejteni, hogy a 980 megjelenésekor a Keplerhez már 1.5 éves kigyúrt driverek voltak, de még a 780 Ti-hez is majdnem 1 évesek, tehát a 970/980 picivel simán lehet gyorsabb emiatt mint a megjelenéskor.
A 290X-hez is jött ugye driver ami csökkenti az overheadet, nameg ugye +1 GB VRAM ami a tavaly október óta kiadott játékokban nagyon is sokat számít.
Ennek ellenére mégsem tapasztalható drasztikus eltérés (főleg nem olyan mint amilyet egyesek állítanak...) nekem pont az jön le, hogy a 780 Ti is ugyanúgy állja a sarat pedig már lassan egy éve nem az a cég aktuális csúcskártyája/architektúrája...[ Szerkesztve ]
-
daveoff
veterán
Azt tudja valaki, hogy a két nap múlva megjelenő Mad Max támogatja a DX12-őt? Volt róla hírmorzsa, de konkrét dolgot nem találok. Végül is legkésőbb két nap múlva kiderül....
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
nagyúr
-
daveoff
veterán
válasz FollowTheORI #9493 üzenetére
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
nonsen5e
addikt
Oxide: Ashes of the Singularity [link]
"Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD."
"In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)"
D4: hunPH, nonsense#2596
-
Abu85
HÁZIGAZDA
válasz daveoff #9487 üzenetére
Valójában ez a játékoktól is nagyon függ. A Kepler főleg azokban a játékokban szenved, amelyek GameWorksösek (nyilván aktívnak kell lennie a GameWorks effekteknek), vagy nincsenek optimalizálva független parancskiosztásra, vagy nagy regiszterigényű über-shadereket használnak. A Keplerre nagyon specifikus shader kell, mert ez az architektúra multiprocesszoronként négy dispatchet használ hat felfűzött streamre. Ha a shaderben nincs benne, hogy a program felfűzhet független utasításokat is, akkor minden Kepler GPU elveszti a rendelkezésre álló feldolgozók 33,3%-át. Ezen még ront az, ha rossz a regiszterallokáció, mert azzal további feldolgozók veszhetnek oda.
A legtöbb fejlesztő egyébként figyel erre, pontosan tudják, hogy hol szenved a Kepler, és elég tapasztalat van arról, hogy ezt kezelni tudják. Akkor lehet probléma, ha a Keplert direkt elvéreztetik, hogy a Maxwell előnye nagyobb legyen. Nyilván van az a pénz, amennyiért ezt egy fejlesztőstúdió bevállalja, és még az NV is hajlandó kifizetni. Ez ellen nem lehet mit tenni. Alapvetően a média felelőssége az, hogy az ilyen játékokat ne rakja be a tesztcsomagokba, mert ez egy korábbi architektúra teljesítményének mesterséges kolátozza valamilyen okból. Erre egyébként elég jól fel lehet figyelni. Ha vannak olyan helyzetek, ahol egy GTX 960 úgy teljesít, ahogy egy GTX 780, akkor az minimum gyanús, és ilyen például a Witcher 3 és a Project Cars bizonyos beállításokkal. Ez persze még mindig nem jelenti, hogy az NV pénzt adott a Kepler optimalizálásának hiányáért, de valamiért ez hiányzik a programból, és a TWIMTBP logók miatt az sem lehet indok, hogy valamelyik alávaló gaz konkurens keresztbe akart tenni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #9494 üzenetére
Nem valószínű, hogy a kiadás pillanatában lesz DX12. Maximum egy patch-csel. Maga a játék egyébként támogat DX11-ben nem létező funkciókat, mint a multi-draw indirect, de ez nem szabványos rendszer. Azt sem tudni még, hogy tartalmaz-e a program OpenGL interoperabilityt, hogy ez NV-n és Intelen is működjön, mert enélkül csak az AGSL3 üzemképes Radeonokra. De maga a motor jól optimalizáltnak tűnik, szóval nem lesz ebből gond. Különösen jót tett a fejlesztésnek, hogy rengeteg kód D3D bájtkód manipuláció, tehát nem csak szimplán HLSL-ből lefordított, hanem még kézzel szerkesztett is.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sonja
nagyúr
Remélem elfér ide.
Ha csalódni akarsz, bízz az emberekben!
-
nagyúr
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest