Új hozzászólás Aktív témák
-
Malibutomi
nagyúr
Happy
Korbeertunk, abbol indult az egesz hogy itt irtak olyat hogy a GDDR5X mellett nincs is szukseg HBM-re, de ahogy irod a piaci szereplok hisznek benne. Ezt peldaztam fentebb en is az NV valasztasaval, csak belegabalyodtunk a megnevezesekbeEgyebkent kivancsi leszek a HBM2 kartyakra. Leboges lenne ha azok is csikoznanak.
-
nagyúr
válasz Malibutomi #13597 üzenetére
Akkor még egyszerűbb a dolog. A HBM jelenleg egy olyan technológia, aminek még nincs releváns implementációja (ami van, az egy szűk niche-ben piacképes, és alulteljesíti az elvárásokat). Ettől még mindenki hisz a technológiában - az nVidia is, és 2016H2-ben látja azt az időpontot, amikor kommerciális terméket lehet rá építeni. Happy?
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Egon
nagyúr
Előrelépést a HBM hoz.
Nem igaz. A GDDR5X is hoz előrelépést: kisebb fogyasztással (és egyszerűbb nyákkal) ugyanakkora sávszél, vagy akár dupla sávszél, cserében nagyobb fogyasztás. Ha ez nem előrelépés, akkor mi?
Hadd ne idézzem már be a komplett Oliverda-féle cikket: ciki lenne...A GDDR5X egy kényszermegoldás, mert az implementálása nagyon nehéz.
False. Idézet a konkurenciától: "az implementációhoz csak kisebb módosítások szükségesek. "
No meg a HBM-et olyan könnyű implementálni (interposer), nemdebár?"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Malibutomi
nagyúr
Megint elbeszelunk egymas mellett.
Azert mindegy mert nem azt irtam hogy HBM1-el adnak ki kartyat, hanem hogy HBM-el. A HBM2 memoria is HBM, a technologia alapja ugyanaz.
A hangsuly azon volt, hogy az nvidia is a HBM technologiat valasztotta a GDDR technologia helyett a csucskartyaira (most nem irtam a GDDR utan sem szamot). Ennyi.
A sikeressegrol en nem beszeltem, arrol vagy a bukasrol majd beszelunk egy jo ido mulva ahogy te is irod.
(#13594) Pepeeeee
Nem no duplajara a grafikai terheles pont az osztottkepernyo miatt.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Valójában HBM2 nincs. A HBM az egyetlen specifikált szabvány, csak a magasabb órajel miatt HBM2-nek hívják, de szabvány szinten csak egy HBM update. A két rendszer, amit mi külsőleg számmal megkülönböztetünk, valójában ugyanabba a JESD235 specifikációba van besorolva. Tehát pontosan ugyanaz a technológia.
Akkor beszélünk külön technológiáról, ha más besorolást kap. Például GDDR5 (JESD212), illetve GDDR5X (JESD232).Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem szar csak van sokkal jobb.
Előrelépést a HBM hoz. A GDDR5X egy kényszermegoldás, mert az implementálása nagyon nehéz. Az EMI régóta probléma ezeknél a magas effektív órajelű rendszereknél. 6 GHz az, ameddig úgy relatíve egyszerű leárnyékolni a VGA-t. Efölött már egyre nagyobb probléma az EMI. 7-8 GHz még talán megoldható, de például a 14 GHz-es GDDR5X+FPGA tesztszett 256 bites busszal 37 cm-es. Egyszerűen nagyon hosszú NYÁK-ot kell tervezni, hogy az EMI ne jelentsen gondot.
A másik gond a fogyasztás, bár az csak hűtés kérdése. Ugyanakkor a 14 GHz-es effektív órajelen 3,5-5 watt egy ilyen lapka kapacitástól függően. Szimpla GDDR5 módban fogyaszt kevesebbet, de akkor 8 GHz a max órajel.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#45185024
törölt tag
Osztottképernyős móddal bővül az Xbox One-os ARK: Survival Evolved
"
A kérdés már csak az, hogy ez milyen hatással lesz a játék egyébként sem kiemelkedő teljesítményére. Ahogy a Digital Foundty rámutatott, az ARK: Survival Evolved nem fut éppen jól Xbox One-on: a 30fps-t sem tudja tartani, és egészen sokszor esik le 15fps környéki mélységekbe. Az osztottképernyős mód pedig jellemzően negatívan befolyásolja egy játék teljesítményét"
15 fps Mennyitől számít képregénynek ?[ Szerkesztve ]
-
nagyúr
válasz Malibutomi #13592 üzenetére
Hogy lenne mindegy? Egy új technológia akkor válik relevánssá, ha a gyakorlatban is bizonyít. A HBM-nek ez nem igazán sikerült - bízzunk benne, hogy a HBM2-vel nem lesz semmi komoly gond, és akkor 12-18 hónappal a "pilot" után beszélhetünk arról, hogy a HBM sikeres, mint technológia.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
nagyúr
válasz Malibutomi #13589 üzenetére
Nem hiszem, hogy HBM-mel adnának ki kártyát. HBM2-vel inkább. A HBM pilotnak jó volt, és az AMD-nél szerencsés (balszerencsés?) módon volt is rá valós műszaki igény, a másik oldalon nem lett volna semmi értelme.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
kovsol
titán
válasz Malibutomi #13580 üzenetére
Gddr5 esetén tudtommal a java részt a hosszú busz etetese fogyasztott sokat. Ezt meg csak a hbm esetén küszöbölték ki.
May the Force be with you!
-
oliba
őstag
válasz Malibutomi #13580 üzenetére
A Tonga GPU valamelyik Apple cuccban szerepel és sokkal alacsonyabb TDP-vel, mint ami van nekünk asztali fronton. Emellett még tovább csiszolhattak a gpu-n is, hogy jobb legyen a fogyasztás.
290x pedig más architektúra, így összehasonlítani nem igen érdemes. Fury X pedig annyit fogyaszt, mint a 290X. Az a pici eltérés ami van, az bárminek betudható. Itt egy friss mérés, ahol nem is olyan rossz a fogyasztás.
Nem fikázom a HBM-et, nem akarok én rosszat neki, de az egész téma abból kezdődött, hogy hogyan állnak bizonyos hírportálok a GDDR5x-hez.
A másik, hogy kb minden legyártott Fruy/Nano cucc csíkoz, mert ilyen jól sikerült implementálni a HBM-et. A végén kiderül, hogy nem is lehet épkézláb terméket gyártani ezzel a memóriatípussal.
[ Szerkesztve ]
-
Malibutomi
nagyúr
A meresek a kartyak tesztjeiben vannak.
Fury X GPU-ban mindenbol ketszer annyi van mint az R9-380-ban, memoria dupla annyi rajta, a fogyasztasa megis csak kb 40%-al tobb.
A 290x-hez kepest kb 45%-al tobb cucc van a GPU-ban, a kartya fogyasztasa megis kevesebb mint az elode.Szoval a GDDR5X lehet ugyanolyan gyors mint az elodje kevesebb fogyasztassal, vagy gyorsabb ugyanolyan de inkabb tobb fogyasztassal. A HBM pedig gyorsabb, joval kevesebb fogyasztassal, viszont dragabban.
Mindkettonek megvan a maga felhasznalasa, nem igazan utkoznek egymassal velemenyem szerint. Mas-mas kartyakon fognak feltunni.
[ Szerkesztve ]
-
oliba
őstag
Látom nem én vagyok ezzel egyedül. PH cikkben a GDDR5 egy elavult szar ramnak van írva, ahol szinte a gyártási értelme is meg van kérdőjelezve, míg HWSW, vagy Ipon
"Az alacsonyabb feszültségek és az újítások jóvoltából a GDDR5X memóriachipek azonos órajelen alacsonyabb fogyasztás mellett üzemelnek, mint GDDR5-ös társaik, ám a Micron szerint a helyzet változik, ha a gyorsulásban rejlő előnyt, azaz a magasabb effektív órajelet is kihasználják. Utóbbi esetben a GDDR5-ös memóriachipekével azonos, illetve némileg magasabb fogyasztásra kell felkészülni. A GDDR5X ennek ellenére is vonzó, hisz az azonos vagy picivel magasabb fogyasztás mellé jóval nagyobb teljesítmény társul, így az energiahatékonyság mindenképpen jobb."
Ez PH-ra fordítva: kell bele hőérzékelő, mert leolvad a nyákról.
Malibutomi: hol a bizonyíték? Hol vannak a mérések? Csak, mert itt nagy mendemondák elhangzanak, attól még nem bizonyít semmit sem. GDDR5 fogyasztása is bizonyított az összes nvidia kártyán. Szegény AMD-s gárda hirtelen vissza is bújt az asztal alá, hogy reszeljenek kicsit a kártyáikon.
[ Szerkesztve ]
-
Egon
nagyúr
Az itteni cikk azt sugallja, hogy a GDDR5X sz*r (naná, nyilván csak a HBM lehet a király... ). A hwsw-s cikk alapján viszont komoly előrelépést hozhat (nyilván elsősorban az alsó- és középkategóriában).
Csak a negatívumokat sikerült kiemelned (nem igazán lett kihangsúlyozva, hogy a nagyobb fogyasztásért cserében dupla tempót kínál, illetve hogy bár az érintkezők száma nőtt, azonos tempó eléréséhez értelemszerűen fele széles memóriabusz elég, ergo a GDDR5-höz képest igenis jelentős fogyasztás-csökkenés és egyszerűbb nyák érhető el vele (azonos tempó mellett). Kimaradt, hogy a chipek mérete is csökkent.)."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Abu85
HÁZIGAZDA
A mi cikkünk nem a specifikációból származik, hanem a gyártói leírásokból, amelyek részben tartalmazták a specifikációt, de részletezve van, hogy az EMI, a tokozás, illetve az árnyékolás miatt, valamint a dupla órajel fogyasztásnövelő hatása miatt miket kell módosítani. Ez sajnos nem egyszerű. Csak akkor kell kevés módosítás, ha a GDDR5X GDDR5 módban működik, de ekkor nincs magas órajel. Viszont nem gond az EMI.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
oliba
őstag
válasz Malibutomi #13573 üzenetére
Én azért bíztam benne, hogy 980/280x szerinti új termékskálán is HBM2 lesz, de ilyen értékek mellett szinte már a csúcskártyán sincs olyan sok értelme. X2 megoldásokon jó lehet a helytakarékosság miatt.
-
Venyera7
senior tag
-
nagyúr
Öööööö... Én azt hittem, hogy a kamerapozíció változtatása render előtt alap Akkor még 90FPS esetén is 22ms a késleltetés, ha pedig a frame késik, akkor 33ms. Az már nagyon sok, akár 8-10 fokot is kellhet korrigálni. Ouch.
(#13567) Pepeeeee: IHV oldalról fix FPS-t csak akkor tudnál, ha meg tudnád előre mondani a kép számítási idejét, az meg nem megy. Becsülni lehet, de az csak javítja a problémát, nem oldja meg. Továbbra is masszív overkill kell sztem...
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Egon
nagyúr
Komoly előrelépés a GDDR5X memóriaszabvány
Érdemes összehasonlítani a hwsw-s cikket, a ph-n a témában megjelent cikkekkel - érdekes különbségekre derül fény...
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
#45185024
törölt tag
Ez a mondatod annyira zseniális hogy rá kellene nyomtati az Oculusra
"Jobb a ronda, mint a hányás"
De ha ennyire fontos az FPSt akkor azt hogy oldják meg hogy 90 alá ne essen le?
Mert akkor az kellene hogy azt fixre beállítod és ismerve a kártya adatait pl 970 és akkor magától beállítja a kártyához a grafikát, szóval hogy érted ne engedje be 90 alá semmiképpen.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Maga a timewarp eléggé általános megoldás, tehát többféle felhasználási módja van. Most, ha csak arról beszélünk, hogy mi az ideális, akkor nyilván egyértelműen az, ha minden kész nyers képkockát timewarpolunk. De ezt elsődlegesen azért tesszük, mert az aktuális szabványos grafikus API-k csak a jelenet kamerapozícióját fogadják el. Alternatíva a LiquidVR LDL funkciója, amely képes a jelenet kamerapozícióját megváltoztatni a képszámítás előtt. Ilyen módon úgy is kaphatsz felezett késleltetést, hogy nem timewarpolsz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Ha jól értem a VR tervezett működését, timewarpolni akkor is kell, ha fix 90FPS-sel megy a cucc, mert a gyors fejmozgás miatt a 11ms-os késés is sok, azt is érdemes utánhúzni. Ez talán még működik is jelentős torzítás nélkül, bár a "hiszem ha látom" alapelv itt is érvényes. Nekem azzal van problémám, ha a frame lekési a szinkronablakot, és akkor már 22ms-nyi mozgást kell utánhúzni - érzésem szerint ez már ronda lesz. Persze jobb a ronda, mint a hányás, de (szerintem) a ronda sem elég jó.
Ill. érdekes kérdés még, hogy ha a VGA fogja is bírni a 2x90FPS-t, vajon a CPU is fogja-e tudni a 90-et (gondolom, a scene-t elég egyszer számolni)."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Abu85
HÁZIGAZDA
válasz #45185024 #13563 üzenetére
90 Hz-es a Rift, de mindegy. Viszont a timewarp miatt nem kell 90 sztereó 3D képkocka. Elég 45 és a másik 45 pedig lehet timewarp. Persze ez csak az elmélet. A valóságban kelleni fog a magas frissítés, mert ideális szinkron a gyakorlatban nincs, így a timewarp is a késleltetés csökkentésére megy rá. Legalábbis ez az eredeti célja, de annyira általános a megoldás, hogy többféleképpen lehet használni. Bár az a módszer, amiről írtam most nem ajánlott.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#45185024
törölt tag
Be szabad ezt ide vágni ? Nekem ez nagyon tetszett jól összefoglalták
beszélgetés az OCULUSról
"75 FPS a belépő hogy ne legyél tőle rosszul..."[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nyilván, ha nem számít a pénz, akkor megveszed a Falcon Northwest Tiki-t és le van tudva. Vagy DIY alapon veszel egy Dual Fiji kártyát. Ezzel biztosan nem lesz gond, mert erre lett tervezve. Csak ennyiért autót is vehetsz majd.
Nem akkora gond a timewarp. Bőven megéri használni, mert biztonságos, hogy ha megkétszerezed a valós frame-számítás szinkronablakát.
Az AMD ma még nem alkalmaz semmilyen képminőséget csökkentő módszert a saját SDK-jában. Az NV alkalmaz egy multi-res shading eljárást, ami a kép szélét csökkentett minőségben számolja. Ezt a fejlesztő aktiválhatja, vagy letilthatja attól függően, hogy mennyire van a programja a "hányáshatáron".
A multi-res shading célja egyébként pont a timewarp szabadabb alkalmazása. Kevesebb számítással csökken a késés esélye.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Ha elköltök szumma 1200-1500 USD-t arra, hogy VR-ezzek, akkor a "nem kellemes, de viszonylag könnyen túléli az agy" kb. ekvivalens azzal, hogy "vigyétek a sz**otokat a p****ba" De lehet, hogy csak nekem magasak az elvárásaim.
Ha a program sűrűn lekési a szinkronablakot, az minden architektúrán gond lesz, mert abban látatlanban is biztos vagyok, hogy az aszinkron timewarp folyamatos használata csúnyán fog hatni a képminőségre. Szóval eleve úgy kell belőni a cuccot, hogy az idő elég magas %-ában biztosan tudja a 2x90 FPS-t - kérdés, hogy ez kinek mennyire sikerül jól. Ahol nem, akkor AMD-n ronda lesz az eredmény, nVidián pedig majd csak étkezés előtt lesz javasolt játszani..."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
nagyúr
-
Abu85
HÁZIGAZDA
A ritka drop nem számít. Nem kellemes, de viszonylag könnyen túléli az agy. A problémát az jelenti, ha folyamatosan lecsúszik a timewarp a szinkronablakról. Itt van egy olyan jelenség, hogy az aktuális grafikus API-kon belül nincs frame megszakítás. A megkezdett munkát be kell fejezni, még akkor is, ha már tudjuk, hogy a szinkronablakról lecsúszott. Ez akár még 3-5 ms-nyi extra számítást is jelenthet, de ugye már mindegy. Viszont a hardver innentől folyamatos hátrányba kerül, mert a még futó, de már felesleges számítás miatt késik az új, de fontos számítás.
Erre lesz egy megoldás idén, de csak a Mantle-be. Ez az instant killnek gúnyolt képesség, ami tulajdonképpen a szinkronablak lekésése után azonnal megöl minden késői timewarp-hez tartozó számítást.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Ezek a hardveres különbségek, a kérdéseim pedig a szoftverre, ill. a közönség érzékenységére vonatkoznak. Nyilvánvaló, hogy a GCN (még az első is) sokkal jobb hardver-alap VR-hez, mint a Maxwell (talán a Pascalnál is) - viszont ez nem magától fog kijönni, hanem a szoftverektől.
Ha egy játék stabil 400 FPS-sel megy, akkor nem kell preempció.
Ha egy játék állandóan droppol, akkor nem fog segíteni az aszinkron timewarp sem.
Ha ellenben másodpercenként 3-5 frame lesz eldobva, akkor könnyen lehet, hogy az AMD-n szuperül fog futni, míg az nVidia csomagolhat VR-ready zacskókat a cucca mellé.Van legalább 3-4 olyan VR-ready AAA játék, amit ki lehet próbálni, és választ lehet adni ezekre a kérdésekre? Amíg nincs, addig szerintem felesleges nagy mondásokat tenni.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Abu85
HÁZIGAZDA
válasz gainwardgs #13556 üzenetére
Csak azt tudom, hogy Xbox One-on hogyan csinálják. Ott az OIT-t ordered atomicsre építve használják és mutexszel zárolják a wavefrontokat. Ennek az előnye, hogy memóriakímélő és gyors. Ezzel a módszerrel az OIT az Xbox One-on 1 ms-os feladat. A gond az, hogy a PC-be ezt csak GCN-re lehet átmenteni jó eredménnyel, mert nem minden hardver tudja a feldolgozási sorrendet. Láthatod a Lichdom Battlemage című játékban (patch előtt), hogy a mutex zárolás más hardveren is lefut, de az eredmény hibás lehet. A másik megoldás a PPLL adatstruktúra használata, amely megoldja a problémát minden hardveren jó eredménnyel, de 3-4 ms-ba kerül, tehát sokkal lassabb, mint a mutexes megoldás. A harmadik opció az OIT kikapcsolása, de akkor olyan ronda lesz mint a HairWorks.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Crytek
nagyúr
Több helyen és többször is leírtam már én mikor veszek bármilyen gyártó/márkájú VR szemcsit.
De frissítésképpen:- Min 2x kisebb/könnyebb kivitelű lesz
- Max 50k
- Minden 2. game ONLY VR lesz csak.Szóval lehet nem éled meg és én sem hogy valaha ilyenem legyen
Next PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
Finomszemcsés preempcióval gyakorlatilag garantált az aszinkron timewarp elkészülte. Az NV-féle rajzolási szintű preempció is jó, addig amíg 2 ms alatt van az üzemmódváltás. Ha valami beragad 2-nél több ms-ra, akkor a timewarp garantáltan lekési a szinkronablakot. Ezek eléggé nyíltan beszélt problémák a fejlesztők és az Oculus/Valve, illetve a gyártók által.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
válasz Crytek #13545 üzenetére
Várjuk az élménybeszámolót
(#13548) Pepeeeee: látvány alapján ez a Scrap Mechanic GTX970-en kb. 600FPS-sel fog futni, esetleg a CPU lesz limitáló tényező. Nem ebből fog kinőni a virágzó VR-VGA ipar, és nem itt fognak a GCN real-time képességei megcsillanni...
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Abu85
HÁZIGAZDA
válasz gainwardgs #13546 üzenetére
PureHair=TressFX 3.0 egyedi art pipeline-nal. A Square Enix EIDOS csoportja használja. Sajnos a GPUOpen GitHUB oldalra nem lesz visszatöltve, de a TressFX 3.0-val bárki csinálhat hasonlót.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#45185024
törölt tag
És azt sem tudjuk hogy az öreg rókák hogy fognak rókázni a minimum 75 FSP-n.
Mert elő van írva a 90 de lejjebb lehet venni.
Meg kérdés mitől lett hirtelen 600 dollárosan Exclusive mert a FOV ban elmarad más kijelzőktől és nincs benne szemkövés sem, mindenesetre felbontásra nem exclusive csak az árában, köszönjük kedves fészbúk men.
A Scrap mechanic is VR es lesz láttam az inijében a VR=0 beállítást.[ Szerkesztve ]
-
nagyúr
válasz gainwardgs #13546 üzenetére
az új deus exszel fog jönni. afaik tressfx3.0-n alapuló fejlesztés, és talán nyílt forráskódú. emiatt az nv is pont úgy tud rá optimalizálni, ez tőlük függ.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
gainwardgs
veterán
Valamit lehet tudni erről az AMD pure hair elnevezésű csodáról???
Nv-n megint diavetítés lesz vagy ez már picit optimalizáltabb mint az előző?[ Szerkesztve ]
-
nagyúr
válasz unrealnoise #13543 üzenetére
Szerintem a VR-nél meg kell várni az első játékokat, addig felesleges bármilyen részleges ítéletet is mondani.
Nem tudjuk, mennyire lesznek túlbiztosítva a játékok framevesztés ellen.
Nem tudjuk, hogy az időnkénti frame-vesztés melyik játékban mennyire lesz zavaró.
Nem tudjuk, hogy a frame-vesztés ugyanolyan sűrűn fog-e jelentkezni mindkét gyártó kártyáin.
Nem tudjuk, hogy az aszinkron timewarp mennyit fog segíteni, ha a frame-vesztés zavaró.Szóval nem tudunk lósz**t sem, ebből következtetni nem lehet, legfeljebb jósolni
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
unrealnoise
senior tag
válasz Venyera7 #13542 üzenetére
Az "kit érdekel"? Marketingről van szó, abban az nvidia ezerszer jobb most is... mondjuk ezek az r9- 390-es, 380-as kártyák nem győztek meg, annyit esznek, hogy ahhoz már lehet egy nagyobb táp is kellene (most FSP 550-esem van), meg hát komoly hőtermelés van, stb... egy GTX 970 "nem" olyan drága már, és ár/érték arányban bajnok még mindig... Szóval nekem ez nem vonzó hiába lenne jobb VR-hoz egy r9 390-es... Várok. Hátha az AMD fordítani tud, de ez így nagyon gyér eddig VR fronton... Az nvidia meg nyomatja magát orrba szájba..
steam / trakt.tv ID: unrealnoise
-
Kolbi_30
őstag
Az AMD miert nem vedeti le a gcn architektura elvi mukodeset?
You want some birth control, you can smoke a cigarette.
-
#45185024
törölt tag
Ezen jót nevettem...
Nem kapjatja meg a Geforce gtx VR ready matricát az a gép amelyikben van AMD kártya.
És a jó fejség hol marad mi ez a rasszizmus ?[ Szerkesztve ]
-
nagyúr
válasz füles_ #13531 üzenetére
Ajánlott alapján maxon ez még egy Titánon is döcögni fog.
Meg ezek szerint 8 szálon fog optimálisan futni (vagy legalábbis azt szeretnék).
(Vagy csak a Denuvo védelem miatt kell... )[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
nagyúr
válasz solfilo #13534 üzenetére
pc gameplay még nem került ki egyetlen low beállítású kivételével, és egyáltalán beszélni is csak ma 16.00cet-től beszélhetnek a meghívottak a pc verzióról. franc se tudja, milyen lesz.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
füles_
őstag
Én nem gondoltam hogy ebből ekkora karaté lesz,nem is volt szándékomban karatét indítani
Csak gondoltam hogy beszólok egyet a túloldalnak,amit már megszokhattunk ebben és más topikokban is.
Váltsunk témát
Kicsit off topik,de láttátok már a Division gépigényét?
Kíváncsi vagyok hogy hogyan néz majd ki PC-n[ Szerkesztve ]
-
nagyúr
"Eljutottunk oda hogy egy rossz szót nem lehet szólni az Nvidiára,annyira istenítve van egyesek által"
Így kezdted az egész threadet:
"Elfelejtették lelassítani az AMD kártyákat vagy az Nvidiánal van gond?"
Azaz rögtön flame-mel indítasz, ahelyett, hogy belinkelnéd a tesztet, és kiemelnéd az érdekességeket. Mégis mit vársz válaszként? Nyugodtan lehet rossz szót szólni az nVidiára, csak az legyen megalapozott. Ugyanez igaz az AMD-re is.
@all, last call, az érintettek legyenek szívesek lehiggadni, ne kelljen már az összes kicsit is flame-gyanús hsz-t törölnöm...
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Malibutomi
nagyúr
válasz TTomax #13528 üzenetére
Szerintem kicsit tulreagaltad.
Eleg lett volna annyit irnod amit ugyis mindenki lat (meg fules is szerintem) hogy ez csak valami glitch.
Nem pedig belemenni megint a markaharcba, nyilvanvalo hogy egy 280x onerobol nem lesz egy Titan elott, akkor sem ha egy evvel kesobb jelent meg. -
TTomax
félisten
válasz füles_ #13526 üzenetére
Az a gond,hogy ismét kiragadsz egy részletet és arra alapozol egy jó storyt,hogy saját magad igazold.Gondolom ezt a tesztet már észre sem vetted ugyanazon az oldalon...
Determination of the fastest and most optimal solutions in 2015
Below, we have a list of games on the basis of which to build our conclusions:
Dying Light test GPU 2015
Battlefield: Hardline test GPU 2015
Grand Theft Auto V test GPU 2015
Project CARS test GPU 2015
The Witcher 3: Wild Hunt test GPU 2015
Batman Arkham Knight test GPU 2015
Mad Max test GPU 2015
Metal Gear Solid V The Phantom Pain Test GPU 2015
Call of Duty Black Ops III test GPU 2015
Fallout 4 test GPU 2015
STAR WARS Battlefront test GPU 2015
Assassin's Creed Syndicate test GPU 2015
Just Cause 3 is a test in 2015 GPUEnnyit erről...
Nem kell itt mellébeszélni,hogy miről lehet jót és rosszat mondani erről szó sem volt,viszont a ferdítés vagy csúsztatás nevetséges és gyerekes. Főleg abban a kárörvendő stílusban ahogy előadtad,nem nem vagyok se dühös sem ideges,egyszerűen ilyen nyers a stílusom,de az biztos hogy engem még soha nem láttál szakmai topicban "kárörvendeni",hogy milyen rosszul járt aki Nanot vett és pár hét alatt 150dolcsit bukott,vagy milyen rosszul járt aki a Crimsont feltelpitette vagy mit tudom én.A vásárlásaimat sem igazolni jövök ide,hogy milyen jól jártam...
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
#45185024
törölt tag
válasz füles_ #13526 üzenetére
Ez egy picit olyan mint a Foci VB hogyha két számodra érdektelen csapat meccsét nézed mindig az esélytelenebbnek drukkolsz és ha nyer akkor hatalmas ovácio van
És a nagyobb csapat elkezdi magyarázni hogy azért mert nedves volt a torolkozo meg tegnap tésztát ettek és hasonlok
Pedig nem
a valoság egy nagyon sokrétu dolog egyik tesztben ez a gyorsabb a másikban az és sok mindentol fugg
De ilyenkor nem szabad a másikra haragudni az is a valoság része
És mi lesz itt ha végre bejon a Direct x 12 hajjajjj[ Szerkesztve ]
-
füles_
őstag
válasz TTomax #13505 üzenetére
Akkor a kedvedért vegyük a 7970-et,az is gyorsabb a táblázatba mint a Titan.Bezzeg máskor mindig az átnevezésekkel jöttök.Meg úgy is mostanság minden júzer tuningolja a kártyáját,vehetjük a 7950-et az is sokkal olcsóbb volt,egy picit meghúzod már is a Titan fölött van.
Egyébként ezen most mit kellett annyira felkapni a vizet?Lapozz vissza a topikba,minden egyes GamenotWorksos ganaj benchje belett linkelve,érdekes ott senki nem linkelt olyat ahol az AMD kártyák alázzák a konkurenciát...
Eljutottunk oda hogy egy rossz szót nem lehet szólni az Nvidiára,annyira istenítve van egyesek által
-
Abu85
HÁZIGAZDA
válasz FLATRONW #13523 üzenetére
Senki nem mondta, hogy gond van. Egyszerűen csak pár eredeti optimalizálás nem fog működni, ezért megváltozott némileg a teljesítmény és a sorrend. De cserébe kaptál egy új effektet. Fogd fel úgy, hogy most jött ki a játék és az eredeti kód eredményét nem is láttad.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #13521 üzenetére
Az NV-t biztosan nem érte váratlanul, hogy romlott a teljesítmény a Gameworks beépítésétől. Ők nem először látnak ilyet. Ez csak nektek új, mert még nem láttátok, hogy mit okoz a middleware beépítése. De persze módosítani bármikor lehet rajta, viszont sokkal egyszerűbb így hagyni és majd egy új meghajtóban lecserélni a HBAO+ shadert. Szinte egyik Gameworks játék sem a szállított kódot futtatja, mert az AMD biztosan lecseréli, és emiatt az NV-nek is le kell cserélnie egy optimalizáltabbra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
FLATRONW
őstag
-
Abu85
HÁZIGAZDA
válasz FLATRONW #13518 üzenetére
Az optimalizált kódút nem jelenti azt, hogy minden architektúrán javít. Inkább az manapság a cél, hogy kihozz egy olyan sorrendet, amit a játékos megszokott. Ezeket a megjelenés előtt nem látod, mert nem mérnek alpha programokkal. Egyszerűen megkapod a végeredményt, és azt hiszed, hogy az jobb mindenben, mint amilyen volt. A valóságban nem az.
Amikor a változás patch-ekben áll be, akkor láthatod, hogy mennyit változik. Az eredeti optimalizálás valószínűleg nem feküdt annyira az AMD-nek, bár azóta a driverek is javultak, tehát valószínűleg ennek a kényszerű kikapcsolásával csak maximum 5%-ot nyertek. De ez lényegtelen már, mert az új effektek miatt ez az optimalizálás nem használható. Írni kell újat, vagy így kell hagyni a kódot.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #13504 üzenetére
Igen, csak az előző verzióban nem volt még HBAO+, illetve Flex. Mivel ezek a kódok nem módosíthatók, így ahhoz, hogy ezeket beépítsd ki kell kapcsolni bizonyos leképező optimalizálásokat, amik akkor is inaktívak, ha a HBAO+-t vagy a Flexet nem aktiválod. Emiatt változott meg a teljesítmény. Most ezek helyére zsír új optimalizálásokat kell írni, amelyek kompatibilisek az újonnan beépített zárt middleware kódokkal. Nyilván egyébként az kérdés, hogy ilyeneket írnak-e, mert ez akár időigényes is lehet. Önmagában ez nem hiba, hanem annak a mellékterméke, hogy nem módosíthatók az újonnan beépített effektek kódjai, így a leképezőt kell hozzájuk szabni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz Malibutomi #13511 üzenetére
Szerintem a csíkok hossza a min + avg értékek összege alapján jön ki.
Találgatunk, aztán majd úgyis kiderül..
-
-
#85552128
törölt tag
válasz Malibutomi #13513 üzenetére
Min FPS alapján van sorba rakva, úgy jó is. Az már más dolog, hogy a program/grafikontípus az átlagot így rajzolja ki...
Szerk.: aha ott nem külön átlagot vesz, hanem a teljes min+avg hosszát, ezért lehet majdnem annyi/hosszabb mert az AMD min értékei lerontják az egészet, mystery solved
[ Szerkesztve ]
-
Malibutomi
nagyúr
válasz schawo #13510 üzenetére
Szerintem ez egyeni preferencia kerdese.
Foleg hogy nem maximum hanem average van a tablazatban. Az szerintem sokkal jobban mutatja a tenyleges felhasznalast mint a minimum ami ugye azt is jelentheti hogy a meres alatt egyetlen helyen beesik annyira amit lehet eszre sem veszel.
Mint a heaven benchmark amig nem javitottak, egy helyen mindig beroccent es emiatt 8-10 minimum fps-t irt.(#13512) Szaby59
Ezert irtam hogy elso ranezesre megteveszto, pontosan ezt jelenti.
Ameddig nem nezi meg jobban az ember (es sokan nem teszik) addig nem nyilvanvalo.[ Szerkesztve ]
-
#85552128
törölt tag
válasz Malibutomi #13511 üzenetére
Ezért nem a "csíkok" hosszát és színét kell nézni, hanem ami oda van írva...
Minimum FPS-ben pl. már a 780 Ti (!) is veri a Fury X-et.Szerk.: Az összes AMD kártyának rosszabb a min. FPS értéke, mint a hasonló szintű vagy esetenként erősebb, néhol még gyengébb nV kártyának, szóval max AMD-n akadhat be...
[ Szerkesztve ]
-
Malibutomi
nagyúr
válasz TTomax #13505 üzenetére
Azta ez a tablazat nagyon kemeny.
Lehet nem szandekos (vagy rossz szandekos) de nem kicsit megteveszto elso ranezesre, hogy a zold csikok sokkal hosszabbak mint a pirosak.780ti 114fps hosszabb mint a Fury 121fps
970 108fps hosszabb mint a Nano 114fps
780 98fps hosszabb mint a 290x 118fps[ Szerkesztve ]
-
nagyúr
Maradjunk a szakmai szinten, ha lehet
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
TTomax
félisten
válasz füles_ #13503 üzenetére
A szépséghibája,hogy amikor a Titan ezer dolcsi volt akkor a 280X még papíron sem létezett,mert akkoriban a 7970 volt a menő,majdnem egy év van a két kártya között.Csúsztatni azt nagyon megy...de várj ez nekem is megy... nézzük csak... hm... az milyen jól vásárolt aki 950et 150dolcsiért vett és gyalázza a 280X-et...A Titanról nem is beszélve...
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Venyera7
senior tag
válasz füles_ #13498 üzenetére
Valami Nvidia driver próbléma lehet vagy az Amd csinált valamit jól
Ez érdekes[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Asszociációs játék. :)
- Milyen TV-t vegyek?
- Windows 11
- World of Tanks - MMO
- Jövedelem
- Apple iPhone 16 Pro - rutinvizsga
- Grand Theft Auto V - Látványosságok és érdekességek tárháza egy helyen!
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- AMD Navi Radeon™ RX 7xxx sorozat
- Vicces videók
- További aktív témák...
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Axon Labs Kft.
Város: Budapest