Új hozzászólás Aktív témák
-
válasz
Firestormhun
#15209
üzenetére
Hát, ezek eléggé egy irányba mutatnak. Úgy fest, vége a mézesheteknek, és kezdődnek a dolgos, szürke hétköznapok

-
Az még kevesebb is, mint gondoltam - az A8-7600 egy asztali design, ráadásul 28nm-es a Skylake 14nm-ével szemben. Simán reális, hogy a GT540 feleannyit egyen.
Más. A Quantum Break bemutatjójának francia tudósításából két (lefordított) mondat:
If there is one point on which Remedy insisted it is on the difficulty of optimizing performance at the GPU with DirectX 12. To achieve equal performance obtained GPUs of DirectX 11 requires a lot of work.Hmmmmm....
-
A "nagyon" számszerűen hová fordul le?
Engem nagyon meglepne, ha 20%-nál többet jelentene sebességben - ha a 950MHz-es IGP órajelet 25%-kal csökkenti, az lesz kb. 20% sebességvesztés, ott a fogyasztás már max. 60-65%-a teljes órajelhez képest. A CPU résznek meg egy ilyen 3DMark teljesítményhez túlzottan nem kell megerőltetni magát.
A diszkrét VGA-k nem igazán jó összehasonlítási alapok, mert ez az i5 egy ULP-re designolt valami, inkább nézd össze egy Tegra X1-gyel, abban kb. egy fél GTX 750 van, és az is ilyen nagyságrendben fogyaszt.
Meg amúgy a 750Ti esetében a GPU-nak emlékeim szerint 38W a power targetje, amiből dupla sebességet hoz ki egy jelentősen régebbi gyártástechnológián.Szóval vszleg fáj egy kicsit a 15W, a pontosság kedvéért fűztem hozzá, de itt inkább csak arról van szó, hogy 10 vagy 20%-kal előzi meg az AMD-s konkurens IGP-t, nem arról, hogy a diszkrét meccsbe be tud szállni.
(#15204) Petykemano: nekem ez még mindig két szék között a földre. Az IGP továbbra is lassú, ha pedig külső VGA-ban gondolkodom (lassan végre lesz realitása talán), akkor elég egy lényegesen olcsóbb kisgép.
-
Follow-up: itt egy teszt a Skylake Iris GT3e IGP-vel. Sajnos csak 3DMark van benne, ami gaming releváns, de abból az látszik, hogy egy 750Ti-nek az 50-60%-át tudja hozni, 300 dolláros MSRP mellett. Ez amúgy az AMD 7850K-jához hasonló sebesség.
Hozzá kell tenni, hogy azt nem tudom, a 15W-os TDP mennyire limitált be. -
válasz
Malibutomi
#15088
üzenetére
Hát, erre több válasz is van.
Ha rendes by design DX12 játékról van szó, akkor az gyakorlatilag egy másik motor, tehát túl sok értelme nincs a DX11-et baseline-ként használni.
Ha egy DX11 port néhány extrával, mint amilyen a Hitman is, akkor attól függ, miért nem fekszik. A Fury X-nek pl. nem ideális a Hitman, és kevesebbet is gyorsul, mint a 390X. Általában, ha valamelyik nem-shader kapacitással van baj, akkor az a-c sem fog sokat segíteni, mert optimalizálja az ALU-terhelést, és elmélyíti a szűk keresztmetszetet. Olyan esetben lehet jó a dolog, amikor maga az ALU-tömb felépítése nem jó a játékhoz, mert ott ALU-limit van, de nem kapacitás, hanem kihasználtság - ezen segíthet az a-c.
Ami izgalmas lehet még, az az, amikor úgy ültetnek át compute shaderbe effektet, hogy csökkenteni tudják az igényelt pixeműveletek számát. Ez ütne biztosan a Fijin, viszont nem tudom, mennyire van realitása. És ez is inkább a "másik motor" kategória.
-
Két komment a Hitman teszthez - az Absolutionben is volt 20+% előnye a 390X-nek a 980-hoz képest (WQHD-ben), úgyhogy annyira nem nagy meglepetés, hogy itt is van. A DX12 8-10% plusz sebességet hoz a Radeonoknak, ez CPU-limit híján annyi vagy egy kicsit kevesebb, mint amire lehetett számítani.
-
válasz
Malibutomi
#14923
üzenetére
Azért élik meg sokan negatívan, mert vitákban érvként szerepeltek ezek a jóslatok, és olyanokban (ld. Fury életciklus), ahol már a 2-3 hónapnak is volt jelentősége - ráadásul a 2-3 hónap a 20-25-ös jóslás kapcsán inkább lesz 6-8.
De amúgy én is inkább annak a híve vagyok, hogy koncentráljunk arra, ami már közel van - a GoW-nál várjuk a patchet, ill. a Hitmanre nagyon kíváncsi leszek.
-
Offokat mérsékeljük pls! Értem, hogy a FL a DX12 miatt akár még ide is kapcsolódhat, de ennyi elég volt belőle

-
Az MS első akart lenni. Ez valami beteges perverzió lehet náluk.
Tényleg az lehet, mert jelen esetben semmi értelme nem volt. Az elsőségnek akkor van értelme, ha van viszonyítási alapod, akihez képest első vagy. A Hitmannel érdemes elsőnek lenni. Az AotS-sel érdemes elsőnek lenni. Viszont az MS mégis ki a franccal versenyez?
-
válasz
Malibutomi
#14871
üzenetére
A többszázezer ingyenes bétatesztelőre épülő módszertan láthatóan beválik, az emberek panaszkodnak miatta, de jelentős pénzügyi backlash nincs, többek között azért, mert a legtöbb kiadó ráállt erre a módszertanra. Aztán persze néha túllőnek a célon (ld. Arkham Knight), és akkor ott sajog a pénztárca

A last minute módosítások egyébként nagyon veszélyesek, mert amikor a team beállt release üzemmódba, akkor olyanokat hajlandóak átengedni minimális teszt mellett, amiért 2-3 hónappal korábban sírva, ruhájukat tépve követeltek volna teljeskörű regressziós tesztet. Ezt kellett volna megfogni a GoW-nál, mert semmi értelme nem volt vele elsőnek lenni, inkább szolgálna referenciaként.
-
Mindenki figyelmébe: ebbe a topikba sok minden belefér, de az olyan témákat, aminek semmi köze a két gyártóhoz (ill. az Intel IGP-k még OK), továbbra is törölni fogom.
"On" témából kiinduló elkanyarodások 1-2 off erejéig mehetnek.
-
válasz
Malibutomi
#14804
üzenetére
Igen tudom, csak a linkelt cikk keveri a szezont a fazonnal, és megint a GameWorks van beállítva a sátánnak.
-
Ugyan a leírtaknak minimális köze van ahhoz, amire válaszként írtad, de ettől függetlenül érdekes

Annyi mindenképpen kiderül belőle, hogy nagyon is foglalkoznak még jópáran a DX11-gyel. Nyilván az AotS esetében senkit nem izgat, mert egyelőre sokkal inkább 3DMarkként tekint rá mindenki, mint játékként. Ill. ha a Vulcan / Mantle renderer használható lesz, akkor valóban nem fog érdekelni senkit a DX11 mód. Kiemelném, hogy "ha"

Az nVidia csőre meg egyrészt szintúgy közömbös, másrészt amit ebbe a dologba beletoltak, az bőven termelt nekik market share-t az elmúlt két évben. Hosszabbra tervezték a termelős periódusát? Tough shit, live with it.
-
válasz
Malibutomi
#14779
üzenetére
Két dolog hibádzik itt:
- Az egyik, hogy továbbra sem látok normális CPU-teszteket a weben. Az i7-5960X-szel végzett VGA-tesztek kevéssé alkalmasak arra, hogy az ilyen eltéréseket kimutassák, a több CPU-t felvonultató tesztek pedig rendszeresen elkövetik azt a hibát, hogy a VGA-s tesztfutamokat használják, és boldogan kihozzák, hogy egy i3 elég egy Titan X mellé fullHD-ben. Ha a tesztek életszerűbbek lennének, jobban látszana, mekkora a különbség valójában - őszintén szólva, én sem vagyok biztos benne, hogy a PC vagy az AotS DX11 mennyire kivétel, vagy mennyire jellegzetes gyengébb CPU-k esetén, viszont az biztos, hogy nekem sikerült pár olyan über-CPU-limites tesztesetet találnom, amiről sehol nem szól a fáma.
- Ha valaki 60 FPS körüli sebességet szeretne, akkor a gyengébb VGA-val tud csökkenteni egy csomó beállítást, viszont a gyengébb CPU-teljesítmény miatt simán megakadhat lejjebb. Itt simán számíthat sokat a driver overhead - ki kéne mérni. Hmmmm... Nincs valakinek kölcsönbe egy 2GB-os 7850-e / 7870-e?
(#14777) Habugi: hidd el, más is pont arra gondol, amire én. Húszmillió dolog mellett az embernek néha van egy kis ideje leülni játszani, akkor azt nézi, mivel lehet éppen tolni, nem azt, hogy mi lesz x hónap múlva...
-
Én nem API-kkal játszom, hanem játékokkal. Igen, van már pár játék, ami DX11-ben egészségesebben használja a CPU-t, de nem ez a többség. A DX12-es játékok pedig még mindig "we are nearly there".
(#14770) Habugi: az jó, hogy igyekszel megérteni, de láthatóan nagyon félrement valami. Senki nem beszél arról, hogy a mának kell élni, meg a "ma ereje", pusztán arról van szó, hogy felhasználóként az érdekel, hogy amivel jellemzően játszani akarok (VGA igényes cuccok legnagyobb százalékban 2013 és 2016Q1 között, tehát 1-2 hónap előretekintés belefér), az mit produkál. A 3+ hónap múlva érkező játékokban nyújtott teoretikus teljesítmény az elemző feliratú sapkámban nagyon érdekes, ellenben vásárlóként lesz**om. Szerintem sokkal inkább az a probléma, hogy sokan ezt a két szempontot nem tudjátok elkülöníteni.
(btw. nekem nem hármassal kezdődik az életkorom... már nem
). -
Ja, ja, ugyanaz, "csak". Kevés mag mellett "csak" 50%-kal "más" a teljesítmény, több mag mellett pedig "csak" 100%-kal. Említésre is alig méltó, right?

Teljesen mindegy, mit dob ki a magyarázatgyártó gép, ezen a téren trehány volt az AMD, és jópár játékban nVidiával jobb a játékélmény. Hogy erre az AMD megoldása nem a DX11 driver optimalizálása, hanem a DX12, az nekem teljesen OK - ennek viszont sajna van egy "kevés" átfutása. Tudod, egy csomóan itt még mindig ma játszunk, nem holnapután
(#14759) Laja333: azok nem FPS-ek, hanem a DX11-es path relatív teljesítménye a DX12-eshez adott CPU mellett. Gyorsabb CPU-val nagyobb a gap a DX12 javára.
-
válasz
Laja333
#14752
üzenetére
Hát, ahogy Abu is mondja, meghoztak bizonyos döntéseket a motorban. Tehát korántsem arról van szó, hogy az AMD drivere CPU-használat fronton hajlamos lemenni a béka segge alá
Az pedig, hogy a GTX 980Ti egy kétmagos CPU-val annyi FPS-t hoz, mint a Fury X hatmagossal, az végképp nem releváns. Wait...(#14756) Abu85: facts beg to disagree - nekik azért szabad, ugye?

-
Megszületett a hardware.fr AotS tesztje. Újabb Radeon driverrel teszteltek, mint a korábban látottak - az aszinkron compute hatása itt realtíve stabilan 15% körülinek tűnik WQHD-ben. Az ingadozásban túl sok törvényszerűséget nem sikerült felfedeznem - a sokkal magasabb ALU : ROP arányú Fury X alig mutat jobb %-okat, mint a 390, és a terheltséggel sem arányosan változnak a mutatók.
-
válasz
Crytek
#14719
üzenetére
Ha azt várod a DX12-től, hogy oldja meg azokat a problémákat, amikkel 10+ éve minden AAA játék érkezik, akkor tényleg áll a futballos hasonlat. A GoW-nak az a fő gondja DX12 szempontból, hogy a két igazán érdekelt fél közül (AMD, MS) egyiknek sem volt fontos, hogy villantsa a DX12 értékeit.
(#14729) rocket: aye, és júniusig az kb. H1, valamint tényleg 2 tucatról volt szó. Tekintettel arra, hogy folyamatosan vannak listák, hogy mi jön mindjárt, szerintem júniusig felesleges verdiktet előrejelezni.
-
Igazából mindenkinek javaslom, aki nem fociszurkolósan akarja megközelíteni a VGA-piacot.
A nagy mondások elsősorban 2016H1-re szóltak, abból még csak 2 hónap telt el. Mennyiség terén biztosan elmaradások lesznek a "forecasttól", de a minőség még kérdéses, van még pár olyan cím, ami legalább azt tudja bizonyítani, hogy az elképzelések jók, csak a tempó lassú. Én még korainak tartom az ítélkezést.
-
válasz
Crytek
#14711
üzenetére
Mindenki látta előre, akinek egy csöpp realitásérzéke van, hogy idén nem lesz dömping a DX12-es játékokból, különösen nem az olyanokból, amik komolyan újra vannak gondolva az új API lehetőségei szerint. Neked is javaslom a hype cycle nevű analitikai eszközt, nagyban segíti az ilyen hype-ok lefolyásának megértését. A DX12-vel még nem vagyunk az árok alján, de közeledünk hozzá.
-
válasz
Fred23
#14627
üzenetére
Egyelőre még mindig csak pofozózsákként, főleg ár / teljesítményben. TFlops-ban lehet akármekkora tudása, játékokban nyújtott teljesítmény terén a Broadwell még nagyon-nagyon messze volt a GTX 750-től is. A Skylake-es top IGP-ről még nem láttam tesztet, azt bátran be lehet linkelni ide is - ha esetleg jelentőset lép előre a Broadwellhez képest, akkor érdemes lehet újragondolni a kérdést.
-
válasz
Malibutomi
#14610
üzenetére
Pixel / BW igényesnek tűnik ez a játék is, a 32 ROP-os kártyák ott vannak egymás hegyén-hátán, ill. a 780-ban meg a raszterizáló tudás lehet a kevés.
-
válasz
robertosz91
#14588
üzenetére
A vezetőnek az a célfüggvénye, hogy a termék hozza az elvárt pénzügyi számokat. Ha ezt a vezető nem teljesíti, akkor seggberúgják. Ha többször nem teljesíti, akkor ő is repül meg a fejlesztők is, mert egy deficites szoftvergyárat a tőke elfogyása után nincs miből fenntartani. Ha jellemzően a programozók elképzelései érvényesülnének, akkor a szoftvercégek döntő többsége erre a sorsa jutna pár éven belül.
-
válasz
#85552128
#14564
üzenetére
Azért azt ne felejtsük el, hogy az Oxide (saját állításuk szerint) nem egy full DX12 compliant hardverre optimalizált kódot szállított, hanem tett kompromisszumokat annak érdekében, hogy az nVidia kártyái ne kerüljenek olyan helyzetbe, mint anno az FX-ek a Half Life 2-vel. Ennek értelemszerűen jól megfontolt gazdasági okai vannak (a Fury megjelenésekor már kitárgyaltuk őket, és mit ad Isten, igazunk lett), de ettől még a technológiában ott van a potenciál...
... legalábbis amennyi ott van - nehezen tudom elképzelni, hogy az async compute-tal cca. 30%-nál nagyobb sebességnövekedést lehessen elérni egy normálisan megírt motorban. -
válasz
Valdez
#14543
üzenetére
Ez is csak a multi-engine hardveres támogatásának a hiányát mutatja, semmi mást. Ami az érdekes kérdés, hogy pontosan mit lehet megcsinálni CUDA-ban a HyperQ-val (csak compute-ot tud párhuzamosítani, vagy mégiscsak tud grafikát is valahogy), és hogy ezt miért nem bírják DX12-ben kihasználni.
Mondjuk amikor egy ilyen nagyszájú cég ennyire hallgat, az sosem annak a jele, hogy van valami titkos csodafegyver a zsebükben...
-
válasz
#45185024
#14492
üzenetére
Hogy mi van? Architektúráról beszélünk, nem víz alatti óceánokról

A Kepler SM-ben 3db 64-es ALU blokk volt, a Maxwellnél ez lecsökkent 2-re. Átlagos játékterhelés esetén GF / mm2-ben jobb a Maxwell, viszont megfelelő optimalizáció esetén a Kepleres modell jobb lehet, főleg, ha nem sóherkednek a feladatkiosztó logikával.
Emellett a magasabb kategóriákban sávszélesség is lesz bőven, tehát a ROP:MEM arányban minden bizonnyal közelebb lesz a Pascal a Keplerhez, mint a Maxwellhez.Mivel a Maxwell-optimalizációk erre a két területre eléggé rágyúrtak, kíváncsian szemlélem a jövendőt

-
válasz
Malibutomi
#14488
üzenetére
A Hitman alatt korábban is egy igen backend-intenzív motor dolgozott. Miután a Maxwellnek elég durva ROP:MEM aránya van, nem tartom kizártnak, hogy egyes jelenetekben bedől a sávszélesség hiánya miatt. Gondolom ezt driverben majd orvosolják.
Viszont ha ezt összevetjük a mai korábbi eszmecserével, és azzal a lehetőséggel, hogy a Pascalban lehetnek visszalépések a Kepler irányába... Hmmm...
-
válasz
Malibutomi
#14481
üzenetére
De ez az 1:3 "tudott" dolog? A 4TF DP sebesség hiteles pletykának tűnik, a 12TF SP nekem még csak az "el tudom képzelni" kategória. És persze az is igaz, hogy a 8TF SP igen kevés lenne, a 16 meg nagyon soknak tűnik, de egyik sem lehetetlen, függően az elérhető órajelektől.
-
válasz
#45185024
#14466
üzenetére
Nem bármilyen oldalról kommentálva, a 4TF dupla és a 12TF szimpla sebesség akkor fér össze, ha más lesz a shader-tömbök felépítése, mint a Maxwellben. Mondjuk pl. olyan, mint a Keplerben - az elég vicces lenne

A cikk utolsó bekezdése viszont szenzációs: miután magukhoz képest relatíve konzekvensen elemeztek egy információt, utolsó bekezdésként odahajítanak valami teljesen megalapozatlan és semmivel össze nem függő kitalálmányt. Bravó

VR-ben szinte biztosan jobb lesz a Fiji X2 - lehet, hogy sokkal, de az is lehet, hogy alig észrevehető mértékben. Nem a TF-deficiten fog múlni a dolog, hanem az architektúrán és a szoftveres környezeten.
-
válasz
velizare
#14342
üzenetére
Azért tegyük hozzá, hogy bár racionálisan az adózott eremény tűnik a legfontosabb mutatónak, ez a gyakorlatban korántsem biztos, hogy a legkiemeltebb elvárás. Az nVidia új iparágakba próbál betörni, ami költséges dolog - a terjeszkedési időszaknak a növekvő top line a legjobb indikátora, nem a növekvő profit.
(#14339) Pepeeeee: nézz utána annak a "good enough" névre hallgató filozófiának, aminek a Windows stabilitási szintjét köszönhetjük. A lényege, hogy ez így költséghatékony, mert ezt a jósági (szarsági) szintet a felhasználók még elviselik, nem éri meg még további hónapokig tesztelni és bugfixelni. Az önvezető autóknál "kicsit" máshol van a hangsúly.
-
Szerintem a konzol téma topic-ra vonatkozó aspektusa megfelelően ki lett tárgyalva, a konzol vs PC kérdéskör máshová tartozik.
Kéretik az ilyenkor szokásos "szerintem XY de részemről a téma lezárva" típusú hsz-eket is mellőzni

-
válasz
velizare
#14127
üzenetére
Mitől lenne kevesebb? A pixelenkénti komplexitás nem változik.
(#14128) Abu85: Aha, szóval most még nem, de majd... Hol is hallottam már ezt?
![;]](//cdn.rios.hu/dl/s/v1.gif)
Amúgy ha ez most kivételesen tényleg így lesz, és a lényeg még előttünk áll, akkor mi lesz a framerate-tel? /2? Mikor is lesz ez az örömteli pillanat?

-
válasz
Szeszkazán
#14115
üzenetére
Na végre, ideje volt, hogy valami megmutatkozzon az AMD-k potenciáljából.
Viszont érdekesség, hogy a FuryX esetében a DX11-DX12 különbség fullHD-ben 28%, 4K-ban már csak 11% (WQHD-ben meg félúton). Ez nekem arra utal, hogy az Ashes alatt futó motor ugyanolyan pixelorientált cucc, mint minden más, és nincs beleépítve a Nagy Októberi Szocialista Renderelés
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
válasz
velizare
#13874
üzenetére
Mivel a felbontások között nincs túl nagy eltérés, a sok memóriát a statikus adatok viszik (pl. textúrák). Ezért két elég széles véglet lehetséges:
a) a Titan X memóriájában bennmarad egy csomó olyan textúra, amit már többet nem fog használni - ezt a Fury X simán kihajítja, és később sem töltődik vissza
b) A Fury X folyamatosan swappol, és tele van mikrolaggal, ami persze az átlag FPS-ben nem látszikLátatlanban azt gondolom, hogy a valóság az a) opcióhoz van közelebb - swappolgat a Fury X, de a PCIE sávszélesség meg a belső busz sávszélessége elég nagy ahhoz, hogy ez ne akadályozza a stabil FPS-t.
-
Ahogy elnézem a RotTR eredményeket, ez a játék leginkább a sok ROP-ot szereti, és a raszterizációs teljesítmény kevésbé izgatja. Így nem meglepő a 780/Ti megszokottnál jobb szereplése, valamint az sem, hogy a Fury-k nem remekelnek. Szóval lehet konspirációkat sejteni, csak felesleges...
-
Személyeskedést kéretik befejezni - egy hsz-t már töröltem, a folytatásban további figyelmeztetés nélkül takarítok (és miután szerkeszteni nem tudok, az érintett hsz-ek esetleges értelmes tartalma is elszáll).
-
Urak,
a tegnap esti anyázásközeli eszmecserét ma reggel kéretik nem tovább folytatni

Az Arkham Knightnak gondolom van saját topikja, ott lehet a vele kapcsolatos sirámokat ragozni. Ill. mind a Catalystnak, mind a ForceWare-nek szintén van saját topikja.
-
válasz
Ghoula
#13754
üzenetére
Azért crossbar-nál is kell lennie valamilyen paraméternek, pl MC órajel,ami független a gpu órajeltől,vagy az crossbarnál tuti annyi megy mint a mem?
Én ebben a hitben élek

A Crysis 3 teszt teljesen jó, 20% órajel emelés 5-6% FPS-t hozott, ez egy érzékelhető mem-limit, de a játékot ismerve tényleg nem sok. +1 az MC-s sztorinak.
Habugi tesztjében más a CPU, azt így nehéz kontextusba tenni.Mondjuk azért tetszetős ez a mem controlleres magyarázat a 290 és a 390 között, mert új fényben tüntet fel pár dolgot, ami eddig nem teljesen állt össze. A sebességnövekedést is furcsállottam, és a fogyasztás emelkedésének mértékét sem indokolták teljesen az órajelek és a feszültségek.
-
válasz
Ghoula
#13748
üzenetére
A tRD egy késleltetési érték volt, ahogy írod is. Először meglepett, hogy előhozod, mert egy crossbar vezérlőnél nincs ilyen "átrakodás", de aztán eltöprengtem, hogy a GCN-nél a HUB-os vezérlővel esetleg releváns lehet a dolog. Érdekes. Felmerült bennem korábban is, hogy a memóriakezelés hatékonytalanságáért a HUB-os vezérlés lehet a felelős, de ennyire direkt okot nem tudtam mellétenni. Az nVidia crossbarja meg nem küszködik ezekkel.
Tudsz hasonló teszteket csinálni a Crysis 3-mal? Ott látszott még igen komoly diff a 290X és a 390X között.
-
válasz
Ghoula
#13724
üzenetére
Persze, magasabb órajelen kisebb a latency, de eredetileg azonos órajelekről és timingekről volt szó. És igen, mindig sávszélről beszélünk, de simán lehet szerepe a késleltetésnek - csak ezt baromi nehéz szétválasztani.
Megmondom őszintén, nem tudtam, hogy a memóriavezérlőnek is vannak saját időzítései - abban a hitben éltem, hogy amit a RAM-oknál beállítasz, azzal üzemel mindkét oldal. Hmmmmmm...
-
-
válasz
Ghoula
#13660
üzenetére
Power limit is ugyanaz volt? Ill. nézted az órajelek alakulását? Folyamatosan azonos órajelek és időzítések mellett 7% különbséget nehezen tudok elképzelni.
(#13666) Milka 78: nem elsősorban a tesztekből jönnek ezek az infok, pontosan azért, mert össze-vissza mentek a kártyák mindenféle órajeleken. A hardware.fr tesztjéből annyit tudtam kivenni, hogy kb. 8-9%-kal gyorsabb átlagosan a 390X, de pl. a Crysis 3-ban 15% felett van a differencia.
A tapasztaltak kapcsán: amikor a mem OC-t nézted, akkor hol volt a PT limit? Ha elkezdte droppolni a core órajelet, akkor tök mindegy, hová tetted a memóriát, nem látod az izolált hatását. Kellene egy teljesen dokumentált méréssorozat az egész témához... -
válasz
Petykemano
#13657
üzenetére
Lehet ez is, viszont miután több játékban a 390X is jelentősen megugrott a 290X-hez képest (ott a fő különbség a memória órajele), a sávszél tuti nem "ártatlan".
-
-
válasz
Malibutomi
#13632
üzenetére
Nem úgy tűnik, hogy a GCN kártyáknak nagyon hatékony lenne a sávszélesség-utilizációja, úgyhogy ha ezt a következő generációban nem alakítják át, akkor továbbra is kell nekik a minél nagyobb BW.
A 980Ti-t is visszafogja a sávszélessége, csak nem annyira, hogy érdemes legyen egy sokkal drágább és kísérleti memóriatípussal felszerelni. Ha a GP100 tényleg duplaakkora lesz, akkor ott a dupla BW is csak a jelenlegi ALU:MEM arányt tartja fenn, ami legalábbis kockázat a jövőre nézve. De már a duplát is nehézkes kihozni akár gDDR5X-szel is. -
Fogalmazzunk inkább úgy, hogy a szóban forgó probléma megoldására a HBM ígér olyan megoldást, amiben lehet hinni. Jelenleg nincs működőképes, hatékony megoldás 600-800 TB/sec sávszélesség elérésére. Amúgy én a gDDR5X-et ugyanolyan esetleges niche megoldásnak tartom, mint a jelenlegi HBM-et. A következő generációk Tier2 kártyáihoz pont jó lehet, felette kevés lesz, alatta meg felesleges.
-
válasz
Malibutomi
#13597
üzenetére
Akkor még egyszerűbb a dolog. A HBM jelenleg egy olyan technológia, aminek még nincs releváns implementációja (ami van, az egy szűk niche-ben piacképes, és alulteljesíti az elvárásokat). Ettől még mindenki hisz a technológiában - az nVidia is, és 2016H2-ben látja azt az időpontot, amikor kommerciális terméket lehet rá építeni. Happy?

-
válasz
Malibutomi
#13592
üzenetére
Hogy lenne mindegy? Egy új technológia akkor válik relevánssá, ha a gyakorlatban is bizonyít. A HBM-nek ez nem igazán sikerült - bízzunk benne, hogy a HBM2-vel nem lesz semmi komoly gond, és akkor 12-18 hónappal a "pilot" után beszélhetünk arról, hogy a HBM sikeres, mint technológia.
-
válasz
Malibutomi
#13589
üzenetére
Nem hiszem, hogy HBM-mel adnának ki kártyát. HBM2-vel inkább. A HBM pilotnak jó volt, és az AMD-nél szerencsés (balszerencsés?) módon volt is rá valós műszaki igény, a másik oldalon nem lett volna semmi értelme.
-
Öööööö... Én azt hittem, hogy a kamerapozíció változtatása render előtt alap
Akkor még 90FPS esetén is 22ms a késleltetés, ha pedig a frame késik, akkor 33ms. Az már nagyon sok, akár 8-10 fokot is kellhet korrigálni. Ouch.(#13567) Pepeeeee: IHV oldalról fix FPS-t csak akkor tudnál, ha meg tudnád előre mondani a kép számítási idejét, az meg nem megy. Becsülni lehet, de az csak javítja a problémát, nem oldja meg. Továbbra is masszív overkill kell sztem...
-
Ha jól értem a VR tervezett működését, timewarpolni akkor is kell, ha fix 90FPS-sel megy a cucc, mert a gyors fejmozgás miatt a 11ms-os késés is sok, azt is érdemes utánhúzni. Ez talán még működik is jelentős torzítás nélkül, bár a "hiszem ha látom" alapelv itt is érvényes. Nekem azzal van problémám, ha a frame lekési a szinkronablakot, és akkor már 22ms-nyi mozgást kell utánhúzni - érzésem szerint ez már ronda lesz. Persze jobb a ronda, mint a hányás, de (szerintem) a ronda sem elég jó.
Ill. érdekes kérdés még, hogy ha a VGA fogja is bírni a 2x90FPS-t, vajon a CPU is fogja-e tudni a 90-et (gondolom, a scene-t elég egyszer számolni). -
Ha elköltök szumma 1200-1500 USD-t arra, hogy VR-ezzek, akkor a "nem kellemes, de viszonylag könnyen túléli az agy" kb. ekvivalens azzal, hogy "vigyétek a sz**otokat a p****ba"
De lehet, hogy csak nekem magasak az elvárásaim.
Ha a program sűrűn lekési a szinkronablakot, az minden architektúrán gond lesz, mert abban látatlanban is biztos vagyok, hogy az aszinkron timewarp folyamatos használata csúnyán fog hatni a képminőségre. Szóval eleve úgy kell belőni a cuccot, hogy az idő elég magas %-ában biztosan tudja a 2x90 FPS-t - kérdés, hogy ez kinek mennyire sikerül jól. Ahol nem, akkor AMD-n ronda lesz az eredmény, nVidián pedig majd csak étkezés előtt lesz javasolt játszani... -
Ezek a hardveres különbségek, a kérdéseim pedig a szoftverre, ill. a közönség érzékenységére vonatkoznak. Nyilvánvaló, hogy a GCN (még az első is) sokkal jobb hardver-alap VR-hez, mint a Maxwell (talán a Pascalnál is) - viszont ez nem magától fog kijönni, hanem a szoftverektől.
Ha egy játék stabil 400 FPS-sel megy, akkor nem kell preempció.
Ha egy játék állandóan droppol, akkor nem fog segíteni az aszinkron timewarp sem.
Ha ellenben másodpercenként 3-5 frame lesz eldobva, akkor könnyen lehet, hogy az AMD-n szuperül fog futni, míg az nVidia csomagolhat VR-ready zacskókat a cucca mellé.Van legalább 3-4 olyan VR-ready AAA játék, amit ki lehet próbálni, és választ lehet adni ezekre a kérdésekre? Amíg nincs, addig szerintem felesleges nagy mondásokat tenni.
-
-
válasz
unrealnoise
#13543
üzenetére
Szerintem a VR-nél meg kell várni az első játékokat, addig felesleges bármilyen részleges ítéletet is mondani.
Nem tudjuk, mennyire lesznek túlbiztosítva a játékok framevesztés ellen.
Nem tudjuk, hogy az időnkénti frame-vesztés melyik játékban mennyire lesz zavaró.
Nem tudjuk, hogy a frame-vesztés ugyanolyan sűrűn fog-e jelentkezni mindkét gyártó kártyáin.
Nem tudjuk, hogy az aszinkron timewarp mennyit fog segíteni, ha a frame-vesztés zavaró.Szóval nem tudunk lósz**t sem, ebből következtetni nem lehet, legfeljebb jósolni

-
"Eljutottunk oda hogy egy rossz szót nem lehet szólni az Nvidiára,annyira istenítve van egyesek által"
Így kezdted az egész threadet:
"Elfelejtették lelassítani az AMD kártyákat vagy az Nvidiánal van gond?"
Azaz rögtön flame-mel indítasz, ahelyett, hogy belinkelnéd a tesztet, és kiemelnéd az érdekességeket. Mégis mit vársz válaszként? Nyugodtan lehet rossz szót szólni az nVidiára, csak az legyen megalapozott. Ugyanez igaz az AMD-re is.
@all, last call, az érintettek legyenek szívesek lehiggadni, ne kelljen már az összes kicsit is flame-gyanús hsz-t törölnöm...
-
Maradjunk a szakmai szinten, ha lehet

-
válasz
schawo
#13453
üzenetére
Dehogyisnem, amikor minden egyes eladott példányon bukta van

Amúgy itt bejön egy igen érdekes kérdés, ami az árazást nagyban meghatározza - van a direkt darabköltséged és van a fully loaded darabköltséged, ezek között hogyan határozol meg egy olyan effektív darabköltséget, amire aztán az árazáshoz szükséges profitcélokat ráépíted? Ezt nagyon könnyű elb***arintani, érzésem szerint a 390X-nél pont ez történt. A 380X esetében viszont nehezen tudom elképzelni, hogy tudnák értékelhető mértékben olcsóbban adni.
-
válasz
Valdez
#13428
üzenetére
Nem mint architektúrát? Amikor a 220mm2-es GTX960 cca. 20% lemaradásban van a 360mm2-es R9-380X-hez képest? Akkor mi kellene ahhoz, hogy jónak ítéld az architektúrát?

(#13436) schawo: a fenti miatt az árazással is eléggé bajban lehetnek, jó árhoz kell egy mérethatékony GPU - ld. RV770.
(#13435) Rubbi: a Steam kliens időnként feldobja. Ott bukik el sokaknál a dolog, hogy a HW mellett el akarja küldeni az összes installált szoftver listáját is. Kis kíváncsi...
-
válasz
daveoff
#13424
üzenetére
Óriási tanulság a GM204 mindenkinek, aki a tech iparban el akar adni valamit.
- Van egy GPU-d, aminek a szintjét korábban a 200-250 USD-s ársávban árultad
- Jobban ráéreztél, hogy mire lesz szükség a következő 2 évben, mint a vetélytársad, így a GPU fél kategóriával jobbra sikerül - ezért felemeled egy kategóriával feljebb, ahol 500-550 USD (full) és 400 USD (harvest) az árszint
- A fullos GPU-t adod 550-ért
- A harvesteltet hihetetlen nagyvonalúsággal leengeded 329-re. Ennek érdekében egy kicsit csalsz a specekkel, de ügyesen elbagatellizálod, így vihar lesz a biliben, és az eladásaidat egyetlen hónap erejéig veti vissza.
- A harvestelt GPU-ra épült kártya 16 hónap múlva a legnépszerűbb VGA lesz egy nem mindentudó, de azért elég reprezentatív felmérésben
- Mivel az árát nem kellett csökkentened, a kártyák példányonként 130 USD extra profitot termelnek 16 hónapja. A fullos GPU pedig 300 és 220 között, meglehetősen lankásan csökkenve.
- Rohadt sok pénzt kerestél, miközben a vásárlók nagy része szeret, és jó eséllyel a következő generációban is tőled vásárolA tanulságokat mindenki vonja le maga - szándékosan nem minősítettem egyik mozzanatot sem.
-
válasz
Malibutomi
#13408
üzenetére
Ennél egy kicsit komplikáltabb a dolog. A DirectX 11 jól láthatóan zsákutca, túl sok előrelépési lehetőség nem látszik benne, ugyanakkor olyan komplikált lett, hogy egyes IHV-k már alig tudnak hozzá drivert írni
Mindenki tisztában volt vele, hogy ennek előbb-utóbb változnia kell, de az erősebb szereplőknek ez nem állt érdekében, mert a Microsoftnak kényelmes volt, hogy a versenyképtelen OpenGL-lel szemben mindenkinek Windows + DX-et tud eladni, az nVidia meg szívesen elad mindenkinek évente egy új kártyát DX11-re optimalizált architektúrákkal.
Ezzel szemben az AMD-nek 2012. március óta folyamatosan termelte a felesleges extra költséget a post-DX11 architektúra, ezért nekik fontos volt az elmozdulás, és szerencséjükre a fejlesztők irányából is érkeztek jelzések (fene tudja, mennyire erősek, de érkeztek), hogy erre lenne igény. Jött a Mantle. Erre lépni kellett az MS-nek a DX12-vel, amire meg válaszul a Khronos egy elegáns mozdulattal megpróbálta átugrani a konkurenciát a Vulkannal. Eddig a pillanatig a cselekmény nagy része pofázásból állt, utána jött volna az, hogy a fejlesztőcégek dollártízmilliókat öntenek az új API-kra való átállásra. Ez utóbbinak a közepén vagyunk most, és mint azt tudjuk, júniusig 20-25 low-level API-t használó játéknak kell érkeznie
Ha ez nem történik meg, akkor levonhatjuk a következtetést, hogy a dollártízmilliók öntése helyett csak jelentősen szerényebb összegek csepegtetése valósult meg, és akkor ott tartunk, amit kettővel ezelőtt írtam. -
válasz
Malibutomi
#13404
üzenetére
Tehát a platformról van szó, nem a játékokról. Erre két jó okuk is van:
- Win10 iránti igény gerjesztése - erre csak kapóra jött, nem ez a mozgatórugó
- Lépés tartása a konkurenciával. Nyilván nekik is eszükbe jutott 2013. őszén, hogy mi van, ha az OpenGL átveszi az AMD Mantle-jét, és lesz egy grafikus API, ami egy jó nagy lépéssel előttük jár, ráadásul cross-platform. Muszáj volt ezt csinálniuk, nagyon sok múlik az ökoszisztéma lock-in-en. -
válasz
Malibutomi
#13395
üzenetére
No de pontosan mit értünk az alatt, hogy ráfeküdt?
@Crytek: Dehogy. A drága innováció lassan terjed, ennyi az egész.
-
válasz
Petykemano
#13393
üzenetére
Ezért: "Starting with a new API can involve a lot of work as common utilities may not yet be available."
A fejlesztők pedig eddig állítólag lángoló hajjal, égnek emelt kézzel imádkoztak a low-level API-kért, aztán meg lehet nézni, hány játék jött ki eddig egyáltalán bármilyen támogatással (ugye legalább kill CPU-overhead), nem beszélve egy új elvek szerint felépített motorról, aszinkron kutyfülével meg minden. Vagy a fejlesztők vágyai lettek aránytalanul felnagyítva, vagy tényleg ez volt a kis szívük minden vágya addig, legalábbis addig, amíg csak szövegelni kellett...
-
-
válasz
#Morcosmedve
#13372
üzenetére
Csak a képre írtam. A GTA V eredmények nagyon meglepőek, nem zárnám ki a mérési hibát sem.
-
válasz
#Morcosmedve
#13368
üzenetére
A 960-on szinte semmit nem dobott...
-
válasz
#85552128
#13276
üzenetére
Az, hogy gondok vannak, színtiszta spekuláció a "történelmi" párhuzam miatt. Ettől még persze lehetnek, de Jensen féltéglája mindössze annyit jelent, hogy egy bizonyos dátumra nem készült prototípus a végleges chipekkel. Lehet, hogy két nappal később lett kész, lehet, hogy 3 hónappal, ki tudja. A lényeg annyi, hogy valóban most érdemes az AMD-nek meghajtani a biciklit, és kitolni egy 960-killer kártyát minél előbb. Azzal rosszat nem tesznek akkor sem, ha mégis a terv szerint halad a Pascal, ha meg nem, akkor lehet kaszálni és / vagy market share-t visszanyerni.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Forza sorozat (Horizon/Motorsport)
- Xbox tulajok OFF topicja
- Autós topik
- Kertészet, mezőgazdaság topik
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Arc Raiders
- Motorolaj, hajtóműolaj, hűtőfolyadék, adalékok és szűrők topikja
- Geri Bátyó: Ezt pedig azért, mert...
- Lézervágás, gravírozás
- Energiaital topic
- További aktív témák...
- Dell Wyse 5470,14",FHD, N4100 CPU,8GB DDR4,128GB SSD,WIN11
- Keresünk Galaxy S23/S23+/S23 Ultra/S23 Fe
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- SMAILIO HD 5" GPS autós navigáció
- GYÖNYÖRŰ iPhone 14 Pro Max 128GB Deep Purple - 1 ÉV GARANCIA -Kártyafüggetlen, MS3702
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
![;]](http://cdn.rios.hu/dl/s/v1.gif)






Akkor még 90FPS esetén is 22ms a késleltetés, ha pedig a frame késik, akkor 33ms. Az már nagyon sok, akár 8-10 fokot is kellhet korrigálni. Ouch.
