Új hozzászólás Aktív témák
- 
			
			  Abu85 HÁZIGAZDA Az Intel és az AMD is keres pénzt a datacenteren, nem az a lényeg a cégeknek, hanem az, hogy mennyit kell befektetniük, hogy sokkal-sokkal több pénzt keressenek abból a zsíros piacból. 
 Emiatt értékes a szerver és a mobil PC-k piaca, mert vagy stabilan tartják magukat, és nem várható olyan változás a jövőben, ami nagyon más útra terelné a felhasználóbázist, sőt, még növekedés is lehetséges, főleg a szervernél.A dGPU-piacon az is egy elég nagy kérdés manapság, hogy a 7 nm-es EUV-re hogyan fognak reagálni a felhasználók, mert ott a középkategóriát simán 400-450 dollárra kell emelni, hogy egyáltalán megérje az egész. Szóval egy olyan tényező van ebben benne, amivel nagyon nehéz számolni, és lehet, hogy felhasználókat fognak veszteni, mert mondjuk xy gémer azt mondja, hogy a 300 dollár is sok volt, de a 400-450 már egyenesen rablás, de ugyanakkor az AMD és az NV se tud nagyon mit tenni, mert a teljesítmény növeléséhez új memóriatechnológiákra van szükség, amelyek a kezdetekben mindig drágák, illetve egy tape-out a 12-16 nm-es tape-out árának a hatszorosa lesz 7 nm-es EUV-n. És még a wafer is nagyon drágul. Ezek olyan kérdések, amelyek az egész piacot nagyon kiszámíthatatlanná teszik, nem lesz rossz a piac, csak a jó ég tudja megjósolni, hogy egy eddig 250 dolláros szinten vásárló PC-gamer mit fog szólni a 450 dolláros árcédulákhoz. Megvásárolja? Megy konzolra? Esetleg Stadia? Nem nagyon van még válasz, mert ugye azt is bele kell számolni, hogy a korábbinál sokkal több alternatíva is lesz. 
- 
			
			  Abu85 HÁZIGAZDA Nem érted a cégek működését. A dGPU-k piaca éves szinten nagyjából 5 milliárd dollár, és ez inkább fölé van lőve a valóságnak, mert ugye az elmúlt évben azért még a bányászat éreztette a hatását. Ami viszont például az AMD-nek inkább értékes az a datacenter, ami éves szinten úgy 30 milliárd dollár, vagy a mobil, ami szintén nagyjából 30 milliárd. Most te cégvezetőként mit csinálnál? Pacsiznál az NV-vel, és mennél arra az 5 milliárdra, ami ráadásul egy szűkülő piac, vagy megcéloznád a 30+30 milliárdot, ami inkább növekvő? Na ugye. Nyilván, ha a dGPU-k piaca annyira fasza lenne, akkor az NV sem költene az önvezető autókra, a datacenterre, és a többi professzionális területre, de mivel ez a piac messze van a faszától, így ők is inkább a növekvő, 10+ milliárdos területeket üldözik. (#39641) Petykemano: Tíz év múlva biztos. 
- 
			
			  Abu85 HÁZIGAZDA Az a baj, hogy a dedikált GPU-k piaca nem kritikus fontosságú. Amikor döntéseket hoznak a cégek, például az egymással való együttműködésről, akkor azt egy olyan piacért hozzák, ami vagy rendkívül nagy, vagy rendkívül dinamikus növekedés előtt áll. Na most a dGPU-kra egyik sem igaz. Ilyen szempontból se az AMD, se az Intel nem fogja különösebben keresni az NV-vel való együttműködést itt, nem tényező, amit ezzel nyernének. Nyilván nem fogják tiltani a kombinált konfigurációkat, ha valami bug van, azt egymás felé is javítják, mert a bug az nekik is para, de kb. ennyi. 
- 
			
			  Abu85 HÁZIGAZDA Az AMD-nek igazából nem annyira kritikus, hogy a GPU a Ryzen mellett Radeon legyen, ahogy az NV-nek is gyakorlatilag mindegy, hogy a GeForce Intel vagy AMD proci mellé kerül. Azért jönnek a Ryzen+GeForce notebookok, mert a gyártók nem bíznak az Intelben, hiszen hónapok óta azt hallgatják, hogy minden fasza lesz, aztán semmi sem történik. Kb. két-három negyedévig vársz, de van egy pont, amikor el kell azon gondolkodni, hogy az Intel képes-e a problémáit javítani. Bizonyos gyártók úgy döntöttek, hogy jobb biztosra menni, és Ryzent rakni a GeForce-ok mellé. Ennek semmi köze annak, hogy az AMD vagy az NV együttműködne, egyszerűen nekik tényleg mindegy. A data center az le van játszva. Látható, hogy az új fejlesztésű HPC klasztereknél nem igazán kombinálják a gyártókat. Nem is nagyon tudják, mert itt például az NV az NVLINK-et használja, az AMD az IF-et, és az Intelnek is lesz majd egy saját zárt megoldása. 
- 
			
			  Abu85 HÁZIGAZDA Amikor az NV-nek van egy játékkal gondja - volt már ilyen, lásd Tomb Raider, Doom, stb. -, akkor azt csinálják, hogy nem beszélnek róla, amíg nincs driver. Mindig így csinálták, és ha megnézed, akkor most se reagálnak a World War Z-re. Majd megteszik akkor, ha már lesz hozzá driverük. Ennek a fejlesztésnek semmi köze az AMD-hez. Ez gyakorlatilag a shader modell 6.0 Vulkan megfelelője. Hogy mihez mennyi idő alatt jön javítás, nagyban függ attól, hogy mi a probléma. Például egy memóriamenedzsmenten belüli allokációs problémát sokkal egyszerűbb javítani, mint egy fordítási gondot. Amiről szó van egy új képessége a Vulkan API-nak. Lényegében lehetővé teszi, hogy az egymástól független feladatok párhuzamos futtatását egy multiprocesszoron. Korábban ezek futtatása csak egymás után volt megvalósítható, ezért vezették be ezt az új képességet, így már egymás mellett is futhatnak. Az, hogy a driver oldalán mi a gond ezzel... kb. ezernyi oka lehet. Nagyon röviden, amikor shader fordítás történik, akkor a meghajtó a hardverre vonatkozó adatok birtokábak kialakítja a megfelelő wave-eket. Lesz egy kép arról, hogy a shader mennyi regisztert (compute esetén LDS-t is) használ, és a multiprocesszor képességeit figyelembe véve lesz egy szám, amennyi wave-et a multiprocesszor tud futtatni. Itt minden harver statikus particionálást használ, vagyis betöltenek minden adatot a regiszterekbe, még akkor is, ha sose nyúlnak hozzá. Minden gyártónak van egy jól kialakított képe arról, hogy az adott hardver multiprocesszora mire képes, hol van az a minimum/maximum határ, ami már rontja cachinget, vagy nem fedhető el a memóriakésleltetés, stb. és a fordító is próbál határokon belüli kódot fordítani, amennyire ez lehetséges persze. És itt van az a pont, amikor leginkább az segít, ha kitapasztalod, hogy mi a jó hardvernek. Általában ezért van az, hogy amikor kiadnak egy új architektúrát, akkor az első driverek nem valami gyorsak, mert még nem értik annyira a hardvert, de aztán írnak jobb shader fordítókat, és egyre jobb lesz gyakorlatilag ugyanannak a shadernek a hardveren való működése. Persze csodát nem lehet tenni, de problémás helyeken +20-30% is benne lehet, átlagban pedig simán meglesz a +5%. A probléma az új subgroup/wave terminológia esetében az, hogy független feladatok párhuzamos futtatása megvalósítható, tehát a wave-ekre vonatkozóan ugyan a hardver működése nem változott, de az új funkcióval a szálak, illetve inkább lane-ek képesek adatokat megosztani egymással, ráadásul nem csak shader lépcsőn belül, hanem shader lépcsők között is. A kérdés az, hogy a lane-ek közötti adatmegosztás tekintetében mi az optimális a hardvernek, érdemes-e változtatni a tipikusan jól működő wave mennyiségekre való optimalizálást. Ezekre nehéz felkészültni tesztshaderekből. Ami biztos, hogy nem az NV-nél dolgoznak hülyék, hanem nincs elég adat ahhoz, hogy mindig jó döntést hozzanak, mert a PC-piacon ez egy újdonság, illetve a Nintendo Switch által használt API-k sem tartalmaznak subgroup/wave terminológiát. Ergo még nem volt igazán igény egyetlen ügyfél részéről sem arra, hogy a hardver működjön ilyen körülmények között is. Ezzel szemben az AMD-nél már a Sony eleve wave terminológiát kért a PS4-hez, aztán követte őket a Microsoft is, tehát a GCN-nél már 2012-ben felmerült az igény arra, hogy a hardver így működjön. PC-n pedig ugyanezt bevetették 2016-ban a Doom Vulkan portjában, akkor még nem szabványosan, de ahhoz is kell fordító. Ergo amíg az NV-nél egyetlen ügyfél sem kért subgroup/wave terminológiára optimalizált fordítót, addig az AMD-nél ez két ügyfélnél már lassan 7-8 éve igény, a PC-s partnerstúdiók tekintetében pedig három éve. Ennyi idő alatt azért elég jól rá lehet jönni arra, hogy az adott hardver mit szeret, ha a lane-ek között adatmegosztás lehet shader lépcsőktől függetlenül. Alapvetően egy év alatt ki lehet ezt tapasztalni, csak nem elég tesztkódokat futtatni, hanem kellenek a production ready cuccok. Ilyen különbségek azért nem történnek meg sűrűn, mert általában a piac az újdonságokra egyszerre lép rá, tehát úgymond valami nagy változás bevezetésénél egyszerre szarok a driverek, amelyek egyszerre fejlődnek majd. Manapság az eltérések azért szaporodtak meg, mert az AMD mindent évekkel hamarabb megcsinált szoftveres szinten. Az explicit API-kra vonatkozó implementációt a Mantle-lel, ebből él a Vulkan és a DX12 is. Szimplán van egy PAL rétegük, ami egységes, és fölé húznak egy API-tól függő részimplementációt. Szoftveres szinten azért marha nagy előny, hogy már a DX12 és a Vulkan bemutatására van egy működő absztrakciós réteged a hardveren, amire csak húzol egy kvázi wrappert, és már megy is az egész. Eközben az Intelnek és az NV-nek semmije nem volt a DX12 és a Vulkan API-hoz. Ők nulláról indultak, nem több év tapasztalatból, illetve több tízezer sornyi gyakorlatilag 99%-ban hasznosítható kódról. Ugyanez a shader fordítónál. Az AMD-nek rég megvan, rég működik, míg az Intelnek és az NV-nek megint a nulláról kell felépíteni. Azt értsétek meg, hogy itt nem a hardver a rossz, vagy az API, vagy bármi az iparágon belül, hanem az a különbség csak, hogy az AMD-nek voltak olyan megrendelői, akik igényt formáltak ezekre az újításokra, már azelőtt, hogy a PC-n szabványosítva megjelentek volna, míg az Intel és az NV esetében ilyen megrendelő nem volt, így nekik értelmetlen volt korábban ebbe erőforrást rakni. Most persze raknak, már megvan az igény, csak a bevezetés szempontjából már nem azt látod, hogy mindenki nulláról indul szoftveres szinten. A VMA-nak pedig semmi köze a fentiekhez. Az csak egy menedzsment lib. Leginkább abban van jelentősége, hogy mennyi VRAM-ot használ a program, az allokációk törlése hogyan zajlik, van-e defragmentálás, ha igen, akkor hogyan, stb. Ez minden hardvert kb. ugyanúgy értint. Az, hogy bekapcsolták valószínűleg abból adódott, hogy a saját megoldásuk túl agresszív volt, így talán a kelleténél többször törölt allokációkat, ami akadozáshoz vezethetett. Inkább választották azt, hogy legyen több VRAM-igény. Ezt leszámítva más problémát nem fog okozni egyetlen hardvernek sem. A VMA-t nagyon sokan használják a piacon belül, mert időigényes ~13-15 ezer sornyi kódot magadnak bepötyögni, és a végén kb. ugyanott leszel, ahol az AMD megoldása. Inkább érdemes ezt módosítani az igényeknek megfelelően. Valaki persze nem módosítja. Például az Ubisoft elmondta az idei GDC-n, hogy bekapcsolták az Anvil Vulkan portján, és out of box működött az egész, sose kapcsolták ki többet. A Quantic Dream PC-s portjai is ezt használják majd, az új Wolfenstein is ezt fogja használni, bár tudtommal az id software módosít rajta, mert annál a motornál vannak igen specifikus igények, amit egy általános lib azért nem fed le, vagy nem elég jól. 
- 
			
			  Televan74 nagyúr Én sem vettem meg a Vega 56 -ot 200.000 Ft környékén,sőt én mindig mondtam hogy a custom modelleknek 130.000 Ft körül kellene lenni. Legelső RX580 -nak nem voltak drágák. 85.000 Ft tól indultak,csak jött a bányászszezon és a kereskedők megemelték az árakat. A új árak meg mindig igazodnak a meglévő árakhoz,ami függ a piacon levő régi termékektől és függ a konkurencia esetleges gyengélkedésétől. Én továbbra is az gondolom hogy az AMD elengedte a top kategóriát és egy megfizethető teljesítményt fog nyújtani inkább a Navi személyében, ami jó lesz a jövőben érkező konzol portokhoz(pl. Vulkan alatt). 
- 
			
			  Abu85 HÁZIGAZDA De ez egy álomvilág. Oké, az NVIDIA felfogta, hogy kijött az első játék, ami subgroupot használ, és kellene hozzá a driver. Nem lesz meg holnapra, a következő hétre sem, talán még a következő hónapban is dolgozni fognak rajta. Természetesen csinálnak hozzá drivert, de van az amit akarsz, hogy holnapra legyen jó a sebesség, és van az ami a realitás, hogy talán tavasz végére jó lesz (nagyon talán). Ilyenkor egyébként az van, hogy az NV a fölét-farkát behúzza. Lásd az első Tomb Raider, a Doom Vulkan portja, stb. A marketing ilyenkor annyi, hogy nem vesznek tudomást a jelenségről, mintha meg sem történt volna. Ez tart addig, amíg nem tudják mondani, hogy van hozzá driver, ti balfékek, milyen problémáról beszéltek? ![;]](//cdn.rios.hu/dl/s/v1.gif) 
- 
			
			  Abu85 HÁZIGAZDA De, ahogy írtam ennek a játéknak nem is igazán a Vulkan implementáció a gondja, hanem a shader fordító. Amíg azon nem változtatnak, addig nehéz sokat nyerni. Egyébként ez egy befektetési kérdés. Rengeteg dolgot lehet még ma is javítani a meghajtókban az explicit API-knál is, csak kérdés, hogy hova rakod az erőforrásod. Például, ha úgy látod, hogy a saját fejlesztőpartnereid nem fogják használni a subgroupot, akkor ugye miért is költenél rá? 
- 
			
			  Abu85 HÁZIGAZDA A kernel driver szűnt meg, de a user mód oldali dolgok megmaradtak, és ide tartozik a shader fordítás. PC-n a bináris képtelenség. Tegyük fel, hogy megadják rá a lehetőséget. A fejlesztők lefordítják a shadereket binárissá, majd azokat szállítják. Addig jó lesz, amíg nem jön egy új GPU-család, amitől kezdve viszont a játék nem fog elindulni. Arra megint fordítani kell binárisokat, majd a következőre ismét, és így tovább. De egy idő után a játékokat nem támogatják, tehát be fog következni egy olyan pont, amitől kezdve az adott játék nem futtatható többet PC-n, az új hardverekkel. Ezért van a shader fordító a meghajtókban, hogy a játékok tudjanak IR-t szállítani, ami akármeddig fordítható az új hardverekre. Persze ennek megvannak a maga hátrányai, például az, hogy ha sokat változik a shader modell, mint mondjuk a Vulkan esetében a subgroup terminológia, akkor oda elég sok munkát újra kell kezdeni, és egy új shader fordító kell az újabb IR-ekhez. Hasonló váltások voltak régen is, és az egyes gyártók jobban felkészültek rá, mint mások. Nem biztos, hogy azonnal sok javulást kell várni, azért shader fordítót fejleszteni nem egyszerű. Az a baj, hogy az NV-t ahhoz a szinthez méritek, amit az AMD képvisel szoftveresen az explicit API-k szempontjából, és ez borzasztóan igazságtalan ám velük szemben, amikor az AMD-nek ebben a programozási terminológiában van már lassan két évnyi tapasztalata, míg az NV-nél kb. most látták az első production ready kódokat, amik ugye szabványosak, tehát tudnak velük mit kezdeni. Két év tapasztalati háttérrel nagyon könnyű ám jobb shader fordítót fejleszteni. 
- 
			
			  Abu85 HÁZIGAZDA Ha a shader fordító nem fordít egy hardverre jó kódot, akkor minden felborul. Mindegy, hogy Turing az architektúra, a probléma már ott felütötte a fejét, hogy a driver nem tudott a hardvernek hatékony kódot adni, amit a hardver természetesen nem tud javítani. Annyit tehet, hogy lefuttatja a rossz hatékonyságú lefordított kódot. Ugye PC-n nem lehet binárist szállítani, tehát minden optimalizálást a IR szintjéig kell betervezni, alatta már minden a driverben található shader fordító feladata. (#39508) b. : A VRAM-ra vonatkozó idény nem az API-tól függ. Alapvetően most se gond a 6 GB VRAM, amíg nem mész 4K-ra, illetve nem használod a felbontásskálázást. A 4 GB-os VGA-kkal simán elvan a játék a legjobb alatti textúrarészletességgel. 
- 
			
			  Abu85 HÁZIGAZDA Ezért jobb saját memóriamenedzsmentet csinálni. Az AMD sem azt javasolja, hogy kapcsoljátok rá a VMA-t, úgy ahogy van, hanem írják át az igényekre. Ennek az oka, hogy a VMA általánosan fedi le a memóriamenedzsment problémáját, vagyis sosem lesz olyan hatékony a memória kímélése szempontjából, mintha módosítva lenne, vagy a nulláról írna valaki egy saját menedzsmentet. Az előnye annyi, hogy kapsz ~15000 sornyi kódot készen, ami azért elég nagy előny. 
 A WWZ esetében volt a VMA és a saját menedzsment. A sajáttal jött a játék, majd a patch-ben átkapcsolták a VMA-ra. Na most a saját kóddal hiába törekedtek arra, hogy a 6 GB-os VGA-kba férjen be a játék full részletességgel, ez a VMA-nál már nem igaz, mert a DX11-hez hasonló a memóriaigénye, szemben a korábbi, saját kóddal, ami a DX11-nél is kevesebb VRAM-ot evett. Ez van, picit jobban működik a VMA, de ez nem azt jelenti, hogy NV-n rossz, mert minden hardveren megnőtt egy picit memóriaigény. Aztán, persze később visszakapcsolhatják a saját menedzsmentet, bár kétséges, hogy ebbe akarnak-e erőforrást fektetni.(#39504) Yutani: Jelen esetben a meghajtó fordítója a legnagyobb gond. A WWZ az első játék, ami subgroupokat használ, ehhez nem jók az eddigi fordítóoptimalizálások. De egyébként nem hiszem, hogy az NV hibázott volna, egyszerűen csak másra koncentrálták az erőforrásaikat, mert az elmúlt időszakban azt tapasztalták, hogy az AMD külön kódot kapott, tehát logikusnak tűnt azt feltételezni, hogy az AMD mindenképpen ragaszkodik a saját kiterjesztéseihez. Valószínűleg ez így is van, csak a Saber nem különösebben rajonghat a pluszmunkáért, így nem akarnak két kódbázist karbantartani, hanem mindenki kap szabványos subgroup shadereket. Mivel az NV és az Intel ezekkel először találkozik, így nyilván nem olyan hatékony itt a driver, mint az AMD-nél, akik már az irányt tekintve másfél-két tucat külön kódos kalandon túl vannak. (#39505) cain69: Az önvezetésbe sokkal több érdekes szolgáltatás belefér, mint a váltóba.  
- 
			
			  Abu85 HÁZIGAZDA A VMA-t és az RSL-t nem kell támogatni. Mindkettő teljesen szabványos header az érintett API-khoz. Semmit nem kell tennie az NV-nek és az Intelnek, hogy működjön, mert az RSL és a VMA is minden szabványos, rendre DX12 és Vulkan implementációval üzemképes. Ezért használják ezeket a fejlesztők, mert sokkal könnyebb egy már megírt alapra építeni, mint nulláról írni egy csomó kódot, és szabványos rendszerekről lévén szó a piac összes implementációján működnek. 
 Az NV és az Intel azért nem ír ilyeneket, mert lényegében ugyanazt tudnák megírni, amit a Microsoft és az AMD. Értelmetlen ezekbe erőforrást ölni, amikor az iparágon belül már van a problémára nyílt forráskódú megoldás.(#39501) cain69: Igény nem lesz erre. Az a gond, hogy a Bosch számára nem elég jó, hogy a Mercedes igényeit kiszolgálja. Költ egy rakás pénzt egy olyan platformra, aminél a Mercedes biztos jogot akar a szoftver birtoklására, hogy azt a Bosch ne tudja eladni másnak, vagyis a Mercedes megoldása megkülönböztethető legyen. Így viszont a Bosch számára az a gond, hogy egyrészt drága egy gyártót szolgálni, másrészt nem tudják, hogy a Mercedes mikor mondja nekik, hogy oké, ezt mi is meg tudjuk csinálni házon belül. Jó volt nálatok égetni a pénzt, de inkább megtartjuk... 
- 
			
			  Abu85 HÁZIGAZDA Csak a VMA az AMD megoldása a WWZ-ben. Minden más a Saber technológiája. Persze használtak ProRendert lightmap bakinghez, de itt csak arról van szó, hogy nem nagy stúdióról van szó, így egyszerűbb számukra venni négy Radeon VII-et, mint ezer CPU-t, így világos, hogy az olcsóbb megoldást választják. Ettől a végleges program sebessége nem módosul, mert a számításokat előre elvégzik, és azt a programfuttatás során már csak megjeleníteni kell. A VMA egyébként minden Vulkan játékba be van építve, egyszerűen ehhez viszonyítanak a fejlesztők, mert egy általános megoldásról van szó, ami gyakorlatilag lefed szinte minden menedzsmenttel kapcsolatos problémát. A gond vele az, hogy általános, tehát nem feltétlenül működik annyira hatékonyan specifikus környezetben, mint amennyire hatékonyat tudna egy fejlesztő írni az adott motorba. Viszont így is hasznos, mert ha mondjuk a kiadásig nem sikerül a saját menedzsmented megírni, akkor megpróbáltad, VMA-t aktiválni, és mehet ki a játék. Jó persze van olyan opció is, amikor kiadod a saját menedzsmented, aztán egy patch-csel cseréled a VMA-ra. Attól függő döntések ezek, hogy melyik működik jobban. A Microsoftnak is van egyébként a DX12-re egy RSL-je, aminek hasonló célja van, csak az RSL-nél tudni kell, hogy a Microsoft ezt kiindulópontnak szánja, így csak úgy natúran nem feltétlenül hatékony. Az AMD a VMA-t, elsősorban kiindulópontnak, másodsorban pedig annak szánja, hogy aki nem akar saját memóriamenedzsmentet írni, az egyszerűen betölti a headert, és bamm, működik is. 
 Más gyártó is csinálhat hasonlót, csak különösebb hasznát senki sem látja, mert az RSL és a VMA is open source.(#39498) cain69: Olyan nem lesz soha. Maximum a hardvert megcsinálja nekik, de a sokkal nagyobb költséget jelentő szoftveres résszel nem éri meg vesződni csak egyetlen megrendelő igényeinek való megfelelés szintjén. Egy NVIDIA számára például anyagilag csőd, ha a Tesla igényeire szabnak egy teljes platformot. Egyrészt nem tudják az NVIDIA hardvereire lezárni, másrészt csak a Teslára költenek egy rakás pénzt, amiből alig látnak majd valamit vissza. Vagy mindenki viszi ugyanazt a platformot, vagy csak a hardvert fogják gyártani, és a nagy költséget jelentő szoftvert mindenki megoldja maga. Egyik cég sem a saját pénze ellensége. 
- 
			
			  Petykemano veterán Nem gondolnám, hogy szándékos visszafogás lenne, vagy lett volna az nvidia részéről. Inkább csak valami laza ráérősség. 
 A fejlesztők részéről pedig afféle "why bother?" típusú hozzáállás lehetett. Biztosan vannak előnyei annak, amit kértek (mégha igazat is kell adnom annak, hogy néha nem az a jó, amit az ember gondol, hogy szeretne)
 Abu azt szokta mondogatni, hogy amiket eddig láttunk döntően DX11-hez írt motorok átiratai. Ezeket én leginkább afféle gyakorlásnak tudnám be - próbáljuk ki, hogy meg tudjuk-e oldani, miközben nem nyúlunk bele mélyen és nagyon. Nekem ebből az jön le - Abu is mindig ezt mondta -, hogy amíg az alapjaitól nem írják az új apihoz a motort, addig szinte semmilyen előny nem lesz érezhető például a CPU magokon való jobb skálázódásból.Én arra fogadnék, hogy most hogy megjött a Turing és az explicit apikhoz tartozó drivertámogatás is, most (a következő 1-2 évben) fognak majd elkezdeni érkezni azok játékok, amiknél majd azt hallhatjuk, hogy ezt vagy azt az tette lehetővé, hogy a vulkan/DX12 blablabla 
 Tehát a kérdésedre válaszolva: nem, szerintem még nincs itt a elégedettség ideje.
- 
			
			  Petykemano veterán Én nem ástam bele magam, ezért csak amolyan távoli érzet alapján mondom: úgy tűnik, a nyafogás az explicit apikkal kapcsolatban addig tartott, amíg az nvidiának (hardver és/vagy driver) a DX11 (alapokra épült) játékmotorok feküdtek jobban. Most hogy a driver már jó, meg a Turing is már fekszik explicit apihoz, meg jönni fognak a nem csupán DX11 alapú motorok dX12/vulkán támogatással is rendelkező változatai, hanem a már tényleg explicit apihoz írt programok - nyafi nélkül. De persze lehet, hogy tévedek. 
- 
			
			  Abu85 HÁZIGAZDA Az AMD AGESA-t kínál az alaplapgyártóknak erre vonatkozóan. A legújabb támogatja a Zen2-t, most ez nem végleges támogatás, annyira jó, hogy amint jön a végleges AGESA, azt egy Zen2-vel is be lehessen frissíteni, ne kelljen venni egy olcsó régebbi procit, csak a BIOS frissítésére. Ezt az AGESA-t az alaplapgyártók használhatják a BIOS-okban. A Zen2-höz az AGESA 0.0.7.1 vagy 0.0.7.2 verziókat kell keresni a BIOS-oknál. A végleges verziószám 1.0.0.7 lesz. Az ASRock több 300-as alaplapnál támogatja. [link] , [link] , [link] Igazából még az MSI sem foglalt állást. Nem akarom a cég működését elemezni, de furán vannak felépítve, mert például az NVIDIA GPP-nél is írogattak a dolgozók dolgokat, aztán az MSI kiadott egy közleményt a médiának, hogy azok nem hivatalos információk, és ezeket csak ők biztosíthatják a "xyz" e-mailekről. Most is csak írogatnak dolgokat az embereik, de ha most szigorúan vesszük az MSI korábbi állítását, akkor ezek nem számítanak hivatalosnak az ő értelmezésükben. Értem, szarul működik így, de most mit csináljak velük, ha nem tudják pórázon tartani a dolgozóikat, akkor azt kell mondani róluk, hogy nem képviselik a cég álláspontját.  Megkérdeztem már őket, hogy most akkor mi van, csak a hivatalos csatorna lassú. Megkérdeztem már őket, hogy most akkor mi van, csak a hivatalos csatorna lassú.Az AMD egyébként valószínűtlen, hogy állást foglal az ügyben. Ők az AGESA-ig törődnek ezzel. 
- 
			
			  pengwin addikt Hát igen, ez sem véletlen: mégis csak az ASUS sufnimárkájaként kezdte az ASRock a pályafutását, tényleg beletellett egy "kis" időbe, mire azt kinőtték. 
 Nekem egy B75-ös lapom volt tőlük, most meg az AB350M Pro4. A B75-ben nagyon jól ment az i7-3770T IGP OC... 1150MHz helyett ment 1450-en, miközben a CPU tudta tartani a 3,7GHz-es all-core turbót. Kisköltségvetésű móka...
 A Pro4-nek meg tudtam, hogy voltak bajai: itt fórumon se nagyon ajánlották, mert volt egy problémás széria belőle. De az akárhol becsúszhat.
- 
			
			  Milka 78 nagyúr Mondjuk ezt én sem tapasztaltattam. Okés az AM4 alatt nem gurított valami nagyot és a Taichi-n kívül nem nagyon van amit favorizálnék, de minőségi gondról a B350M Pro4-en kívül nem tudok és ott is egy elcseszett revizió váltás miatt történt a frixi. Az más kérdés, hogy a Taichin kívül nincs értelmes oc biosuk am4-es vonalon, mert nincs benne manuális llc, de ez sem minőségi hiba inkább "baromállat" megoldás és isten igazából csak all core oc alatt van jelentősége. Aki egyszeri felhasználó és pbo-val tolja annak ez kb semmit sem jelent.  
 Intel alatt meg a simán versenyképes bármivel, de a 100 illetve a 300-es lapjai briliánsak voltak és sokkal drágább lapokat vertek tarkón.
- 
			
			  Abu85 HÁZIGAZDA Egyáltalán nem ez a tapasztalatunk. Kb. ott tartunk, hogy az ASRock nem véletlenül van ott. Mi azért rengeteg megjelenés előtti hardvert kapunk, és az ASRock lapjával ezek manapság pöcre mennek, míg a többiekével nem igazán. Emiatt voltak bizonyos procik ASRock lappal tesztelve, mert a többiek cuccában meg se moccantak. Ebben persze valószínűleg nagy szerepe van annak, hogy rengeteg neves mérnököt elvittek a konkurenciától, és a kiadásoknál sem az RGB világítás a kulcstényező, hanem a működés. Persze RGB-ben nem annyira jók, itt tényleg a többiek viszik a prímet.  Viszont nagyon jók a hűtés tervezésében. Meglepő, de még az egyszerű bordák ellenére is az ASRock lapjainak a VRM-jei a leghűvösebbek. Viszont nagyon jók a hűtés tervezésében. Meglepő, de még az egyszerű bordák ellenére is az ASRock lapjainak a VRM-jei a leghűvösebbek.Az AMD például ma helyből ASRock lappal szállítja a tesztprocijait, de az Intel is kezdi átvenni ezt. Egyszerűen nekik is számít, hogy a tesztcucc pöcre megy, vagy sem. Persze kapunk külön ASUS lapot is, így sokszor lehet választanunk, de az AMD és az Intel választása manapság az ASRock, és egyre többször érezzük, hogy nem véletlenül. Szerk.: Egyszerűen arról van szó, hogy az ASRock kockáztatott az elmúlt időszakban. Megtömték a marketinget, szerváltak egy rakás neves mérnököt, és emelték az alaplapoknál a gyártási mennyiséget. Ez nagy kockázat egyenként is, együtt pedig öngyilkosság, ha nem jön be, de bejött. Persze valószínűleg számított, hogy az Intelnek voltak ellátási gondjai, jó időben kezdtek az AMD-hez dörgölőzni, meg persze az se volt mindegy, hogy a Biostar máshol ette az MSI piacát, de végeredményben az ASRock jókor hozott jó döntéseket az alaplapok piaca szempontjából. 
- 
			
			  Devid_81 félisten Anyagi oldal resz ertheto, alaplap gyartokent biztos nem lehet milliokat kaszalni nap mint nap.  
 Viszont AMD oldalrol Ok pont azzal "kampanyoltak" hogy megtartjak a kompatibilitast 2020-ig AM4-en.
 Ez kicsit az AMD-nek fog rossz hirnevet hozni, meg ha nem is erintettek benne kozvetlenul.
 Azert remelem, hogy nem fopg egyre tobb nagyobb marka beallni ebbe a sorba 
- 
			
			  FLATRONW őstag Ez így van. 
 Függetlenül attól, hogy más gyártók hogyan kezelik majd a Zen 2-őt, gondolom az MSI nem tett olyan ígéretet, hogy több generáción keresztül fogják támogatni a CPU-kat.
 Jó dolog, ha kiadnak egy BIOS frissítést az új CPU-khoz, de szerintem nem kérhető számon rajtuk az sem, ha nem.
- 
			
			  s.bala31 őstag "Metroban már talán kevésbé, ha jól láttam 40-50 FPS-t tudtak kihozni egy 1080 TI vel, de nem max grafikán" Kipróbáltam én is, (cfg az adatlapon). Amennyiben a shading rate-et leveszem 50%-ra + RT high-on, szódával elmegy ultra beállításon Volga pályán mérve. Néhol beesik 35 fps-re így is, mindent maxra állítva 100% Srate-el pedig 20-30 közötti értékeket produkált. 
- 
			
			  Devid_81 félisten Jo hat lehet nagyon osszefugges elmeletet kovacsoltam itt ossze, de nagyon masra nem jo jelenleg a Pascalon valo ray tracing futtatas mintsem "demozni". 
 Es megmutatni a usernek, hogy mi az amit kaphatna csak nyissa ki a penztarcat.
 Ezenkivul meg lehet mondani, hogy jah nVidia legalabb amit igert az lehozta a usernek, megkaptak a Pascal tulajok is a ray tracing-et.
 Bar inkabb ne is tettek volna, latva az amilyen eroforrasigenyes az egesz, tulajdonkeppen meg az elso generacios Turingot is megfekteti rendesen, bar itt legalabb egy menekulo ut ha epp a DLSS aktivalhato az adott cimben.Teljesen mindegy honnan kozelitjuk meg marketing szaga van az egesznek.  
 Mindenfele bantas es piszkalodas nelkul.
- 
			
			  X2N őstag Simán elcsúsztathatták volna a megjelenést. Akkor lehet nem 11dollár lett volna a memória. Akár több memória is mehetett volna rá. Lett volna idő megcsinálni a kártyákat normálisan, nem így félkészen kiadni mindent. Most egy techdemot nekem hiába mutatsz, azt a hajamra kenhetem ha Iray rendert használok. Jó ha májusba működni fog az Iray az RTX-ekkel. Akkor meg már inkább kivárom a köv gent. Mert most SPÓROLTAK a rammal...bezzeg a Radeon VII-re jutott. Ráadásul a Radeon Prorendert is frissítették, hétvégén megnézem, aztán ha jónak találom viszlát nvidia... 
- 
			
			  Dtomka veterán Elég sok pénzt veszít aki 2080 TI-t vesz  
 Viccet félretéve. Vállalható , hogy eléggé selejtesek? Még mindig hullanak? Sztem ezt a szériát jobb kihagyni, hiszen, vmi új kezdete, de a köv széria 3080TI nem 500k lesz hanem 700?
 Túlzás! Kár, hogy a VILÁG ezt elfogadja, és nem ellenkezik.Vicces a sors. AMD régebben (ATI) GPU volt a jobb és a COPU gyenge láncszem. Mára megfordult a helyzet. Remélem a GPU részleg is ismét magára talál... kell a verseny! 
- 
			
			  X2N őstag Nekem nem vállalható. Majd ha hozza azt a 6x-os sebességnövekedést Iray renderben amit a bőrkabátos megigért a prezentációban akkor elgondolkozok a cserén, addig marad a 980Ti. Miért nem lehetett több vramot tenni az új kártyákra? Már 8GB alá be se kellett volna menni az új kártyákkal, a 2080Ti-n miért nincs 16-32GB vram? Hát hogy rendereljek így? Vicc, és közbe azt mondja Jensen hogy ingyen van... az a szánalmas hogy a rengetegen még így is megveszik ilyen áron. Hát gratulálok. A sok birka. 
- 
			
			  Abu85 HÁZIGAZDA [link] - vótmácikk, csak még nincs konkrétum. Az, hogy összeraksz egy rakás RISC magot, nem nagy cucc, gyakorlatilag mindenki megcsinálta már. A lényeg, amikor végleges termék szintjén csinálod. Az a nehéz. (#39349) Petykemano: Készül egy cikk a Gen11-ről (nagyjából a 2/3-ada kész is). Annak megvan a whitepaperje, csak vannak kérdéseim, amelyekről előbb megkérdezem az Intelt. A GPU-s részleg válaszolni is szokott, így szeretem túráztatni a cégeket.  
- 
			
			  szmörlock007 aktív tag Igen, a Mellanox megvétele is jótékonyan hatott, hisz jelentős hozzáadott érték, meg alapból most nvidia jól szuperál, ahogy kihozta az egyre olcsóbb turingokat. Igaz, mostanában az intel meg az amd is eléggé felment, szóval a piacnak is van most egy felfele húzó hatása. Vagy csak ez a trió csapatja  Április 2 és 3 között mindhárom cég eléggé nőtt, valami lehetett ott. 
- 
			
			  _drk addikt 1650,1660,1660Ti,2060 ezeket mind tudni lehetett előre már a 2080-2080Ti bejelentéskor? 
 Így szépen leskálázva,ahogy mondod patika mérlegen kiszámolva? Majdnemhogy házon belüli verseny van az 1660Ti és 2060 között?
 Pletykák voltak persze , úgy mint most az 1180. Elvileg lesz, de biztost nem olvasok sehol.De a legviccesebb,hogy még a Pascal is elég lett volna Nvidia-nak egy kicsit átárazva.Csak szépen lepakolva a 2060 alá. Erre mondtam, hogy valamire készültek vagy készülnek. Az RTX eladásokhoz ez az új széria csak negatív hatással van. Ha lesz 1170-1180 meg totál bukó az egész. 
 Végül is nekünk jó, legalább ugyan azért a pénzért jobbat kapunk, hiába nem éri még.
- 
			
			  _drk addikt Okés, az túlzás, hogy beszartak, de ők azt nem tudhatták, hogy tényleg nem jön semmi a riválistól, csak azt láttak, hogy az RTX nem jól teljesít. 
 Plusz azt ők is láthatták, hogy jelenleg nagyon jó árteljesítményben vannak az Rx-ek, (vagyis voltak), ha mind felsőházban, mind alsóházban csökken a bevétel az már necces lett volna nekik.
 Erre kijöttek egy komplett új termék palettával, lehet hogy drágábban, de annyival erősebbel is.
- 
			
			  Abu85 HÁZIGAZDA Az alapötlet Sweeney-é. Ő vetette fel legelőször, hogy meg lehetne ezt csinálni. Csinált is egy tesztalkalmazást PC-re, illetve a Sony PS4 bemutatójára. Ez volt az Elemental demó. Aztán lelőtte az egészet, mert nem működött normálisan. De közben egy rakás cég elkezdte kutatni az SVOGI-t, nem csak az NVIDIA, viszont egyedül a Crytek jutott el addig, hogy PC-n ezt ténylegesen megvalósítsa. Az első működő SVOGI implementáció egyébként a Sony-é volt, de ők csak PS4-re csinálták meg azt. Amit a gyártók csináltak, hogy elkezdték vizsgálni az SVOGI-t a feladatok GPU-ra helyezése szempontjából. Még az Intel és az AMD is dolgozott rajta, csak nagyon gyorsan lelőtték az egészet, mert úgy látták, hogy megvalósíthatatlan. Ezután az Intel a VPL-re, míg az AMD az LPV-re tért át a kutatás szempontjából. Egyedül az NV maradt meg az SVOGI kutatása mellett. 
 A vezető technológia egyébként az LPV lett, azt alkalmazza a legtöbb motor, mert volumetrikus megoldás, és nem igényel előfeldolgozást.Legelső SVOGI bemutató egyébként az Elemental demó volt, ugye Sweeney ezzel már az előző évtizedben szemezhetett, így sikerült összeraknia egy programot 2012-re. Csak hát nem elég demonstrálni valamit kísérleti szinten, meg is kell azt valósítani ténylegesen. Az egyébként jó, hogy erre az egyes cégek rácuppannak a kutatás szempontjából. Ez viszi előre az ipart, ebben vitathatatlan érdemei vannak az NV-nek is, de rajtuk kívül még egy rakás ember dolgozott ezeken. A legnagyobb érdemei egyébként a Sony-nak vannak, egészen pontosan James McLarennek, ő talált olyan megoldásokat a problémákra, amelyek elvezettek a működő megvalósításokhoz. Nem véletlen, hogy a Sony alkalmazta ezt először egy játékban. 
 Ha pedig mindenképpen az NV-től keresel embert, aki tényleg sokat tett a működő, és nem csak mutatóba csinált SVOGI-ért, akkor Alexey Pantaleev az. 
- 
			
			  Abu85 HÁZIGAZDA Nekik azért működik, mert előttük senki sem találta ki azt az ötletet, ami miatt működik.  Amit linkeltél az például eléggé mutatja, hogy mennyire más, amit a Crytek csinál, ugyanis köztudott a CryEngine-ről, hogy a voxelizációt a CPU-n hajtják végre. Az Epic és az NVIDIA is GPU-n voxelizált, amit a Crytek már az elején kizárt, mert az előbbi két cégnek nem működött. Publikálhatod, hogy dolgoztál egy ilyenen, csak végeredményben, a Crytek megoldása működik, míg a te publikált cuccod nem. 
- 
			
			  Abu85 HÁZIGAZDA Sweeney megoldása soha az életben nem működött. Az egy dolog, hogy bejelentesz először valamit, hogy megcsinálod, de azt meg is kellene csinálni. Sweeney pedig nem csinálta meg, inkább hagyta az egészet. 
 Jelenleg az Unreal Engine main branch ezeket a megoldásokat támogatja:
 - Lightmass (ez teljesen baked opció)
 - DFAO (ez csak AO és nem GI)
 - DFGI (ez már GI, de kísérleti fázisban van jó ideje, az újabb verziók szétfagynak, ha bekapcsolod)
 - LPV (na ez működik valamennyire, de "ezer éve" kapott frissítést, szóval kb. halott)Szóval jelenleg az UE4-ben a main branch-ben nincs implementálva semmilyen SVOGI megoldás, de még olyan sem, ami minőségileg megközelítőleg hasonlót tud adni. Kb. a Lightmass az egyetlen, ami out-of-box használható, és az EPIC támogatja, vagy lehet licencelni az Enlightent. A VXAO nem működik main branch-csel, vagyis ha ezt választod, akkor az EPIC nem ad terméktámogatást, ami elég baj, mert bug van bőven a motorban, aztán ezeket javíthatod kézileg. Ez olyan költség, amit egyszerűen senki sem vállal be, ezért nem látsz egyetlen VXAO-s játékot sem az UE4-re. A CryEngine hatalmas előnye, hogy úgy kínál SVOGI-t, hogy egyrészt a megvalósításuk gyors, másrészt, ha bekapcsolod, akkor marad a terméktámogatás. Ez azért óriási különbség. A Crytek az SVOTI működését nem részletezi pontosan, de amikor még bemutatták, akkor mondták, hogy nem is indultak el azokon az utakon, amelyeken az Epic és az NVIDIA elhasalt. Egy teljesen újszerű megközelítést alkalmaztak, ami a saját szabadalmazott technológiájuk lett. 
- 
			
			  Abu85 HÁZIGAZDA Leírtam neked korábban, hogy ez nem igaz. Se az octree, se a globális illumináció nem az NV-től jött. Ezeket már nagyon-nagyon régóta ismerjük. 
 Az SVOGI-t valójában az UE4 kezdte nyomatni, legelőször Sweeney, de hiába erőltette egyszerűen nem működött nyílt területeken, aztán az NV csinált egy másik implementációt, aminek VXGI volt a neve. A VXGI már sokkal jobb volt nyílt terepen, viszont nem szerette, ha megmozdult valami a jelenetben. Ezért nem mozgot semmi az NV-nek a holdra szállós demójában. Azóta ezt megoldották, de óriási a VXGI teljesítményigénye, tehát a production ready szinttől nagyon messze vannak még.
 A Crytek az alapok tekintetében ugyanazokat elemezhette, amit az Epic és az NV, de tanulva a két cég hibáiból, egy új implementációt csináltak, amit SVOTI-nak neveznek. Ez volt az első SVOGI megoldást PC-re, amit egy játékban is bevetettek, és máig az egyetlen. Ez egyébként nagy előny a Cryteknek, mert amíg az SVOTI megoldásuk igen kevés erőforrást igényel, maximum 10%-ot vesz le a sebességből, addig a middleware-es UE4 VXGI, vagy a Unity SEGI inkább 60-90%-os mínusszal működik. És ez egyáltalán nem mindegy, mert hiába műtöd bele a motorokba ezt, a CryEngine integráltan tartalmazza a technikát, míg az UE és a Unity motorokat nem ezekre tervezték. Ezért rakott ebbe egy rakás pénzt a Crytek, mert egy integrált megoldás fényévekkel gyorsabban működik, mint a 3rd party cuccok, de rohadtul nem egyszerű ezt beépíteni tényleg működőre.
- 
			
			
- 
			
			  huskydog17 addikt Egyet értek. Számomra eddig messze ez a legmeggyőzőbb és egyben legszebb Ray Tracing megoldás, amit játékmotorban láttam. Egy új Deus Ex-et simán el tudnék képzelni egy ilyen motorral.  
 Na persze tisztában vagyok azzal, hogy a Square Enix nem fogja lecserélni a saját Dawn motorját Cryengine-re.
 Külön dicséretet érdemel a Crytek, amiért szabványos megoldást csináltak és nem csak RTX kártyákhoz kötik!
- 
			
			  Abu85 HÁZIGAZDA Ez csak HPC-only dolog. Nem tudnak otthoni szinten mit kezdeni. Otthon nem tényező az, hogy sok PC-t összekötsz tízezer dolláros komponensek használatával. A CCIX ISA-tól független, tehát ha azt támogatják, akkor igazából van memóriakoherencia akármilyen ISA-val rendelkező processzorral. Azt nem tudom, hogy az Intel CXL-je hogyan van specifikálva. Ahhoz képes, hogy nyílt szabvány, olyan nagy titok, hogy még az NVLinkről is sokkal többet lehet tudni.  
- 
			
			  gejala őstag DX12 előnye csak akkor fog kijönni, ha teljesen újraírják a motorokat olyanra, hogy a DX11 elhasaljon alatta. Shadow of the Tomb Raider már elmozdult erre, a városokban olyan a geometria, hogy a DX11 már nem bírja el. De igazán látványos grafikai előrelépést már csak a ray tracing fog hozni, raszterben már nincs hova innoválni. Fotorealisztikus árnyékokat és tükröződéseket nem lehet csinálni raszterrel, csak rengeteg munka árán összetrükközni valamit. 
 Metro Exodusban a mostani nagyon kezdetleges ray tracing is nagyságrendekkel jobb minőségű árnyékolást ad, mint amit valaha összehoztak raszterből.
- 
			
			  Yutani nagyúr Nem tudom, hogy a draw call növekedés hogy fordítódik FPS-re. Majd Abu elmagyarázza. Ugye, Abu?  Ez a draw call sosem hatott meg, engem mindig is a CPU utilization érdekelt az új API-kkal kapcsolatban. Szerk; Nem kellett volna szívniuk, akkor nem mondtak volna ilyen hülyeségeket!  
- 
			
			  Yutani nagyúr Ezeket a köröket anno a Mantle megjelenésekor lefutottam, nem megyek bele megint. Száz szónak is egy avége: ha valaki csodát várt a DX12-től (csillió FPS a semmiből), akkor az az arcán csúszik azóta is. Viszont ha reálisan állunk a dologhoz, a Division 2 jó példa a DX12 alkalmazására. Látom, közben szerkesztették. Abban biztosan egyetértünk, hogy még kevés játék használja úgy a DX12-t, hogy elengedi a DX11 kezét. Abu szerint ugyebár from scratch kell az engine-t Dx12-re tervezni, és az még hátra van. 
- 
			
			  Yutani nagyúr Érzem a különbséget, persze. De ezek az új API-k már a kezdetektől fogva arról szóltak, hogy a CPU-t fogják optimálisabban használni, nem arról, hogy találnak 30-40% plusz FPS-t az egyébként is már kihajtott VGA-kban. 
 A javuló min FPS számomra az erőforrások jobb kihasználását jelenti, tehát hatékonyabb az új API, mint a régi
- 
			
			  Abu85 HÁZIGAZDA 
- 
			
			  Abu85 HÁZIGAZDA Átlag szinten ~61 vs ~68 fps van. Minimumban ~31 vs ~50 fps. Azért nem kicsi ez a különbség a DX12 javára. (#39202) sylex1: Szerintem ne hajszold a 144 Hz-et, a legtöbb multis játék eleve nem frissít a hálózaton keresztül ekkora frekvencián. Vegyél valami nagy frissítésű Freesync monitort, és akkor variálható a frissítési frekvencia, aztán nem gond, ha nincs meg a 144 Hz. Az NV oldalán van hitelesítési lista a FreeSync cuccok G-Sync kompatibilitásáról. A felbontás a kijelző méretétől függ. Azért 27 colon már ajánlott az 1440p. 4K leginkább 32 coltól optimális. 
- 
			
			  Abu85 HÁZIGAZDA Azt, hogy a kilengések nem túl nagyok, így érzésre jellemzően nem számítottak, de alacsony sebességnél eléggé észrevehetőek voltak. A másik bejegyzés, hogy a játék 4K-ban 13 GB-ot kér max textúrák mellett, de nincs érezhető hátránya a 11 GB-os kártyáknak. 8 GB-ot kér WQHD-ben és 6 GB-ot Full HD-ben. (#39188) huskydog17: A streaming rendszerű textúrázás miatt ugye pont az a lényeg, hogy a memória igazából sosem fogy ki amolyan hard jelleggel, hanem állandó töltögetés lesz. A TechReportos Scott Wasson nemrég csinált egy mérést a korábbi tesztrendszerével, hogy hol számít igazán, ha nincs elég memória: [link] ... lényegében a memóriatöltéseknél mindig 50 ms fölé csúszik a frame-time. Igaz ez itt a Far Cry 5, ahol ugye még a DX11-es meghajtó él, így még a driver menedzselte a memóriát, de az látszik, hogy ha átdobod a hagyományos VRAM modellt HBCC-re, vagy raksz még egy csomó memóriát a GPU mellé, mennyivel csökken a kilengések száma. Az átlag fps tekintetében viszont ez nem igazán látszik. Ezért nem túl szerencsés egy normál menedzsmentet használó VGA-t a Division 2-ben a HBCC-s Vegákkal összemérni, mert a Vegán nem azt látod, hogy a GPU ennyivel jobb, hanem azt, hogy a HBCC kikapcsolhatatlan. A driver az ECM-mel csak az ICM-et váltja. Ha mondjuk rá lehetne kényszeríteni a Vegát, hogy működjön szimplán VRAM-ként az a 8 GB-nyi memória, akkor ugyanolyan kilengései lennének, mint a GeForce-oknak. 
- 
			
			  Abu85 HÁZIGAZDA Az mindegy igazából. A gyártósorok átalakítása is ugyanolyan jó, csak mivel az EUV itt nem kizárható, így olyan gyárak kellenek, amelyek az EUV-s berendezések hőtermelésére készülnek. Ezért csinált a TSMC két 7 nm-es verziót. Mert az EUV-s opcióhoz nem jó mindegyik üzem, míg az EUV nélküli alapvetően a meglévő üzemeken belül is biztonsággal kiépíthető. Trump bácsi támogatása csak annyit jelent, hogy nem lesz akkora veszteségük a 7 nm-es átálláson, de valójában sokkal többre mennének, ha 2022-ig lenne versenyképes node-juk. Marha sok idő van még a 7 nm-ig, mire azt normálisan beindítják simán 2023 végét fogunk írni. Addigra a TSMC és a Samsung GAAFET node-on lesz. Az Intel CEO-ja sajnos pénzügyes, így nem látja a hosszabb távú következményeket, de ha mondjuk lenne egy mérnök CEO, akkor most valószínűleg azon dolgozna, hogy licenceljék a Samsungtól az 5 vagy 3 nm-es node-ot. Azzal gyakorlatilag legalább arra a szintre hozhatják magukat, ahol az ipar áll, és akkor nem kellene a saját 7 nm-ükbe pénzt ölni, hanem mehetne a befektetés olyan területre, ahol vissza tudják szerezni a gyártástechnológiai előnyt. Azért érdemes már számolni azzal, hogy a 14 nm-t az Intel nagyon jóra ígérte, és alig indult be, a 10 nm-nél kevesebb problémát ígértek, és nem működött. A 7 nm most megint nagyon durva lesz, és... Amikor zsinórban elrontanak két node-ot általában érdemes elgondolkodni rajta, hogy nem-e érdemes lenne némi strukturális átalakítás. Csak ehhez tényleg egy vérbeli mérnök CEO kellene végre. Renduchintala ott volt most alternatívának, csak hát indiai születésű.  Pedig amióta ott van az Intelnél igen sok jó döntést hozott. Ha anno Perlmuttert választják CEO-nak, már rég előrébb lennének, csak ő meg izraeli volt. Pedig amióta ott van az Intelnél igen sok jó döntést hozott. Ha anno Perlmuttert választják CEO-nak, már rég előrébb lennének, csak ő meg izraeli volt. 
- 
			
			  pengwin addikt Szerintem igazad van, meg ez is közrejátszhat: Intel already has a heavy presence in the InfiniBand market through its line of products that come as the fruit of its $125 million acquisition of QLogic's IP back in 2012, while Mellanox is the only large-scale InfiniBand competitor. Lehet az Intel csak nem akarta, hogy valaki verseny nélkül vehesse meg a konkurenciát. Így kicsit feljebb tolhatták az árat, amit más cégnek fizetnie kell, de nekik is tudniuk kell, hogy egy ilyen felvásárlás miatt csúnya nézéseket kaptak volna a hatóságoktól. 
- 
			
			  Petykemano veterán Nemrég jött ki a 2060, ami jó, persze vágott TU106, de most jött ki az 1660Ti is, rajtra kész a 1660, meg 1650 is. MEg megy a szóbeszéd valami 1180-ról is, de ez lehet, hogy csak kamu. Gondolod, hogy ezeket csak fél évre tervezte az nvidia? Szerintem Ha jön is 7nm az Nvidiától, az a 2080-at és 2080ti-t válthatja - mármint úgy hogy fölé, nem feltétlenül abban az értelemben, hogy a 2080(ti) kapna EOL-t. Tehát én inkább számítanék valami olyasmire, mint a volta volt ,hogy egy lapka, amit elsősorban méregdrágán adnak HPC-be HBM-mel, de kegyeskednek a GPU teljesítmény-koronát egy szinttel feljebb vinni egy $2000-3000-os Titan példánnyal is. Ha ősszel tényleg jönne a most kiadott 1(5|6)60(ti)?-re ősszel 7nm-es mainstream (esetleg performance = 2070-2080) szintű kártya, akkor az azt jelenti, hogy az AMD-nek sikerült valami nagyon jót húznia. Ettől azonban én nem aggódnék. Tudjuk, hogy milyen a piaci/brand beágyazottság. Ha a Navi elképesztően jól sikerült is, akkor is csak 30-35%-ig emelkedne az AMD részesedés és meg se látszana a Steam survey statban. Ez ilyen tótum-faktum. 
- 
			
			  Abu85 HÁZIGAZDA A jövőben ezek a gyártók nem tudnak mit kezdeni egymás hardvereivel. Megmarad ugyan a PCI Express, de ki lesz egészítve. Az AMD-nél PCI Express with CCIX lesz. A Rome platform már támogatja, és innen nyilván hozhatod asztaliba is, viszont marhára nem lehet mit kezdeni a CCIX képességével, ha nem CCIX hardvert raksz bele. Az Intel azért nem lépett be a CCIX-be, mert zárt kiegészítést hoznak a PCI Express-hez. Tehát amit veszel majd hardvert az Inteltől GPU-ban, az sokkal többet fog tudni, ha az Intel CPU-ja mellé rakod, mintha egy AMD GPU-t raknál a gépbe. Ezzel szemben az AMD GPU-ja sokkal többet fog tudni, ha AMD CPU mellé rakod, mert működni fog a CCIX képesség, szemben az Intel GPU-jával, ami saját UPI kiegészítést használ a memóriakoherencia problémájára. Ha tehát egy cég vásárolni akart, az már nem tud, mert az AMD az IF és CCIX, az Intel a UPI, míg az NVIDIA az NVLINK protokollt dolgozta ki a memóriakoherencia kezelésére. És persze a PCI Express mint alap csatoló meglesz, de ha például egy CCIX-es hardvert nem CCIX-es PCI Express vezérlőhöz raksz, akkor a CCIX képesség nem fog működni. És ugyanez van más protokollokkal is. A hardver működni fog gyártói keveréssel, de a tudás egy részét bukod. 
 Annyira előrehaladottak már ezek a fejlesztések a gyártóknál, hogy ha hirtelen megvennék a másik divízióját, akkor négy évet buknának, mert át kellene tervezni a hardvereket. Vagy a CPU-kat vagy a GPU-kat.Egyébként a CCIX ugyan szabvány, tehát mindenki mehetne erre, de az Intel és az NVIDIA különcködik. Ők úgy érzik, hogy elég erősek ahhoz, hogy saját zárt rendszerrel arra kényszerítsék a vásárlóikat, hogy az Intelnél a CPU-khoz Intel GPU-t vegyél, míg az NVIDIA-nál a GPU-khoz, NVLINK-et támogató CPU-t vegyél. 
- 
			
			  pengwin addikt Sokkal valószinűbb a HBM. 
 Ha az eDRAM nem volt elég olcsó ahhoz, hogy az Intel széles körben építsen rá, akkor nem lehet olcsóbb a HBM-nél sem. És az Intel ilyen 128-256MB eDRAM-okat használt az aranyáron kínált APU-iba.(#39125) Venyera7 
 Az is jó lenne, bár én akkor biztos, hogy CPU-t veszek és nem APU-t.
 Azért el tudnám képzelni a csúcs APU-t 6/12-es felállásban, de nem fog beleférni ennek a generációnak a felépítésébe.
- 
			
			  Petykemano veterán Az árazással kapcsolatban nem tudok véleményt mondani. Az intel belső kapacitásai szűkösek, tehát ha apukat és mainstream gpukat akarnak gyártani, annak ki kell termelnie az árát. De nyilván nem véletlenül ölnek milliárdokat mostanság a gyártósorokba. A megítélésben lesz óriási különbség. Amikor az AMD kijön egy Radeon VII-tel, megy a fujjogás, hogy nem is túl erős, nem is olyan olcsó. Ha egy ilyet az intel betol, a press el lenne ájulva, hogy micsoda kegy az inteltől, hogy kaptunk egy ilyet. 
 Amikor az AMD kijön egy mainstream gpu-val - nem letaszítva a trónról az nvidia-t a felsőházban -, a press húzza a száját, hogy jójó, de akkor az AMD nem versenyez? Ennyire futja? Ha az intel tolna be apukat és mainstream gpukat a pályára (semmivel se olcsóbban), akkor a press az egekbe magasztalná, hogy végre itt van jézus második eljövetele. "Kicsit meleg, kicsit drága, de intel."Ezzel persze legkevésbé sem akarnék arra utalni, hogy meleg lesz mint a frissen pörkölt kávé. Valójában az AMD kártyái is elfogadhatóbb fogyasztással, normálisabb hőtermeléssel és olcsóbb VRM+hűtéssel olcsóbban lennének forgalomba hozhatók, ha végre lemondanának az utolso 5% teljesítményről és megoldanák a normális feszültséget. Ezt az intel valószínűleg meg fogja tenni és máris lesz létjogosultsága a vastagabban fogó ceruzának. Az lehet még egy érdekes kérdés, hogy vajon az intel meg fogja-e kínálni valami extrával a vásárlóit. Ha nem kifejezetten az olcsóbb ár / jobb teljesítmény, akkor vajon milyen előnyöd származhat intel GPU vásárlásából? 
- 
			
			  zovifapp111 senior tag 
- 
			
			  Petykemano veterán "Bestseller lesz" 
 Ezen gondolkodtam...
 biztosan az lesz, ez nem kétséges, hogy a steamben fel fog jönni, mint a gejzír.
 Ugyanakkor az előző "relative performance" ábrán az látszik, hogy pont ugyanúgy 30% difi van az 1060-hoz képest is. Tehát ez kiváló jóáras "1070", de ez a teljesítmény olyan kevéskének tűnik ahhoz, hogy valaki egy akár ennél valamivel olcsóbban vett 1060-at hanyatt-homlok rohanvást lecseréljen. Előrélépés, de nem visszautasíthatatlanul jó deal egy ~1060 tulajnak.
 1050Ti lenne a következő (nem számolva most a cross-brand vásárlókkal). Itt az előrelépés már látványos, ugyanakkor ez egy más árkategória, mint az 1050ti volt. Persze van ilyen, zsébernárdó is úgy vált elégedetté az előrelépéssel, hogy többet áldozva magasabb kategóriába lépett.
 Es valószínűleg ugyanez a helyzet a 1650 és 1050ti viszonylatában, hogy az árkategória stimmel, de azbelőrelépés nem jelentős.Nyilván persze egész máshogy fogják érzékelni ezt azok, akik a bányászláz közepén vásároltak, mondjuk 1060-at 125eFt körül. 
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- SAPPHIRE NITRO+ AMD Radeon RX 7900 XT Gaming OC Vapor-X 20G - Konzolvilág garancia 2027.05.07.
- ASUS RTX 5090 32GB GDDR7 ROG ASTRAL OC - Új, Bontatlan, 3 év garancia - Eladó!
- Gigabyte AORUS GeForce RTX 5080 MASTER ICE 16GB GDDR7
- ZOTAC GAMING GeForce RTX 3070 Ti AMP Extreme Holo
- RTX 3070 Founders Edition
- DELL PowerEdge R630 rack szerver - 2xE5-2650v3 (20 mag / 40 szál, 2.3/3.0GHz), 32GB RAM, 55992Ft+ÁFA
- Számlás!Steam,EA,Epic és egyébb játékok Pc-re vagy XBox!
- Azonnali készpénzes Intel i5 i7 i9 8xxx 9xxx processzor felvásárlás személyesen / csomagküldés
- ÚJ! AKRacing Arctica gamer szék
- ÁRGARANCIA!Épített KomPhone Ryzen 5 4500 16/32/64GB RAM RTX 3050 6GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő
 
								 
							 
								
 
								
 
								 
								![;]](http://cdn.rios.hu/dl/s/v1.gif)
 
								 
								
 Én megyek rakok egy kis AMD -s húsvéti csokitojást.
 Én megyek rakok egy kis AMD -s húsvéti csokitojást. 
 
								 
								 
								 
								
 
								
 
								 
								 
								 
								 
								 
								 
								
 
								
 
								

 
								 
  
								 
								 
								

 
								 
								 
								 
								 
								 
								 
								
