Új hozzászólás Aktív témák
- 
			
			
						GodGamer5
addikt
A komoly fizikához pedig nagyon is a hardver és a szoftver is akadály volt eddig. Dx11-en nagyon rossz a többszálú processzorok kihasználtsága és a négy mag sem volt eddig túl combos a különböző fizikai szimulációkhoz, főleg ha még a grafikát is ütősre tervezik hozzá.
A Zelda egyébkén nem tartalmaz víz, particle stb és egyéb hardverigényes szimulációkat és a grafikája sem éppen egy krájzisz... - 
			
			
						GodGamer5
addikt
Az xt verzió elvileg azt jelenti, hogy 8 gigás lesz, a sima pedig 6.
A kezdeti árazás biztos tragikus lesz, de pár hónap múlva beáll az ára. Mondjuk engem csak a dx12-es teljesítménye érdekel, ha az hozza az 1080-as szintet, akkor esélyes egy váltás, ha nem, marad a jókis 1070.

 - 
			
			
						Simid
senior tag
Szerintem érdemes mindegyik kártyánál azt nézni amelyikben jobb (NV ebben a tesztben DX11-gyel sokkal jobb).
Így 130 vs 122 a 5600 javára. Ez már elég jó lenne, főleg ha fölé még jönne egy ténylegesen erősebb XT (nem úgy mint az 5500 esetében...).
Mivel 1660Ti nem nagyon játszik a super megjelenése óta, így azért van egy elég nagy szakadék NV esetében ~$230 és a ~$400 2060S között . Ha sikerülne érezhetően a 1660Super/Ti felé lőniük a teljesítményt, akkor akár egész érdekes is lehet.
 - 
			
			
						DudeHUN
senior tag
Most is le fogja lépni 2 év alatt grafikailag. Ezt el kell fogadni. Majd jön egy Pro verzió, azzal még 3 évet tolnak a dolgon. Egy kis dobozba szánt, a tévé alá kitalált eszköz amúgy sem tud versenyezni azzal, ha PC-n csak a VGA többet fogyaszthat, mint az egész konzol.
A másik meg a Nintendon kívül (de már ök sem) a konzol gyártók bekerülési összegben, vagy bukóval árulják a gépeket és a játékok, szolgáltatások hozzák vissza az árat.
Más piac a konzolos. Ott ha csak egy 7-800 dolláros modelled lesz sosem.adod el. Főleg, ha mellette a konkurencia mondjuk 500-ért árulja a masináját.A PS4 Pro, amit tud 1440p-ben, annál kategóriákkal többet fog tudni grafikailag 4K-ban a PS5 egy RX 5700 erejű GPU-val.
Btw. engem nem zavarna, ha AVR méretű konzolok lennének 1000 dolláros áron. Az odaverne. De ez nem fog megtörténni. Az embereknek egy 500 dollár körüli gép kell, ami elfér az Ikea tévé állványon, ahogy a PS4 tette.
 - 
			
			
						Petykemano
veterán
én komoly dilemmát sejtek.
4K 60fps - jelenleg - biztos komolyabb hardvert igényelne. Mondjuk $800.
Meg itt van az SSD kérdése is.
Oda akarok kilyukadni, hogy biztos dilemmát okoz, hogy ha egy konzol nem tud 4K 60fps-t, akkor miért venné meg valaki? Hiszen 1080p-re képest hardver a Stadián ingyenesen elérhető. Ha tehát a konzolgyártó szeretné magát megkülönböztetni a Stadiától, akkor a konzol kell hogy tudjon 4K 60fps-t, de nyilván ehhez meg csak pont annyit kérhetnek el, hogy mondjuk az ne legyen több, mint 2-3 évnyi előfizetés a 4K Stadiára.
A másik út az, hogy lemondanak a helyi géperőről és azt mondják a vásárlónak: vedd meg ezt az olcsó visszafelé kompatibilis konzolt és a mi stream szolgáltatásunkra fizess elő. Ekkor viszont a stream szolgáltatásnak kell versenyképesnek lennie a Stadiával.Szerintem ez még nincs teljesen eldöntve. Az a kérdés, hogy tudhatnak-e a játékok olyan dolgot, ami feltétlenül szükségessé teszi a helyi erőforrásokat (a VR-ról ezt gondoltuk, de végül ebből nem lett olyan nagy durranás), vagy olyat, amivel a felhőben elérhető kapacitás mondjuk nem tud lépést tartani.
(A hardvergyártók nyilván utóbbiban érdekeltek.) - 
			
			
						DudeHUN
senior tag
A konzol piacon nem lesz 800 eurós induló gép ár. Az még elképzelhető, hogy lesz egy alap verzió 499-ért és egy Pro verzió 599-649 környékén, de a 7-800 dolláros konzol nem fog fogyni. Már a PS3-ba is majdnem belebukott a Sony. Többször nem rizikózzák meg. 499. Reális és még magasabb is lenne, mint a PS4 nyitó ára (399$). Abban is a hardver (soc) költsége 200 dollár alatt volt.
 - 
			
			
						keIdor
titán
Nem lesz bukta, 2022-ben már akciózni fogják, addig a "szegény ember konzolja" marad a régi generáció.
1000-1200€ telefonokból több tízmillió/modell megy el évente. Gondolok itt az iPhone, Galaxy S stb. modellekre, egy fele/kétharmad ennyibe kerülő konzol, ami évekig jó az fogyni fog.
700-800€-ért is vinnék mint a cukrot. 2013-ban többet ért 500€/USD, mint manapság.
Nézni kell az inflációt is, valamint drágább ma hardvert gyártani, mint akkor. - 
			
			
						keIdor
titán
Pedig ez a mostani komolyabb generációváltásnak tűnik egyelőre. 2013-ban spóroltak a CPU-n.
Q6600 szint egy magot nézve, Digital Foundry kb. kimérte, hogy akörüli teljesítménye van a konzolokban lévő Jaguarnak. Most nem azért, de egy 2x Core 2 Quad Q6600 ---> Ryzen 3700X marha nagy ugrás lesz. Még ha alulórajelezik a CPU-t akkor is +600-700%-okról beszélünk csak a CPU oldalról.
 - 
			
			
						huskydog17
addikt
Rengeteg kártya jó még a mai napig, csak a fent említett játék lett iszonyatosan elb*szva technikai szempontból. Szóval a Borderlands 3 alapján véletlen se ajánlott bárminemű következtetést levonni.
Az is vicces, hogy a Polaris-ok nem voltak hajlandóak működni (Crash felirat), még a 8 GB-os verzióknál is, vagyis nem a VRAM mennyiség volt ott a probléma, hanem a DX12 mód egy rakás trágyadomb ebben a játékban.
A performance mindkét leképzőnél egy rossz vicc. Vega64/GTX1080 kell a FullHD/60fps-hez? Ez az iskolapéldája hogy hogyan nem szabad PC portot csinálni. - 
			
			
						Abu85
HÁZIGAZDA
Igazából, ha HDMI 2.1 van a kijelzőn, akkor működnie kell, mert a HDMI 2.1 VRR az szabványos, és a szoftver, amit az NV csinált az ezt célozza. Persze nem mondhatják rá, hogy tutibiztos, de mivel nem HDMI-s FreeSync-féle zárt rendszerről van szó, így egyik gyártó sem csinál eltérő dolgokat, amelyeket külön le kellene kezelni.
 - 
			
			
						Abu85
HÁZIGAZDA
Ami rossz az rossz, ami jó az jó. Ennyire egyszerű. Itt nincsenek oldalak.
Az, hogy a kiadó sürgeti őket már önmagában egy probléma, mert ettől a végeredmény sokszor lesz rossz. És a kiadó számára nem egy opcionálisan bekapcsolható effekt lesz a fontos, hanem a játék maga. Ehhez tényleg kellenek a konzolok, mert ott akár az is előfordulhat, hogy maga a játék van úgy felépítve, hogy az AI upscaling a leképezés fontos eleme, és akkor az nem csak úgy lesz kezelve, hogy meh... hanem rászánják az időt, hogy jó is legyen, és arra már a kiadó sem mondhatja, hogy baszki nincs több idő, adjátok ki, mert dizájnból úgy tervezték a játékot, hogy az AI upscaling nélkül nem jó a sebesség és a végeredmény. Tehát a Microsoft megoldása nem azért más, mert másképp csinálják, hanem egyrészt ott az Azure, amely összesített számítási kapacitásban mérföldekkel több, mint ami az NV-nek van, és ennek egy jó részét pusztán oda tudják adni a fejlesztőknek, hogy Xboxra jól megcsinálják. Aztán persze lehet ezt hozni PC-re, valószínűleg a Microsoftot nem fogja érdekelni, de mivel a DirectML ugyanaz lesz a következő Xboxon, mint PC-n, ezért az egész fejlesztés egy az egyben másolható.
Az NV megoldása is lehetne jó, csak láthatóan nem érdekeltek abban, hogy ebbe pénzt fektessenek, mert ha azok lennének, akkor teleszórnák a fejlesztőket szerverekkel, hogy csinálják a neuronhálót, de nem csinálják ezt. A DLSS szerintem egy nagyon gyors ötlet volt arra, hogy van egy rakás sötét szilícium a hardverben a Tensor magok által, és azokat nem tudták mire használni. Kitalálták, hogy jó lesz az AI upscalingra, meg is csinálták, mert nem nagy művészet ennek a szoftveres háttere, csak azzal nem számoltak, hogy itt a minőség kulcsa nem a hardveren műlik, ami nálad van, hanem azon, hogy mekkora erőforrást hajlandó a minőségért befektetni a játék fejlesztője. Jelen állás szerint nem sokat, mert a DLSS minősége a játékokban a ritka ronda és a - jó szándékkal - közepes szint között van. És ez ellen nem tud tenni az NVIDIA, mert nem érdekeltek abban a fejlesztők, hogy a legalább jó szinthez szükséges erőforrást belefektessék. Szóval ez alapvetően nem az NVIDIA hibája, látható, hogy a 3DMark DLSS tesztje jól működik (sőt kiválóan), csak az egy 3 perces jelenet, arra nem művészet ezt megcsinálni. Egy 10-20 órás játékra már sokkal körülményesebb. Úgy mondanám ezt, hogy a 3DMark bemutatta, hogy maga a DLSS alapvetően tudja azt, amire tervezték, csak a játékoknál fejlesztők szarnak bele, hogy ezt kihozzák, egyszerűen se erőforrásuk, se pénzük rá, hogy egy korlátozott usernél bekapcsolható fícsőrre koncentráljanak. Emiatt lesz más a konzolnál, mert ott aztán minden usernél működni fog, tehát megéri ebbe pénzt és erőforrást rakni, mert optimalizálásként lehet majd felfogni, és ha már működik, akkor mehet copy-paste PC-re is.
 - 
			
			
						huskydog17
addikt
Igen, gondolom azért, mert mindhárom felbontást engedi az összes RTX kártyán DLSS alatt, viszont sajnos DX12-ben grafikai hibák jelenhetnek meg, így járt a CB is, de még Gronkh is emiatt használta a DX11-et. Egyébként érdekes az is, hogy ez is egy olyan cím, ahol a DX11 leképző jobban működik, mint a DX12, egyrészt a régi API alatt nem csak gyorsabb a játék, de a grafikai hibák is eltűnnek.
AMD esetén alapértelmezetten DX11-ben indul a játék, nem véletlen, Navi alatt akár 13%-al is gyorsabban fut így.A CB esetén is a DLSS csak felerősítette a hibákat, illetve 1080p alatt erősen mosott lesz a kép, mivel a játék alapból nem túl éles képet ad (kikapcsolhatatlan élsimítás).
A játék meglehetősen lassú alapból is, ugyanis 1080p alatt az RX580 és GTX 1060 csak minimális grafikán hoz jó sebességet, de mindent elmondanak a grafikonok.
A brutális gépigényt a Hardwareluxx és PCGH tesztjei is megerősítik.
Összességében azért nem vagyok elájulva ettől, mert a játék látványa szerintem messze nem olyan, hogy ekkora gépigényt igényeljen, az meg, hogy a DX11-es leképző jobban működik, mint a DX12-es, nos láttunk már ennél sokkal jobb PC portokat is. Northlight motoron bőven van még mit reszelni.
 - 
			
			
						Abu85
HÁZIGAZDA
Viszonyítás kérdése. Ahhoz képest jó, hogy pár játék milyen szar képet rak eléd DLSS-sel, de az elvárható minőségtől fényévekre van.
Ugyanaz a probléma mindig. A jó eredményhez jó neuronháló kell, de mivel alapvetően ez csak egy kikapcsolható fícsőr, így nincs értelme belerakni a gépidőt. És itt elcsúszik az egész, mert nem úgy tekintenek rá a fejlesztők, hogy ezzel optimalizálnak, hanem csak megvásárolja tőlük a funkció beépítését az NVIDIA, de eközben a fejlesztői oldalon kb. semmi kedvük arra, hogy ebbe erőforrást rakjanak. A pénz jól jön, aztán szarnak az egészre, miközben a probléma megoldása kellően bonyolult ahhoz, hogy ha ehhez így állnak hozzá a fejlesztők, akkor annak nagyon felemás eredményei lesznek.
Ezen az segíthetne, ha a Microsoft beállnak az egész mögé a következő generációs Xboxnál, és kb. odatolná az Azure-t a fejlesztők segge alá. Tessék ott egy rakás ingyen számítási kapacitás a felhőben, és csináljátok meg az Xboxra jóra, aztán az a neuronháló vihető PC-re is. Az NV-nél ugye a számítási kapacitás nincs ingyen, hiába a reklámszerződés a funkcióra. Ha kifogy az erre szánt büdzsé, akkor ez van, otthagyják szarul a funkciót. Szóval az iszonyatosan sokat jelentene, ha a fejlesztőknek a Microsoft adna ingyen gépidőt.
 - 
			
			
						Yutani
nagyúr
Nem tudom, nekem valahogy tiszta, hogy a szilícium chip belsejének hőmérséklete és a VGA kártya PCB-jének felületi hőmérséklete nem ugyanaz.
Mindenesetre a chip belsejében mérhető 110°C ijesztő, ebben egyetértünk, és remélhetőleg a custom 5700-akban nem tapasztalunk majd ilyet. Most, hogy már tudjuk mérni.
 - 
			
			
						Abu85
HÁZIGAZDA
Nagyjából azt jelentené, igen. Bár itt számít az is, hogy mennyire van közel a dióda a legforróbb ponthoz. Általában nem a lapka közepére szokás rakni, hanem valamelyik shader tömbbe, méghozzá abba a tömbbe, amely közel van az egyes multimédiás blokkokhoz. De ettől persze bőven elképzelhető, hogy a lapka másik végében jóval nagyobb a hőmérséklet egy specifikus munkafolyamat miatt. A Navi 10-nél ez mindegy, ott már teljes hőtérkép van, tehát konkrétan meg tudja mondani a rendszer, hogy hol van a legforróbb pont, és az milyen hőmérsékletű.
Az órajel-szabályozáshoz nem elég, ha csinálsz egy ilyen rendszert, azt is el kell érned, hogy finom szemcsézettségű legyen a paraméterezhetőség. Ezért jött a finomszemcsés DPM mechanizmus és a hőtérképes mérés együtt. Külön-külön nem sokat érnek.
 - 
			
			
						Abu85
HÁZIGAZDA
Minden eladott hardver úgy van beállítva, hogy bírja a terhelést. Az hogy képes-e kimérni a szilícium legforróbb pontját, vagy nem lényegében csak azt befolyásolja, hogy képes-e minden pillanatban beállítani a lehetséges legmagasabb órajelet, vagy nem. Tehát attól sincs igazából gond, ha egy hardver nem képes meghatározni a lapka legforróbb pontját, hanem esetleg 10-15°C-szal kisebb hőmérsékletet mér a diódával, mert a tesztek során be lett állítva erre a helyzetre is, és stabilan, a hardver károsodása nélkül átvészeli az egészet. Csak nem akkora órajelen fog futni, mint amekkorával futhatna, ha pontosabb lenne a mérés.
 - 
			
			
						Raggie
őstag
Pontosan kimérte a külső felületük hőmérsékletét. De nem azt, hogy belül mennyire voltak melegek.
A VRM-nél ez jóval egyszerűbb, mert ott ha nincs rajta hűtés, akkor kvázi a chip felületét nézed ami kis kiterjedésű és konkrétan pár tized mm-el alatta melegszik.
A GPU-nál ez közel sincs így... - 
			
			
						Abu85
HÁZIGAZDA
A szilícium hőmérsékletét ezzel nem fogod látni.
Az órajel-szabályozás esetében tipikusan az jelenti a problémát, hogy a szilícium nem minden pontján ugyanolyan hőmérsékletű, viszonylag nagy különbség is lehet két pont között, és egy-egy ponton, akár egy másodperc alatt hevülhet vagy hűlhet ~10-15°C-t. Ezeket sehogy sem lehetett eddig mérni. Teszttapasztalatok alapján lehetett rá következtetni, de gyakorlatban mérhetetlenek voltak. A Navi 10 az első GPU, ami mérni tudja ezeket. Valószínűleg nem az utolsó GPU, mert a legnagyobb teljesítményt akkor tudod kihozni a GPU-kból, ha a beépített rendszer tényleg kiméri a legforróbb pontot.
 - 
			
			
						Egon
nagyúr
Jaja, PoorVolta 2.0...

Úgy látszik, az AMD-nél nem csak Raja volt az, aki "rajkodik"...
 Neki legalább nomen est omen, de a többieknek... ![;]](//cdn.rios.hu/dl/s/v1.gif)
Egyébként a konkurenciánál legalább van belőle hír: [link] Úgy látszik Abu kezd óvatos lenni: a beégésre alkalmas hírek inkább nem jelennek meg (elég neki ha a be nem teljesült jóslatai miatt ég...
 ). - 
			
			
 - 
			
			
						huskydog17
addikt
Nagyon röviden azt történt, hogy az AMD ugye a 19.7.3-as driverben támogatta hivatalos az új Wolfi játékot, csakhogy ez a driver több problémát is hozott, mint amennyit megoldott. A PCGH és CB több összeomlást is tapasztalt kizárólag Navi VGA-k alatt. Ezt a 19.7.5-ös driver javította, csakhogy az előző kettő, amivel mindenki tesztelt sajnos instabil volt. Ezeken felül a PCGH VRAM allokációs problémákról és grafikai hibákról is beszámolt, ezek mind kizárólag a Navi VGA-knál fordultak elő.
Ez ugyan nem a két cikkben van, de a 19.7.3 továbbá a GTA V alatt is sokszor elcrashelt, ezt a 19.7.4 javította. Ezen felül a 19.7.3 megváltoztatta az idle fan tempót, ami miatt kicsit hangosabb lett az amúgy sem acélos referencia hűtő alapzaja. Erről a techpowerup számolt be.
Pug: Tök jó, csakhogy ezzel elkéstek, mert a tesztek többsége és ugye a lets play-ek már lementek az első pár napon és ha valaki olyankor ütközötött problémába (márpedig jópáran voltak), akkor ők jogosan könyvelhették el, hogy Navi nem szereti a Youngblood-ot. Az AMD ezzel elkésett, mert nem valószínű, hogy bárki újrateszteli vagy újrajátsza a játékot csak a 19.7.5 miatt, főleg úgy,hogy a 19.7.3 is már hivatalos támogatta a játékot.
 - 
			
			
 - 
			
			
						Abu85
HÁZIGAZDA
A ReShade verzió megy minden DX11/OGL játékon. De amúgy nem ugyanez van a driverben, mert ez a CIS portja, a driveres pedig egy módosított CIS, ezért nem ugyanaz a neve. Az eredmény tekintetében a driveres RIS verzió két dologban különbözik a CIS-től:
- egyrészt a PAL szintjén van írva (ez a hardver fölötti legalsó réteg, vagyis szinten assembly szintű kódolásról van szó), tehát több nagyságrenddel gyorsabb, ami mondjuk az effekt jellege miatt elfogadható így is, mert maga a CIS shader 4K-ban 400 mikromásodperc alatt fut 5700XT-n, tehát a ReShade verzió kb. tudni fog 600-900 mikromásodpercet a kevésbé erős hardvereken. Ez így is 2-3 fps mínuszt jelent csak, a felbontás csökkentésével még kevesebbet.
- másrészt a RIS annyiban módosítva van a működést tekintve, hogy erősebb élesítés mellett se adjon túl sok képi hibát. Ez a CIS-ben nem létezik, mivel itt a fejlesztők eleve rászabhatják a működést az adott játékra, ami a RIS esetében ugye nem lehetséges, tehát külsőleg kényszerített eljárásnál általánosan kell jónak lenni, nem pedig specifikusan. A CIS-nél az is lehetséges, hogy csak a kép egy részére alkalmazzák, a motorba történű direkt beépítésnél nagyon sok opció van.DX12/Vulkan játékokra az AMD megoldása kell. Itt a memória vezérlésének jellegzetessége miatt még maga a meghajtó sem tudja segítség nélkül, hogy hol vannak módosításra kijelölt pufferek. Ezt az AMD például úgy csinálja, hogy van a meghajtóba építve egy RGP rutin, ami feltérképezi a memóriát a DX12/Vulkan játékoknál. Na most ezt egy külső programmal marha nehéz megoldani, gyakorlatilag játékonkénti optimalizálás kell hozzá, és ha jön egy patch, akkor jól ki is végzi a működést, vagyis mindent lehet a nulláról kezdeni.
A ReShade egyébként nekifutott megint a DX12 támogatásának, immáron másodjára, de tényleg kellene nekik úgy 150-200 ember, hogy ezt reálisan meg lehessen oldani a meghajtón kívülről. - 
			
			
						huskydog17
addikt
Persze, hogy megy, a moddolt verzió.

Itt a lényeg:
"Navi doesn't have any unique hardware for this, it can be optimized with Navi's FP16 instructions but Vega and Turing support that as well. However ReShade doesn't support FP16 so we have to use the FP32 version regardless of hardware. On my RTX2070S it takes 0.15ms to evaluate ReShade CAS at 1440p.
Like driver CAS this is sharpening-only, the upscaling variant of CAS requires integration into the game engine."
Érdemes nézni ezt a topicot.
A driveres és a Reshade RIS kizárólag sharpeninget csinál. Ahhoz, hogy skálázni lehessen vele, bele kell építeni a játék motorjába, pont úgy, mint a DLSS esetében.
 - 
			
			
						Raymond
titán
"Csak ha a Shader cache le van véve 0.7re"
Meg mindig nem ertem ezt honnan szeded.
Azert a DLSS-el hasonlitjak ossze mert a DLSS lenyege az volt hogy kisebb felbontasban renderesz es ezt szuperintelligensAI felskalazza 4K-ra jo minosegben. Aztan latod mi lett belole.
Ez meg tobbek kozott ezt is csinalja. Ezert van ott a 2560x1440 rendereles es felskalazas/elesites 4K-ra ami aztan a DLSS kepminosegevel van osszehasonlitva. A DLSS-nek itt vege, de az elesitest nativ kepre is ra tudod rakni, ahogy a videoban is szo van rola ez akkor lehet jo ha valamilyen jatek szetmaszatolja a kepet a sok PP effektel (hello Codemasters, hello Ubi).
 - 
			
			
						ChME
tag
Azért, mert a DLSS a végeredményt tekintve egy leskálázás + élesítés. Ahogy a videóban elhangzik, a shader scale-t úgy állították be, ami megfelel az adott játékban a DLSS által használt leskálázásnak, és erre küldték rá a RIS-t, ami így shader scale+RIS csomagban ugyanazt próbálja csinálni, mint a DLSS. És persze nyersz vele FPS-t.
A Sharpened 4k esetében nem lehet direkt DLSS összehasonlítás, mert nem tudsz (ugye?) DLSS-t futtatni úgy, hogy ne skálázza le a rendert.
 - 
			
			
						Petykemano
veterán
szó szerint patikamérleg.
Itt még csak talán nem is az dönthetne egy tiszta (értsd mindshare támogatás nélküli) helyzetben, hogy melyik olcsóbb vagy jobb, mert láthatólag annyival jobbak egymásnál, amennyivel drágábbak is.
de azokon a spotokon, amik olyan szép kerekek, nvidia kártya ül.BEst gpu for $400, best gpu for $500
A 450 esetleg elgondolkodtató, mert pont középen van, de aki $500-t akar költeni, a $450-hez képest pont azt érzi, hogy megéri elkölteni azt az $500-at, amit erre szánt. Aki meg $400-ban gondolkodot, pont nem fog rákölteni még $50-et.
A $380 meg még inkább ilyen. Nem $380-an gondolkodik az átlagember, hanem $400-ban. A 2060S pedig megintcsak jobb annyival, amennyivel drágább, aki $400-ban gondolkodott, nem fogja lespórolni azt a $20-t a végéről.Szerintem az AMD igazából emiat lenne kénytelen $350-re és $400-ra igazítani az árait.
IGazából aközül kell választaniuk, hogy lemondanak a debüt extramarginról - mert ugye a fanok ennyiért is megveszik, vagy pedig a debüt chartokra a fenti konnotációval kerülnek-e fel, s az első benyomást egy 2-3 hónap múlva végrehajtott árcsökkentés már kevéssé fogja befolyásolni. (Persze akkor meg megveszik, akik addig drágállották) - 
			
			
						Petykemano
veterán
Szerintem az optimalizálás az alábbi nem feltétlenül egymást kizáró, de valamiféle fontossági sorrendet mindenképpen leíró lista alapján történik:
1.) Ha valaki (mármint hardvergyártó) megfizeti azt, vagy szellemi erőforrást dedikál
2.) Amelyik hardver a játék célközönségére jellemző, nagy arányban fordul elő
3.) Amelyik kényelmes, könnyű, olcsóAz AMD a 3.) érdekében tett az elmúlt években sokat: profilozó meg dokumentálás, open-source, stb. Meg most még egy lépés, hogy a hardver teljesítményét nem rontja, ha más hardverre optimalizált kódot kap.
Teljesen egyetértek, hogy ez nem fogja felborítani az eddigi optimalizálási rendet.
 - 
			
			
						Petykemano
veterán
Szerintem ennek örülni kell. Végre egy fícsör, ami outofthebox működik, nem attól függően lesz olyan jó az amd kártya, mint elméleti tudása szerint lennie kéne, hogy vajon hajlandó-e elbíbelődni valaki a sarokban akkor is, ha kiválóan dokumentált és rém egyszerű.
Ha ez igaz, akkor innentől nincs az, hogy Gameworks, meg turingra optimalizálták, mert bár pazarlóan, de a navi megoldja.Attól meg nem kell félni, hogy bárki elkényelmesedne és emiatt helyzetbe kerülne az AMD és kínlódna az Nvidia. Hiszen ez történt az elmúlt... 4 évben. /NEM/
 - 
			
			
						Abu85
HÁZIGAZDA
Az Intelnek ez csak a papír miatt kell. Amúgy elég drága a rendszer, elég sok pénzt emésztene fel szoftveres szinten, és eközben nagyon sokat is fogyaszt. Kétszer többet, mint az új EPYC. Krzanich egy csomó fejlesztést kinyírt, ezeket nem lehet visszahozni és most fejvesztve legóznak össze mindenféle töltelékterméket, hogy legalább a versenyképesség halvány látszatát fenntartsák, de ugyanakkor ezekkel már nem akarnak foglalkozni kereskedelmi szinten, mert ott már nyűg lenne.
Csak azt vedd figyelembe, hogy 2020-ban három, azaz három eltérő szerverplatformjuk lesz, amikor a gyártók számára egy platformra is sok-sok millió dolláros tétel felkészülni. Ez a kapkodás jele, hogy számos, hirtelen elindított projekt egyszerre ér be, de ők sem tudják eldönteni, hogy melyik a jó, így kiadják mindet. - 
			
			
						Abu85
HÁZIGAZDA
Persze, csak nincs ugye forgalmazó.
Alapvetően a Cascade Lake-AP esetében az Intel követelményei csak arra szolgálnak, hogy a termék ne legyen vonzó egyetlen komolyabb partner számára sem. Gyakorlatilag csináltak egy processzort, amire úgy rakták össze a rendszerszintű igényeket, hogy a Dell EMC, HPE, Inspur, Lenovo, QCT, Huawei, Supermicro, ésatöbbi, semmiképpen se akarjon erre terméket piacra dobni. És ha megnézed, akkor ez bejött, mert egyik komoly szervergyártó vagy OEM nem kínál az érintett modellekre terméket. - 
			
			
						hokuszpk
nagyúr
"Az hogy ha AMD nem támogatja azért rossz, mert hátráltatja az elterjedését elvégre a köv gen konzolok, Nvidia és Intel is támogatni fogja, "
ha a NAVIban nem is lesz benne, de ahogy irod kovi konzolgenben lesz, azok meg jelen ismereteink szerint AMD cuccbol osszerakva varhatoak.
viszont amig nemjon az a konzolgeneracio, addig szvsz teljesen jo dontes az AMDtol, ha nem erolteti.
majd a konzolokkal megjon a kritikus tomeg is, aztan elterjed jol. - 
			
			
						hokuszpk
nagyúr
"Itt boltokrol volt szó amúgy, nem szerveruzemeltetokrol.."
bolt se fog 24 oras cseregarit biztositani. az 56 magos xeon nem szervercucc ?
"Nem tudom elkepzelni, hogy egy szerverekkel foglalkozó bolt/cég elhajt ha ilyen zsíros falatot tud eladni.
A garancia feltételei vetelkor kötetnek."szvsz attol fugg mekkora hasznot tud ratenni. de ha veszek egy ilyen eromuvet, akkor valoszinuleg valami olyan feladatra fogom hasznalni, ahol nemigazan toleralt a leallas, kell a 24H csere.
szoval ha hajlando 24 oras cseret vallalni, akkor ott raktaron kell lennie cseredarabnak. Ez nagyobb darabszam/forgalom eseten erheti meg a boltnak, vagy ha kb.tripla aron tudja adni. Utobbit nembiztos, hogy sokan kifizetik. - 
			
			
						Televan74
nagyúr
Csodálkozol rajta? Az RTX ütött a népnek,egyeseknek mindegy mennyit fizetnek egy alig használható dologért,ami majd egyszer tényleg jó is lesz, ezt nem vitatom.
Azóta is kérdés hogy lesz e RT az új Naviba. Pedig számomra nem ez fogja eldönteni hogy megveszem e a terméket. De figyeld meg a online médiumokat és a fórumozókat ha nem lesz benne,le fogják hordani a sárga földig.Számomra ami fontos az a teljesítménye és az ára. - 
			
			
						hokuszpk
nagyúr
 - 
			
			
						schwartz
addikt
Most komolyan, kit erdekel egy ocska jatekban a ray tracing? Es muszaj ezt ide linkelgetni? (talalgatosba is betoltad, meg ki tudja meg hova) Bejovok ide, olvasni valami erdekeset, pl. illegalis bennfentes tozsdei ugyletek miatt szorongatjak a burdzsekis tokeit, e helyett ez a rejtresz COD. Amugy a Quake2-t mar linkelted? Ha nem, potold kerlek...
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#39697) Abu85
Na most nem fogok tudni aludni, ha nem beszelhetsz rola. - 
			
			
						Abu85
HÁZIGAZDA
Ettől még elnevezhetik 3080-nak, ha akarják. Mint írtam ez csak egy szám. Az NVIDIA majd beperelheti őket, ha a világon elsőként képesek lesznek egy számot levédetni.
(#39675) Televan: Na igen. Nagyjából ez a gond a számok levédésével, és ezért dobják vissza ezeket a kérelmeket.
 - 
			
			
						Abu85
HÁZIGAZDA
Számot nem lehet levédeni. A Naviból minden le van védve, amit le lehet, de úgy nem fogadják majd el a beadott kérelmet, hogy RX 3080. A számot visszadobják. Elnevezhetik annak, de az RX részét leszámítva nem védethetik le. Az NV is hiába adta be az RTX 3080-4080-at, a számot vissza fogják dobni belőle.
Ezeket például úgy lehetne védeni, ha így írnák ki: 30∞0. Ez levédhető, de a 3080 nem. - 
			
			
						Carlos Padre
veterán
Megvilágítom miért nem érted a cégek működését: jelenleg az aprót úgy szedik fel a földről, hogy lábbal összekotorják, majd lehajolnak érte, semmi fölösleges energia befektetés, szemük végig a nagy zsozsón, te viszont elvárnád, hogy négyütemű fekvőtámaszt bemutatva egyesével szippantsák fel az érmeket, szájjal.

A Dunakanyarban is elvannak az aranymosók, jó levegő, napfény, még talán pénzük is van belőle de egy komoly vállalkozást inkább ne akarj ráépíteni.
 
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Rendkívül ütőképesnek tűnik az újragondolt Apple tv
 - Arc Raiders
 - Casco és kötelező gépjármű felelősségbiztosítás
 - Gaming notebook topik
 - Milyen asztali (teljes vagy fél-) gépet vegyek?
 - Apple iPhone 16 Pro - rutinvizsga
 - Az Oppo Find X8 Ultra lett a legvékonyabb kameramobil
 - Milyen billentyűzetet vegyek?
 - PlayStation 5
 - Parfüm topik
 - További aktív témák...
 
- ÖNERŐ NÉLKÜL, 12 RÉSZLETRE ELITRO PC BANKMENTES KAMATMENTES RÉSZLETFIZETÉS
 - Asus TUF Gaming F15 FX507 - 15,6"FHD 144Hz - i5-12500H - 8GB - 512GB SSD - RTX 3050 - 1 év garancia
 - Xiaomi 14T Pro 5G 512GB, Kártyafüggetlen, 1 Év Garanciával
 - LG 40WP95XP-W - 40" NANO IPS - 5120x2160 5K - 72Hz 5ms - TB 4.0 - HDR - AMD FreeSync
 - LG NanoCell 43NANO763QA csere is érdekel (dobozával minden tarozéka meg van)
 
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
								
							
								
								
								
 
								
 
								
								
								
								
								
								
								
								
								
								
 
								
								![;]](http://cdn.rios.hu/dl/s/v1.gif)
 Persze nyilván kimagyarázza ezt is, meg érveket vár majd... 
								
								
								
								
								
								
								
 
								
								
								
								
								
								
 Annyira hozzászólnék amúgy, csak az a kibaszott NDA. Na majd később. 
