- 
			
						Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
 
Új hozzászólás Aktív témák
- 
			
			
						Abu85
HÁZIGAZDA
Offline ez bevált dolog, de a real-time nem ennyire egyszerű. Utóbbinál azért nagyobb hátrány az adatmásolás per sugár, mint annak az előnye, hogy külön dedikálsz a sugárkövetésre egy GPU-t.
Ami működőképes lehet az a teljes feldolgozás felosztása, például AFR-rel, vagy SFR-rel, de leginkább valami scissor modellel. Vagy írnak egy olyan motort, ahol az árnyalás függetlenített a leképezéstől, így pedig az árnyalási munkák leoszthatók egy csomó GPU-ra, és lenne egy szem fő GPU, ami csak a leképezést csinálja.
A DXR 1.0, a DXR 1.1, illetve a Sony megoldása is brute force. A különbség az, hogy mennyire pazarlóan vagy hatékonyan bánik a rendelkezésre álló hardverrel. De az eredményük ugyanaz. Itt gondolj arra, hogy a megjelenített kép tekintetében a DirectX 11 is ugyanazt csinálta, de eközben a DirectX 12 többszálú optimalizálásával egy csomó rajzolási parancsra levetítve sokkal gyorsabb. Mindkettő API brute force, csak az egyik pazarló, míg a másik hatékony. A DXR 1.0 és a DXR 1.1 esetében nem mindegy, hogy például a DXR 1.1-gyel már amikor találatkor, vagy találat nélkül a függvény visszatér, akkor helyből ott a kontextus struktúrája a shaderben. Nem kell azt bekötni, hogy egyáltalán folytatni lehessen a számítást a hit vagy miss shaderrel. Egy csomó adatmozgást megszüntetsz ezzel a lapkán belül, miközben a számítás része ugyanaz marad. Ha ez nem számítana, nem nyomtak volna egy ekkora resetet az inline raytracinggel.
 - 
			
			
						X2N
őstag
Inkább azon kellene dolgoznia a fejlesztőknek hogy többkártyás rendszereket lehessen hatékonyan használni sugárkövetésre. Ez bevált dolog azoknak akik vga-val renderelnek.
Most a PCie 4.0-val már megvan a sávszél 4db 2080Ti-nak is. Ezek a mostani kártyák kevesek erre, majd ha 1 kártya 50TFlops teljesítményt tud, akkor már lehet realtime sugárkövetésre alkalmas kártyáról beszélni. Aki az új konzoloktól várja a csodát, az csalódni fog. Még ha agyon is optimalizálák itt nincsenek csodák, a brute force megoldás adja a legjobb képet. - 
			
			
						Abu85
HÁZIGAZDA
Oké, szóval aranyos pletykák azok, amelyek szerint alig csökken majd a sebesség az új Radeonon, de én is leírtam, hogy ez nem ilyen egyszerű. [link]
Igen egy csomó helyről hallani, hogy mindössze 10% körüli az RT bekapcsolása az RDNA2-n, de nagyon fontosak a részletek.
A DXR 1.0 eleve egy rendkívül korlátozott dizájn, nincs támogatva benne egy rakás teljesítménykritikus funkció, például az executeindirect, csak memóriapazarló FP32-es vertex formátum van, meg a shaderek meghívása egy bekötési táblára épül, ahol ide-oda kell másolgatni egy csomó adatot az egyes shaderek között, ami rakás felesleges memóriaműveletet jelen. Meg kell csinálni, mert így működik a rendszer, de amúgy rohadt pazarló az egész, mert sokkal jobb megvalósítása is van ugyanannak a problémának.
A DXR 1.1 egy lényeges evolúciós lépcső, amit a Microsoft a gyártókkal közösen dolgozott ki, nem csak az AMD-vel, hanem mindenkivel. Megoldja a tipikus hiányosságokat, van executeindirect, sokkal szabadabb a vertex formátum megválasztása, illetve kidobja a bekötési táblát, és ezzel együtt azt a sok tök felesleges és alapvetően nagyon lassító adatmenedzselést. Itt már az alapvető működés pusztán sokkal nagyobb teljesítményt ad, mint DXR 1.0 mellett, mert maga az inline raytracing jelentősen kevesebb megkötéssel implementálható. Tehát a sugárkövetés már attól sokkal gyorsabb lesz az új hardvereken, hogy DXR 1.1-re implementálják és nem DXR 1.0-ra. És ez nem csak az RDNA2-re vonatkozik, hanem az Ampere-ra is, annak is a hardvere ehhez igazodik, tehát nagyjából ugyanakkora tempóelőnyt szed fel vele az NVIDIA, mint az AMD.
A jövőben a Microsoft az inline raytracinget fogja fejleszteni, egyszerűen ez a gyorsabb megoldása a problémának, de még a DXR 1.1-nek is vannak hiányosságai. Például nem alkalmaz teljesen konfigurálható BVH bejárás. Ennek az oka, hogy a gyártók eltérő BVH adatstruktúra-formátummal dolgoznak, és ezt nem mindenki nyitja meg. Márpedig ha ezt nem ismerik a fejlesztők, akkor nem tudják a korlátjait, nem tudják, hogy hova kell optimalizálni a nagyobb sebességhez. A sugárkövetés jelenleg PlayStation 5-ön a leggyorsabb, de csak azért, mert ez a konzol lehetőséget ad arra, hogy egy compute shaderben egyedi BVH bejárást írjanak a fejlesztők, így egy csomó olyan teljesítménykritikus algoritmus válik megvalósíthatóvá, amire például még a DXR 1.1 sem ad lehetőséget. De végeredményben ez is pusztán egy szoftver, a hardver megismerésével tudod, hogy mit kell kezdeni vele, így pedig nyilván nem nehéz olyan RT effektet csinálni, ami a DXR 1.0-ban megszokottnál nagyságrendekkel gyorsabban fut, miközben ugyanazt az eredményt adja. Szerintem azok az eredmények, amelyeket hallani az RDNA2-ről, a Radeon Rays 4.0 kiegészítésekből származnak, amelyek ugyanúgy megengedik majd PC-n a compute shaderből szabadon konfigurálható BVH bejárást a DirectX Raytracinggel. Az pedig nem újdonság, hogy a hardverek gyorsak tud lenni, ha optimalizálásban lemész a legalacsonyabb szintekig. De ez a sebesség nem ültethető vissza a natúr DXR 1.1-re, pláne nem a sokkal lassabb DXR 1.0-ra.Hosszabb távon a Microsoft dolgozhat azon, hogy szabványosítanak egy BVH adatstruktúra-formátumot. Ma ez azért baj, mert eléggé sok alternatíva van. Az Intel sajátot használ, az NVIDIA is, az AMD is, de legalább a konzolok ugyanazt használják, amelyiket az AMD. Tehát részben van már egy közös pont. Innen az lenne a lényeges, hogy ezt a közös pontot kiterjesszék. Ez részben egy licencelési probléma is, mert itt nem csak az Xbox Series X-ről van szó, hanem a PlayStation 5-ről is, és bizonyos IP-k, amelyek vannak az RDNA2-ben azok a Sony fejlesztései, de az AMD, a Microsoft és a Sony keresztlicencben dolgozik (de részben emiatt zártak a Radeon Rays 4.0 egyes részei, mert nem 100%-ban az AMD megoldása, hanem egy Microsoft-Sony-AMD kooperáció). Na most ezt ki kellene terjeszteni az Intelre és az NVIDIA-ra is, meg még azokra a gyártókra, akik jönnének, tehát meg tudom érteni, hogy jelenleg miért nincs szabadon konfigurálható BVH bejárás a DXR 1.1-ben, de előbb-utóbb itt is megegyeznek majd, mert úgyis erre kell menni az egyes algoritmusok megvalósíthatósága érdekében. Viszont ehhez ugye kell egy licencszerződés, ha az megvan, akkor el kell kezdeni tervezni az új hardvereket, immáron az érkező, egységesített BVH adatstruktúra-formátumra, stb. Szóval ez időben sokáig fog tartani.
 - 
			
			
válasz
							
							
								#32839680
							
							
								#47093
							
							üzenetére
						Azért tudnak csodát művelni a Sonynál az exkluzív fejlesztők, csak kérdés mennyire lesz ez általánosan elterjedt akár RT ben, főleg ha ezek nem jönnek át PC re. Náluk van egy két stúdió akik korlátlan idővel és pénzzel rendelkeznek, ők majd biztos kiaknázzák a lehetőségeket a Voxelek/ RT terén.
Xboxnál ugye ott van az, hogy játékaik Kijönnek Windows 10 re ott nem tudnak annyira beleállni a speciális fejlesztésekbe szerintem, bár nem tudom igazából.Helyükben hoznék ki azért pár konzol exkluzív játékot is, Pc megjelenés nélkül. ( ezzel most nagyon magam ellen beszélek
) - 
			
			
válasz
							
							
								Alogonomus
							
							
								#47090
							
							üzenetére
						mutatnál egy ilyen elbeszélést?
"AMD megvalósításában elvileg sokkal hatékonyabb lesz a raytracing, mert nem nyers erőből akarják majd megoldani. "
Nincs olyan hogy nem nyers erőből . Az RT nek nincs határa. Végtelen erőforrás igényes dolog. Ha elég a hardver az adott feladathoz akkor növelik a részletességet / fényforrásokat / raytracing alapú hangeffekteket, romblható környezetet,és már is kevés újra a hardver. A cél a fotorealisztikus valóság megteremtése és attól még nagyon messze vagyunk...
csalni lehet és kell is különböző erőforrás spóroló megoldásokat kitalálni, de a felszabaduló erőforrást akkor elköltjük újabb fényforrásokra részletesebb textúrákra amik újra növelik az RT erőforrás igényét.A DXr 1.0 ezt tudja amit jelenleg kapsz...
Nem AMD megoldása a DXr 1.1 hanem a Microsofté amit együtt fejlesztettek AMD vel és hihetetlen ,de Nvidiával, mint ahogy a jelenleg elérhető DXr 1.0 sem az Nvidiáé hanem a Microsofté, jó lenne megértened végre így sokadszorra is leírva neked is.Azonos API-n azonos játékokon majd letesztelve kell megnézni mit tudnak a jelenlegi és az érkező kártyák és majd össze kell mérni a jelenleg elérhető 5700 XT-t a jelenleg elérhető 2070 kártyával mondjuk RT terén is,( most is össze lehet) meg majd az Amperet az Új Navival. Jelenleg a nullát hasonlítjuk össze a valamivel és ehhez origónak kiválasztjuk az ismeretlen képességű konzolokat és a koordináta rendszer két tengelyén az Nvidia és a konzol fejlesztők eltérő mértékegységet használnak a konzolok/ VGA RT képességének megállapításához .
Ehhez X: Y hasonlítjuk össze a jelenleg még nem megjelent és nem létező játékok futásának sebességét és minőségét az Inlne RT vel megsózva amiről még annyit sem tudunk mint a többiről..... Azt tudjuk jelenleg egy valódi fejlesztő elbeszélése alapján, hogy a PS5 a Minecraft esetén egy 2080 szintjét ( nem a superét ) tudja kb abszolválni raytracing képességekben a DXr 1.0 alatt. Kérdés mit fog tudni a 2080 és a Ps5 / Xbox a DXR 1.1 alatt és ehhez hogy viszonyulnak az érkező VGA hardverek meg még sok kérdés van ebben a témában amire az idő fog csak válaszolni... - 
			
			
						gejala
őstag
válasz
							
							
								Alogonomus
							
							
								#47090
							
							üzenetére
						"A PS5-re fejlesztők elbeszélése alapján, a konzolok RT képessége messze meghaladja a 2080Ti RT képességét is. RTX 1.0 < RTX 1.1"
Kb minden gyorsabb lesz RT-ben, mint a 2080 Ti. 3060 tutira, 3050 talán nem.
"RTX azért nem olyan dolog, amit egy indie stúdió csak úgy poénból váratlanul hozzácsap a termékéhez pár hónappal a megjelenés előtt."
Bright Memory-t egy ember fejlesztette és a srác hozzácsapta simán RT támogatást megjelenés előtt.![;]](//cdn.rios.hu/dl/s/v1.gif)
Egyébként RT nem olyan nagy dolog, bármelyik AAA játékba bele lehet tolni pár hónap alatt, ha akarják. Még őszi játékba is belefér, ha most elkezdenek dolgozni rajta. A tavasziakba meg lazán mehet akár mindbe, bőven van még rá idejük.Amihez ennyire előre bejelentették, az csak marketing miatt van, nem azért, mert olyan sok időbe telik.
Illetve eddig az is lassította a munkát, hogy a Turing túl lassú és ezért próbálkozni kell, hogy mit bír még sebességgel. De Ampere már sokkal megengedőbb lesz. Amihez most trükközni kell kicsit Turingon, azt Ampere erőből kinyomja majd trükk nélkül is. - 
			
			
						Alogonomus
őstag
válasz
							
							
								gejala
							
							
								#47089
							
							üzenetére
						"AMD $500 konzolokba hoz RT hardvert. Ha akarják, azt a szintet ki tudják adni PC-n is $300-350 kategóriában."
A PS5-re fejlesztők elbeszélése alapján, a konzolok RT képessége messze meghaladja a 2080Ti RT képességét is. RTX 1.0 < RTX 1.1Azért nem 20% előnyt fognak hozni az ősszel 2-3x áron (1000-1500$) bemutatkozó kártyák. Mondjuk nehéz is összehasonlítani az ősszel érkező konzolokat egy ősszel összerakható DIY számítógéppel. Egy 500$-os konzol viszont biztosan sokkal erősebb lesz, mint egy 500$-ból megépíthető számítógép.
Azért az eléggé nyilvános, hogy milyen RTX játékok érkeznek 1-2 éven belül PC vonalon. [link] RTX azért nem olyan dolog, amit egy indie stúdió csak úgy poénból váratlanul hozzácsap a termékéhez pár hónappal a megjelenés előtt.
 - 
			
			
						gejala
őstag
válasz
							
							
								Alogonomus
							
							
								#47088
							
							üzenetére
						"A konzolok ára egyáltalán nem a bekerülési költségüktől függ, hanem attól, hogy mennyi pénzt hajlandóak az emberek fizetni értük."
Ez a PC GPU-kra is igaz. Nem sokan fizetnének konzolhoz képest +20% előnyért 2-3x árat PC-n.Igazából nem tudjuk, hogy melyik játék jön RT-vel, mert nem nagyon beszélnek még semmiről, csak pár videót mutogattak játékokról. De CP2077 mellett is van már 8-10 játék, amiről tudunk és biztosan lesznek még új bejelentések is.
 - 
			
			
						Alogonomus
őstag
válasz
							
							
								gejala
							
							
								#47083
							
							üzenetére
						A konzolok ára egyáltalán nem a bekerülési költségüktől függ, hanem attól, hogy mennyi pénzt hajlandóak az emberek fizetni értük. Sony és MS is bőven veszíteni fog a konzolokon, de a játékokkal majd visszatermelődik a meghitelezett veszteség.
2022-ig még elég sok idő van. Amint elkezdenek masszív mennyiségben érkezni az RT 1.1 játékok, akkor bőven elég lesz bevezetnie mind a két gyártónak egy altípust a friss architektúrájához, amivel olcsóbb RT kártyákat tud kiadni az addigra már jobban kiforrott technológiához. A közeli jövőben DXR 1.1 játék nem jön, a jelenlegi 1.0 alapján létező pár játék, plusz a Cyberpunk pedig mindenképpen erős - ezért drága - kártyát igényel.
 - 
			
			
						Jack@l
veterán
válasz
							
							
								Petykemano
							
							
								#47085
							
							üzenetére
						Semmivel nem lesze kissebb performance hit, az új inline api csak arra jó hogy butább RT-t lehessen egyeszerűbben leprogramozni. Silányabb minőséggel fog (talán) jobban futni.
Direkt a konozlok miatt kellett az "újítás". - 
			
			
						Yutani
nagyúr
 - 
			
			
						Petykemano
veterán
válasz
							
							
								Busterftw
							
							
								#47084
							
							üzenetére
						A vállalható sebességű RT nem azért kezdődik jelenleg a 2060S-nél, mert az RT a jelenlegi Turing szérián nagy performance hittel jár? (Amit persze próbálnak DLSS-sel kompenzálni)
De ha a nexgen RT (függetlenül attól, hogy az AMD vagy nvidia és hogy milyen megoldással) kisebb performance hit-et eredményez, akkor a jelenlegi 2060S tiernél alsóbb tier is futtathat értelmesen RT-t.
Elvileg.Ez azt is jelenti, hogy egyáltalán nem biztos, hogy RT szempontjából jobban jársz majd egy használt 2060S-sel, mert lehet, hogy azt az RT teljesítmény egy új, alacsonyabb tier kártya is tudja majd. Olcsóbb persze nem biztos, hogy lesz, mint a használt.
 - 
			
			
						Busterftw
nagyúr
válasz
							
							
								Petykemano
							
							
								#47078
							
							üzenetére
						Inkabb lett volna 5600X, a "refresh" meg XT, mint most a prociknal.

Televan
A vallalhato sebessegu RT 2060 Supernel kezdodik (1080p), ami epp 150k.
Max ugy lesz olcsobb, hogy az Ampere utan valogatsz az olcsobb 2XXX szeriabol. - 
			
			
						gejala
őstag
válasz
							
							
								Alogonomus
							
							
								#47081
							
							üzenetére
						"AMD megvalósításában elvileg sokkal hatékonyabb lesz a raytracing, mert nem nyers erőből akarják majd megoldani."
Akkor az bukta lesz. RT-nek az a lényege, hogy brutál számításigényes, cserébe fotorealisztkus végeredményre képes. Ha elkezdesz csalni a sugarakkal, akkor gyorsan a raszterizálásnál kötsz ki. Itt legfeljebb annyit lehet trükközni, hogy kicsit okoskodnak a távolságokkal játék szinten (főleg open worldben), mert különben megint ott tartunk, hogy a szobából hiányzik az árnyékok fele.AMD $500 konzolokba hoz RT hardvert. Ha akarják, azt a szintet ki tudják adni PC-n is $300-350 kategóriában.
"komoly szintű raytracing pedig majd az új konzolokkal fog berobbanni, de az még nem idén lesz, PC-re pedig még annál is sokkal később érkezhet."
Jövőre már futószalagon jönnek majd RT játékok konzolra, miközben PC-re nem lesz újabb gen 2022 előtt. Tehát az idei szériának kell majd ezeket is jól vinnie. Amivel szerintem nem is lesz gond, hiszen Ampere esetén 4x gyorsulás várható RT-ben Turinghoz képest + inline RT-re váltás.
Ha meg 2022-ben jön még egy reális 2,5x gyorsulás, azzal már 10x gyorsabb lenne Turingnál, ami simán jó. - 
			
			
						Pkc83
őstag
válasz
							
							
								Alogonomus
							
							
								#47081
							
							üzenetére
						Igen , sokan gondolják azt , hogy majd a kisebb gyártástechnológia
miatt olcsóbbak lesznek a vga-k de a valóság nem ezt mutatja. sőt..
Még csak nem is egyenesen arányosan drágulnak a teljesítményükhöz képest.
Tehát ha lesz Rt az "olcsóbb" vga-kon is akkor azok már nem is lesznek
annyira olcsók. - 
			
			
						Alogonomus
őstag
AMD megvalósításában elvileg sokkal hatékonyabb lesz a raytracing, mert nem nyers erőből akarják majd megoldani. Aztán persze majd kiderül minden ősszel.
A fontosabb kérdés viszont szerintem az, hogy egyáltalán elért-e már oda a világ, hogy értelme lenne dedikált hardveres raytracing egységet tervezni egy 300 dolláros termékbe is, amivel az csak (szükségtelenül?) drágulna. Egyszerűbb szoftveres eredetű raytracing-imitálás már sok játékban egyébként is elérhető, komoly szintű raytracing pedig majd az új konzolokkal fog berobbanni, de az még nem idén lesz, PC-re pedig még annál is sokkal később érkezhet. - 
			
			
						Televan74
nagyúr
válasz
							
							
								Petykemano
							
							
								#47078
							
							üzenetére
						Sajnos ez igaz!
 Több helyen olvastam hogy csak a drágább Navik kapják meg a Ray Tracing támogatás. Valós lenne ez? Milyen érték határ fölött kell gondolkodni? 150.000 Ft vagy még magasabb összegben?
 - 
			
			
						ƵøŁĭ
veterán
válasz
							
							
								Petykemano
							
							
								#47073
							
							üzenetére
						Értem. 5600xt és társait akkor nem vennék ha jönne ebbe a szegmensbe is új.

 - 
			
			
						ƵøŁĭ
veterán
Az új generációban milyen termékek lesznek?
 - 
			
			
						Busterftw
nagyúr
Persze hogy van ilyen is. Több ezer felhasználónak semmi gondja.
Ettől még vannak gondok.
A 3 év alatt nekem se volt egy Windows 10 frissítéssel problémám. De tudom hogy komoly gondok vannak és milliókat érint a probléma. Tele vele az internet, a patch notes, ahogy a írnak mindenhol a Navi gondokról. - 
			
			
						Abu85
HÁZIGAZDA
válasz
							
							
								#32839680
							
							
								#47066
							
							üzenetére
						A BSOD abból a szempontból kellemesebb, hogy az eseménynapló konkrétan leírja, hogy melyik modul az oka. Tudod az idejét a hibának, és meg kell nézni, hogy mitől van. A gyanakvással nem mész semmire. Én mindig is általánosan javasoltam, hogy ha van egy kékhalálja, akkor az első dolga legyen utána felütni az eseménynaplót, és megnézni az okát. Ezeket a rendszer kritikus leállásként jelzi. És akkor találgatni sem kell, kerek-perec le van írva, hogy mitől van. Sajnos nagyon sokan nem veszik erre a fáradtságot, talán nem akarnak pazarolni a probléma felderítésére négy égérklikket. Számukra nem javaslom a PC-t.
(#47067) b. : Nem kell azért hardvert cserélni, hogy kiderüljenek az egyes problémák okai. Erre van a Windowsban az eseménynapló. Alapértelmezett beállítással igen hosszú időszakra rögzíti, hogy mi történt. Elég megkeresni a kritikus hibákat, mert azok számítanak. A többi dolog nem igazán lényeges. A találgatások helyett én mindenképpen a célzott problémaelemzést javaslom. Sokkal hatékonyabb. Nem véletlenül vannak ezek a szervizfolyamatok beépítve az operációs rendszerbe.
 - 
			
			
						Abu85
HÁZIGAZDA
Ez nem kötekedés. A black screen sokszor a meghajtó nyakába van varrva, de valójában ritkán van köze hozzá. A Google-ön le tudod keresni, hogy 136 milliószor van ez említve az NV-vel, és nagyjából hasonló mennyiségben, 130 milliószor az AMD-vel. A probléma az, hogy alapvetően minden komponenshibánál fekete képernyőt kap a user, és mi van a képernyőre kötve közvetlenül? Igen, a GPU. Tehát sokan ehhez a komponenshez kötik a problémát. Pedig okozhatja ezernyi más komponens is.
 - 
			
			
Ez már kezd kínos lenni..
Komolyan bennem ezért alakult ki a zöld kötődés, neked köszönhetem mester
 
Minek mosdatod őket ebbe is, mindkét gyártónál vannak hibák, kész. navinál kicsit több volt ősszel, ott sem midnekinél sőt van akináél hibátlan nem egy két ember...most már jobb a helyzet általánosan , ennyi. hagyhatnád néha folyni ezeket a topikokat a maguk medrében...#47065 : nincs ezzel gond ha ugyan úgy kiállnál néha nvida vagy Intel topikban is azok mellett a gyártók mellet ,esetleg néha leírnád hogy milyen előrelátó fejlesztéseket hajtottak végre és jó lenne ha másik cégek is ( igen a nagy Ő is ) néha arra lépne) ilyet nem láttam még tőled, mondjuk más környezetben leírva, csak itt.
általában ott azokat olvasom miért nem jó ez és az a fejlesztés és éppen mit akarnak lenyúlni/ miért nem igazán előrelépés, miért is nem igazán fontos vagy miért is nem igazán jól oldották mert mert / milyen lemaradásban vannak tőle.. a nagy Ő-től
Mintha a valóság és a látott dolgok két dimenzióba történnek. Most hogy végiggondoltam te nem egy demagorgon vagy ? Vigyázz a nyálkás átjárókkal 
 - 
			
			
						Abu85
HÁZIGAZDA
válasz
							
							
								#32839680
							
							
								#47061
							
							üzenetére
						Mármint egy olyan bejegyzés, hogy némelyik felhasználó még mindig jelzi, de ugye ezzel sokat nem tudnak mit kezdeni. A korábbi black screen bugot azért sikerült javítani, mert a meghajtó okozta, de azóta nem igazán tudnak semmit sem reprodukálni. Ahogy írtam, ezekkel a black screen bugokkal mindig az a baj, hogy akármelyik komponens okozhatja, és az eredménye ugyanúgy az, hogy elmegy a kijelzőn a kép. Kb. olyan, mint a Kernel Power 41 hiba a Windows operációs rendszeren belül. Az oka lehet akármi, táp, vinyó, memória, proci, alaplap, stb., és a user csak annyit lát belőle elfeketedett a kijelzője, mert leállt a rendszer.
Az Edge böngészővel kapcsolatban van egy ilyen ismert bug, de az is csak a többkijelzős konfigokra vonatkozik.
A Windows frissítések mindig ilyenek. Én ezek miatt sosem frissítek azonnal, hanem csak három hónap múlva. Az MS-nél is olyan durva hibák vannak felsorolva, hogy tudnak róla, hogy jobb ezzel várni. Különösebb hátrányod ebből nem lesz, mert úgy sem szokták azonnal kihasználni az alkalmazások az új Windows 10 verziók frissítéseit.
A memóriára lehet fejleszteni hasonló dolgokat, de a lényeg, hogy ez hardveres tényező. Ha engedik, akkor villogni fog a kijelző. Amiért nem nagyon törődnek ennek a fejlesztésével, hogy a memóriák relatíve kis fogyasztók maradtak. Tehát egy többmonitoros idle konfiggal 6-8 wattot, ha nyersz, HBM2-vel 1 wattos se, miközben az üzemeltetése egy ilyen hardveres rendszernek több kijelző mellett eléggé bonyolult.
 - 
			
			
						Abu85
HÁZIGAZDA
válasz
							
							
								#32839680
							
							
								#47058
							
							üzenetére
						Kb. ezermilliárd dolog okozhat filmnézés közben véletlenszerű összeomlást. A grafikus driver általában a legritkábban, mert az nincs is igazán használva ilyenkor. Egy fixfunkciós hardveres blokkhoz van továbbítva a feldolgozásra váró adatfolyam. Ez nagyrészt OS-be épített futószalagokon keresztül működik.
A képi hibák hardveres problémákra is utalhatnak. Ha csak egy bizonyos ponton jön elő, akkor lehet a meghajtótól, de ha általánosan, akkor a hardvert is figyelembe kell venni. Szóval a képi hiba önmagában nem jelent semmit. A részletek itt a fontosak.
A Google 692 millió találatot ad a random black screen-re. Tudod miért? Mert ha valami történik a gépen belül, akkor elmehet a kép, azaz fekete képernyőhöz vezet. Ez lehet a grafikus meghajtó hibája, de lehet ezernyi más dolog, és a kettőt nem tudod egymástól megkülönböztetni, mert az eredménye ugyanúgy fekete képernyő. Ezért mondják azt a support részlegnél, hogy a részletek a fontosak, mert a gépen található összes komponens okozhat fekete képernyőt, tehát nem biztos, hogy pont az egy szem grafikus meghajtó az oka. Ez a legnagyobb probléma az efféle hibák felderítésénél, mert a user tényleg csak azt látja, hogy elmegy a kép, de valójában fingja sincs, hogy mitől, és sajnos a userek 99,9%-a azt se tudja megnézni, hogy melyik komponens okozta a rendszerhibát az eseménynaplóban. Emiatt találsz rá a Google-ben 692 millió találatot, kis túlzással minden komolyabb összeomláshoz vezető hibának az az eredménye, hogy elmegy a kép.
A memória-órajel fixálása több kijelző mellett nem bug. Azért van így beállítva, mert egy kijelzőre megoldható a memória-órajel váltása anélkül, hogy a kijelző ne menjen el egy pillanatra, de több kijelzőre nem. Sokszor az órajelváltás azt eredményezi, hogy elfeketedik a kijelző, majd visszajön. Ezért nincs órajelállítás.
A legstabilabb a 20.4.2-es. A 20.5.1-gyel igazából az a gond, hogy nem tudni, hogy mennyi hiba varrható az új Windows frissítés nyakába. Az is tele van sajnos buggal. Ezek egy része egyébként kapcsolódhat a driverek WDDM 2.7-es implementációjához.
 - 
			
			
						Jacek
veterán
válasz
							
							
								#32839680
							
							
								#47056
							
							üzenetére
						Biztos vannak anomáliák, de én ezt már ilyen mantrának érzem, ilyen ultimate érv ha elfogy minden "szar a driver"
 Mondom ezt 5700XT tulajként, 2080S-t váltott.
Egy problémám volt nem jegyezte meg az egyedi venti profilom 2x megpróbáltam azóta megy AB-val az mindig fent van annyi... jöhet a BigNavi
 - 
			
			
						Abu85
HÁZIGAZDA
Nem különösebben lényeges az, hogy a Vulkan alapja a Mantle, és az sem, hogy a DirectX 12 is ennek a prototípusából építkezik. Ez tulajdonképpen csak az AMD-nek hasznos, mert úgy építették fel a driverüket, hogy van egy PAL rétegük, és az explicit API-k támogatását egy abba bekötött ICD rétegből oldják meg. Tehát a Radeon Software-ben mindegyik explicit API ugyanazt a PAL meghajtóimplementációt használja, a különbségeket egy ICD réteg hidalja át, ahol az egyes API-k specifikációi le vannak kezelve. Emiatt tudtak anno nagyon gyorsan teljes támogatást adni a DirectX 12-re és a Vulkan API-ra, mert a PAL már meg volt írva a Mantle-re, és annyit csináltak csak, hogy "behidazták" rá a két új API-t. Az Intel és az NVIDIA lassabban reagált ezekre, mert nem volt előre megírva semmijük, a nulláról csinálták. A DirectX 12-t például az NVIDIA egyszer újra is kezdte, míg a Vulkan API-t nagyon sokáig OpenGL alól hívogatták. Azóta lassan kialakult már a megfelelő támogatás, így a programozó vagy a felhasználó számára ez az eglsz mindegy. A PAL tehát csak az AMD-nek segít abban, hogy rendkívül kevés erőforrásból kínáljanak meghajtóimplementációt a Vulkan és a DirectX 12 API-kra is, mert gyakorlatilag egy teljesítménykritikus réteget fejlesztenek a motorháztető alatt. Az sem baj amúgy, hogy az NVIDIA és az Intel a Vulkan és a DirectX 12 API-ra teljesen különálló implementációkat ír. Ugyanúgy működnek, csak költségesebb a fenntartása, mert két teljesítménykritikus meghajtóréteghez két különálló csapat kell. Az AMD azért tud például előállni olyan dolgokkal, mint a D3D12MA vagy a VMA, mert van egy rakás lekötetlen erőforrásuk. Egyszerűen jóval kevesebb rendszerprogramozóval kínálnak Vulkan és DirectX 12 támogatást, így a megmaradt embereket különböző side projektekre rakhatják. Az NV-nek és az Intelnek szüksége van az emberekre, mert amíg az AMD-nek minden PAL-ban végzett módosítás automatikus előnyt jelent minden ebbe bekötött API-n, addig az NV és az Intel külön implementációkat írt, és ha mondjuk a Vulkan implementáción hajtanak végre fejlesztést, akkor abból semmit sem nyernek a DirectX 12-es programok, és fordítva. Valószínűleg egyébként már többször is átfutott az Intel és az NV rendszerprogramozóinak agyán is, hogy az AMD-hez hasonlóan be kellene rétegezniük a drivert, mert végeredményben olcsóbb és gyorsabb lesz az egész, de annyira benne van már a piac az explicit API-kban, hogy egy nulláról történű újraírás problémákat is generálna. Legutoljára ilyet az AMD csinált, amikor 2009-re újraírták az OpenGL implementációjukat. Az ugyan veszettül gyors lett, de elpazaroltak rá egy rakás erőforrást, és valós előnyt nem hozott. Tehát a teljes újraírás az reális mondjuk egy API élettartamának az elején, az NV gyorsan be is vállalta anno a DirectX 12-re, de amikor már benne vagy a lecsóban, akkor jobb a meglévő kódbázist fejleszteni.
Profilozója majdnem mindenkinek van. Az fontos, hogy a Khronos Group gondol a problémára, mert az a helyzet, hogy a Microsoft egyik előnye a PIX, tehát arra is választ kell adni, de nem azért csinálják ezt, mert az Intel, az AMD és az NVIDIA nem tudja megoldani, hanem pont az ultramobil piacra dolgozó cégekért, amelyekre sokkal nehezebb fejleszteni, egyszerűen nem állnak ott a felkínált fejlesztőeszközök minőségében, mint az Intel, AMD és NVIDIA. De ettől a Khronos Group nem oldja meg azokat a problémákat, amely a mélyen rejtett bugokra vonatkozik. Ezeket alapvetően az RGP azért látja, mert úgynevezett hardveres nyomkövetést alkalmaz. A Radeonokba, elsődlegesen a konzolok miatt van beépítve pár extra regiszter és pár extra erőforrás arra, hogy a hardver a saját működését nyomon tudja követni. Egyszerűen meg tudja mondani egy külső alkalmazásnak, hogy a hardveren belül pontosan mi történt. Ezt a külső alkalmazás, jelen esetben az RGP összegyűjti, és készít belőle egy profilt, hogy látható legyen a fejlesztőnek mi történt a hardverben. A legtöbb profilozó nem így működik, hanem teljesítményszámlálókkal operál, ilyen a Khronos Group sajátja is. Ez ugyan nem rossz, de nagyon sok hardveres tényező rejtve marad. A hardveres nyomkövetést egyébként még a Microsoft kérte az Xbox One-hoz, míg a PS4 csak úgy megkapta, mert nem érdemes áttervezni a rendszert pár extra regiszter miatt, és a GCN2-től kezdve a PC-s Radeonok is megkapják. Ilyet egyébként bárki csinálhat, nem annyira nehéz, csak korábban a PC-n annyira nem foglalkoztak a hardverek működésének olyan mély elemzésével, ami korábban ezt szükségessé tette volna. Persze az explicit API-k miatt változnak az idők, illetve régen annyira részletes dokumentációt sem kaptak a GPU-k. Nyilván mindenki tudta, hogy az egyes motorokban van egy rakás bug, csak aránytalanul nagy költségnek gondolták ezek felkutatását és javítását. Mára egy picit változott a környezet, és elkezdtünk menni abban az irányba, hogy ha bizonyos, teljesítményvesztést okozó bugokat nem is javítanak, legalább tudjanak róla.
A D3D12MA-t és VMA-t használják sokan. Ezeket az AMD direkt erre írta, sőt, a VMA-ba már az Intel is írt kódot. Nyílt forráskódú, megtehetik, voltak olyan részei, amelyek az Intel IGP-kre nem működtek optimálisan, így kiegészítették azt. A lényeg itt az, hogy a memóriamenedzsment az explicit API-kkal átkerült a program oldalára, tehát effektíve a fejlesztő írja meg azt, ami korábban a grafikus kernel driverben volt. Ez egyrészt jó, mert sokkal gyorsabb lehet egy alkalmazás, másrészt rossz, mert amellett, hogy ezt igénylik az új API-k, rohadtul nem volt egy olyan fejlesztőkörnyezet sem, amely megmutatta volna, hogy mitől memory leakes a kód. Egy csomóan érezték, hogy az a menedzsment, de nem tudták
megtalálni az okát, régen erről beszéltek is a Hitman fejlesztői, és mivel nem tudták javítani, így együtt éltek a problémával. Ezekre jött a D3D12MA és VMA, amelyek garantáltan működnek, tehát egy fejlesztő, ha problémás kódot ír, akkor már az említett headerek bemásolásával tud azon javítani. Viszont ez ugye nem teljesítménykritikus, mert általánosan kompatibilisnek kell lennie a motorokkal, így készült egy memóriaelemző is az idei évre. Na azzal már megkereshetők a memory leaket okozó kódrészletek, és javíthatók.(#47054) morgyi: Ha a gépigényt akarod növelni, akkor azt meg lehet oldani bugos kód nélkül is. A bugok megtalálása és javítása minden szereplő számára elsődleges tényező.
 - 
			
			
általánosítva beszélsz a vulkanra való átállásnál arról hogy ez mekkora probléma. De te is tudod hogy a vulkant melyik cég által kitalált alapokra építették és hogy konrétan hány játék épít rá.plusz kiadtak Chronosék tavaly egy gyártófüggetlen profilozót ami hardver függetlenül működik.
hagyjuk ezt az ajnározást kérlek, ez csak nálad működik ilyen egyszerűen, hogy minden fejlesztő mindig az AMD copy paste egyszerű megoldását használja mert ők ilyen dolgokat tesznek le az asztalra és amúgy mindenki erre épít a világon., és hardveresen is fel kell természetesen hozzájuk zárkóznia Nvidának és az Amperevel talán utoléri az iránymutató RDNA1 -t .. jaj istenem.. minek kell ez nekem...
és látod ezek a legendák szülik az ilyen hozzászólásokat, kialakítva a célt és a követő tábort ugye : [link]
[link]
és innentől meg gyomorforgató az egész agymosás. - 
			
			
						Abu85
HÁZIGAZDA
válasz
							
							
								Yutani
							
							
								#47043
							
							üzenetére
						Dolgoznának ők az NV-vel, de nincs megfelelő fejlesztőkörnyezet hozzá. Nem tudom emlékszel-e arra, amikor az Epic váltott hardvert. Készültek a Vulkan API-ra való átállásra, és lecserélték a gépparkot Radeonokra, hogy elérhető legyen a RenderDoc+RGP. Aztán bevetették először az RGP-t, és rögtön találtak a kódban egy olyan bugot, ami még az első rajzolási parancs kiadása előtt 517 darab erőforrás-áthelyezést csinált, és ez tulajdonképpen egyenértékű a hardveren belüli gyorsítótárak 517-szer való egymás utáni ürítésével. Ez elég nagyot ment anno a Twitteren, hogy egy ilyen ordas nagy bugot nem vett észre az NV és az Intel profilozója. Egyszerűen nem látták, hogy a hardver ciklusok tömkelegét malmozza el. És ez minden GPU-t érintett, tehát lelassult a bugtól az Intel, az AMD és az NV saját rendszere is. Egy bugot viszont csak akkor lehet javítani, ha észre is veszed, tehát muszáj olyan profilozóra építened, ami ezeket a problémákat megmutatja. És abból, hogy az AMD-re áttért az Epic a Vulkanra váltás miatt, egy csomót sikerült gyorsítani az Intel és az NVIDIA GPU-in is, mert magának az engine-nek az egyes, esetenként komoly hibáit láthatóvá tette az RGP. És miután már látják a bugot, onnan már nem nehéz azt javítani.
A legtöbb hasonló bugot egyébként régen a konzolokon vették észre, de PC-n nem tudták kimutatni az RGP megjelenése előtt, mert nem volt meg az eszköz, ami látta volna őket. Persze gyanították, hogy ha a konzolon bugos a kód, akkor valószínűleg PC-n is az, csak ellenőrizni nem tudták. Az RGP óta PC-re is van nyomkövetést alkalmazó profilozó, ezért láthatók ezek a mélyen rejtett bugok.
(#47048) Kupszi: Itt nem arról van szó, hogy ki kivel szerződik. Attól, hogy az alap kódot az AMD-vel fejlesztették, még lehet egy rakás szerződést kötni az NV-vel is. De lényeges, hogy a motorok bugjait láthassák, főleg ezekkel az explicit API-kkal. Az Epic például még mindig az NVIDIA partnere, de egyszerűen a Vulkan API-ra jobb Radeonon fejleszteni. Pusztán ettől a döntéstől az NVIDIA hardverek is gyorsabbak lesznek. Ugyanígy az Ubisoftnak van szerződése az AMD-vel, az NV-vel és az Intellel is, viszont a Stadián fejlesztenek szinte mindent. Egyszerűen gyors és olcsó. De ettől még a Watch Dogs: Legion például NV-s, míg az Assassin's Creed Valhalla AMD-s cím lesz. Utóbbiak inkább üzleti döntések, mint technológiaiak, viszont az Ubi mindkét címet a Stadián fejleszti, ami egyszerűen hatékonyabb. Jobb terméket tudnak letenni az asztalra, mert utólag egy csomó mindent lehet optimalizálni, de a mélyen rejtett bugok nagyon fájnak ám, és minden gyártó számára.
(#47049) b. : Természetesen az NV is fejleszti a profilozóját, de azt a bugot, amit az RGP észrevett az UE4-ben, még mindig nem ismeri fel. De lényegesen előrébb járnak már annál, ahol jártak pár éve. Csak eközben az AMD meg csinált egy újabb megoldást, egy tipikus problémára, jelen esetben a memóriamenedzsment teljes profilozására. A legtöbb fejlesztő ma azt csinálja a memóriamenedzsment tekintetében, hogy letöltik a GitHUB-ról az AMD VMA-t vagy D3D12MA-t, és azt módosítgatják. Esetleg nem, az Ubisoft például csak bemásolja a VMA-t, és done. Ezt is lehet csinálni, csak ezeket az AMD nem teljesítménykritikusra tervezte, hanem sokkal inkább általános kompatibilitásra, hogy egyszerű legyen minden motorba integrálni, hogy csak úgy működjön. Viszont annyiféle hibalehetőség van a memóriamenedzsment tekintetében, hogy rohadt nehéz ám felkutatni a memóriaszivárgásokat, stb. Erre hozták a memóriaelemzőt, hogy ha valaki teljesítménykritikus kódban gondolkodik, akkor ne kelljen vakon dolgoznia. És ezek ugyanúgy hasznosak, az NV-nek is, mert a memóriaszivárgásra vonatkozó bugok jellemzően gyártófüggetlenek, minden terméket ugyanúgy érintenek, tehát ha az AMD-vel ki tudják szűrni, akkor az NV GPU-i is gyorsulnak tőle.
(#47050) Jack@l: A konzolokra már jó háromnegyed éve a konzolokon fejlesztenek. A végleges chipdizájnok gyártása is megindult már. Ugye a karácsonyi startra ezeket nagy mennyiségben kell szállítani a nyár végén.
Ha ez a memóriaelemző ilyen egyszerű lenne, de sajnos nem az. - 
			
			
						Kupszi
aktív tag
Neharagudj de ezt egyszerűen nem tudom elhinni.
Volt róla szó az Ubinál hogy majd most AMD felé haladnak, de ez az infó abba is maradt. Metro féle gammák biztos megmaradnak, Unreal motor játékok szintén zenészek, na és itt az év várva várt játéka a Cyberpunk. Aztán Dice is beadta derekát a pénznek és a BFV és valamint a BF6 is beáált ezalá, a COD szériáról ne is beszéljünk, de vegyük a méltán híres Esport gammákat ,(Rockstar games) vagy Fornite vagy PubG-t. A két utolsót azért érdemes megemlíteni, mert óriási a játszó közönsége. Az nvidia mindig oda dugja be a pénzét ahol tuti berobban.
Személy szerint nem preferálom az nvidiát, sőt elég mocskos módon játszik a piacon, de be kell lássuk eszméletlen jól csinálja. Még így is hogy a konzolokat az AMD zsebelte be. - 
			
			
						paprobert
őstag
válasz
							
							
								Petykemano
							
							
								#47045
							
							üzenetére
						Mármint miben lenne gyorsabb?
 - 
			
			
						Petykemano
veterán
Volt cikk (PH!) a GPU hardveres ütemezőről? Most nem találom
De emlékszem, Abu azt mondta, hogy ha a kaveri IGP-n futna az ütemező, akkor gyorsabb lenne, mint az i7.
az AdoredTV podcastban beszéltek róla, hogy volt teszt, de végülis nem egyértelmű a jósága, azt mondták, hogy ahol cpu limit van, ott volt előnye, ahol gpu limit, ott akár hátrányt is jelent.
Viszont nem emlékszem olyan tesztre, ahol kifejezetten IGP-n futott volna az ütemező.
 - 
			
			
						Abu85
HÁZIGAZDA
válasz
							
							
								Kupszi
							
							
								#47040
							
							üzenetére
						Éppen az a helyzet, hogy már nem NV van a játékfejlesztők gépeiben. GeForce-szal sokkal nehezebb explicit API-kra fejleszteni. Nincsenek olyan jó fejlesztőeszközök hozzájuk. Például semmi esélyed megállapítani a memóriamenedzsmentedben egy memory leak okát az NVIDIA GPU-in, nincs semmilyen tool, ami neked lemonitorozza, hogy a memória éppen hogyan néz ki. Radeonon van, és emiatt használnak ma már Radeonokat a játékfejlesztéshez. GeForce-on maximum annyit tehetsz, ha nem jó a memóriamenedzsmented, hogy lemásolod az AMD-nek a D3D12MA/VMA-ját (egy csomóan ezt csinálják manapság), mert memóriafigyelő nélkül monitorozni a sajátod nem tudod.
 - 
			
			
						Kupszi
aktív tag
Amíg a játékfejlesztők nagy százalékat az Nvidia uralja,mindegy milyen technológia újítást tervez az AMD, mindig jobbak lesznek. Sajnos a 21.század pénzpolitikája ilyen, akinek több van annak hatalmas is magasabb lesz, legyen az bármi.
Elég csak a nagy tripla A címekre gondolni, Cyberpunk. RTX támogatás, és mint minden CD RED game, 20-30 FPS többlet ugyanazon kategóriájú kártyán. Ja az hogy drágák a zöldek...igen, de akkor is nagy reklám Jóskagyereknek ha jobban fut, ezért bemegy a boltba és tudja mit fog venni.
Sajnos az AMD helyzete még így is nagyon nehéz hogy konzolokba AMD lapka van, az az igazság a konkurenciának PC-n meg pénze van, ami kárpótlás. Valamint ez a konzol-PC AMD kedvezés se nagyon kedvez az AMDnek. - 
			
			
						TESCO-Zsömle
titán
Lehet én látom rosszul ,de ezek a dolgok mindig csak kb 4-5%-on érvényesülnek, akik vagy reprezentatívak, presztízsből tolják, vagy valami partneri programon keresztül keni őket vmelyik GPU-gyártó. Aztán van még egy 10-20%, akik követik a dolgot annyira, hogy a licenszelt motook lehetőségeit kihasználják, a többi meg még azzal sem él, ami készen elé lett rakva a motorban, mert vagy nincs manpower vagy szándék, mert egyszerűen olcsóbban jönnek úgy ki.
 - 
			
			
						Abu85
HÁZIGAZDA
Ez a konzolok miatt van. Az előző generációban a GCN néha működött, ha a találati ablakra optimalizáltál, és a fejlesztők alkalmazták is ezt a módszert, de az összes shadernek kb. a 10%-át tette ki az így megírt kód. Ezt a 10%-ot benyelte az NVIDIA, mert összességében a végeredményt mégis a maradék 90% fogja meghatározni. Tehát maga az adatlokalitás a multiprocesszor szintjén nem újdonság, de mint írtam, ritkán alkalmazott optimalizálás. Az RDNA viszont teljesen erre az ötletre épít, mert végeredményben jobb teljesítményt ad, ha a multiprocesszoron futtatott wave nem utazik a lassú memóriáig az adatért, hanem csak betölti legrosszabb esetben a multiprocesszora utolsó szintű gyorsítótárából. Egy munkaelemre levetítve ez a feldolgozási modell sokkal gyorsabb. Viszont a GCN-nél, és a többi dizájnnál ez nehezen alkalmazható, mert lehet, hogy sokan csak az ALU-k számát látják, de ha megnézed mi van a motorháztető alatt, akkor a GCN-en belül 64 ALU-ra jut 64 kB LDS, 256 kB regiszter és 16 kB L1. Ezzel szemben az RDNA-nál 64 ALU-ra jut 128 kB LDS, 512 kB regiszter, 16 kB L0 és 128 kB L1. Kapacitásban sokkal inkább ki van gyúrva az adatlokalitásra, még akkor is, ha az ALU-k száma nem módosult, itt már lehet bőven alkalmazni azt a módszert, amely az előző generációs konzoloknál csak a shaderek kis részében működött. És emiatt megy erre az új konzolgeneráció, amihez viszont igazodni kell a PC-s dizájnokkal, mert a throughputra optimalizált shader szimplán jól fut a tárkapacitásban izmos multiprocesszorokon, miközben a latency-re optimalizált shader csak ezeken fut jól. Nem nehéz módosítani a meglévő dizájnokat ilyenre, de ez a sok extra erőforrás áramot és tranzisztort igényel, nem keveset.
 - 
			
			
Ok, gondoltam ,hogy utol kell érniük a konkurenciát , és elérik az Amperevel az RDNA 1-t , mert az megint valami olyat tartalmaz, hogy....
 
No offense, elhiszem amit írsz, de azért megvárnám a konzolok és az új kártyák megjelenését majd az azokra érkező multiplatform játékok és átirataik teljesítményét mondjuk a Turingokon és az RDNA 1 kártyákon is addig óvatosan hiszek bárminek ami a " jövőben beteljesülő,de jelenlegi fejlesztés" - 
			
			
						Abu85
HÁZIGAZDA
Pedig van keményen. Senkinek sem jön ez a semmiből. Amit nem értenek sokan az az Ampere magas fogyasztása, amit pletykálnak. Ez részben az új node-ok nem ismeréséből ered, de nagyobb részt inkább abból, hogy az Ampere multiprocesszora fogja tartalmazni azokat a fejlesztéseket, amelyeket az elmúlt években kispóroltak az architektúrából. Majd figyeld meg mennyire ráerősítenek a cache-szervezésre. A cache-ekre levetített bájt/FLOP-ban elérik az RDNA1-et, ami őrületes fejlődés, ahhoz képest, hogy a Turing mennyire nem erre ment. Viszont ezek az extra erőforrások nincsenek ingyen, zabálják ám az áramot, viszont a konzolok az RDNA2 dizájn módosításaira épülnek, tehát az NVIDIA arra számít, hogy sokkal inkább lesznek az új shaderek a lokalitási elv szerint írva, amire az Ampere-ig nem is figyeltek, a Turing egyáltalán nem tolerálja ám, ha a WARP-ok számát csak azért manipulálod, hogy a shaderednek jobb legyen multiprocesszoron belül a cache-re vonatkozó hit/miss aránya. Ezt nem tartották reális iránynak, mert őszintén szólva a mostani konzolok sem annyira szívlelik ezt, de az új generációs konzolokat konkrétan erre tervezték. Nagyon csúnyán fogalmazva ez a GPU CPU-sítása. Nem lesz persze CPU, de az egy munkaelemre levetített teljesítmény sokkal nagyobb lesz, az RDNA1-es szint köré/fölé kerül. A régebbi dizájnoknak ez azért nem fekszik, mert nincs elég gyorsítótár-kapacitás a multiprocesszoron belül arra, hogy egyáltalán érdemes legyen arra építeni, hogy a szükséges adatért nem kell elmenni a memóriába, hanem ott lesz az L0-ban vagy az L1-ben (ritkán azért alkalmazták a GCN-re, de inkább volt ez kivétel, mint szabály). Az új generációs node-okból nyert legtöbb tranyót viszont erre költi az AMD és az NV, mert ha a kapacitást (regiszter/LDS/L0/L1) egy jó szervezéssel összességében közel a háromszorosára növeled, akkor a lokalitási elv sokkal kedvezőbben alkalmazható, és megnyitja a lehetőséget egy olyan optimalizálási irány előtt, amiről korábban még nem is lehetett álmodni sem. De ez az energiaigény tekintetében marhára nem jön majd ingyen, a több regiszter/SRAM, a hozzájuk tartozó szélesebb busz zabálja az áramot, viszont ezekkel egy multiprocesszor olyan dolgokra is képes, amire egy régebbi elvek szerint épített dizájn nem.
 - 
			
			
Konkrétan nem láttam szenvedést a másik oldalnál az elmúlt 7 évben perf / watt terén 4 csíkszél váltás alatt.
Azt hogy mit értek és mit nem értek azt számok mutatják hamarosan, ősszel.Biztos kell tapasztalat, meg tervezés is hogy kiaknázzák az előnyét a csíkszélnek.,de a döntő az ár és ez miatt lesz - ha lesz- Samsung 8 nm az Ampere semmi más miatt.nem akarnak versenyezni a másik cégekkel ezen.
Az erős túlzás amit írtál a másik topikban hogy a csíkszél nem számít . - 
			
			
						Abu85
HÁZIGAZDA
Az, hogy nem érted, hogy semmit sem ér az azonos csíkszélesség, de még a modernebb sem. A FinFET annyira a határaihoz közelít, hogy az egyetlen értékes tényező a tapasztalat egy adott eljáráson, vagy annak származtatott node-jain. Bárhova mennek, első kört csinálnak rajta, vagyis ott lesznek, ahol az Intel állt a Cannon Lake-kel, vagy az AMD a Vega 20-szal. Aztán kell egy második kör, amiben modernizálják a dizájnkönyvtáraikat az első kör tapasztalatai alapján. Na ott lehet számítani először érdemi előrelépésre a perf/watt szintjén.
Nyilván ez a dolog nem könnyű. Az Intel és az AMD is csak szenvedett, pedig lényegesen jobb alapokkal dolgoznak a gyártástechnológiai IP-ket tekintve (főleg az Intel), mint azok a cégek, akiknek sosem volt egy szem gyáruk sem. És ezt a lényegesen jobb IP portfóliót és know-how-t egyikük sem tudta úgy felhasználni, hogy harmadik körnél korábban hozzanak olyan lapkát, amely hatékony az aktuális legmodernebb node-on. A legtöbb, tulajdonképpen gyártástechnológiai háttér nélküli, korábban is kizárólag bérgyártásra berendezkedett cég már alig várja a GAAFET-et, mert az újra egy-két kör ingyen ebédet jelent, de persze hatalmas kockázat is, mert ha a Samsung nem rakja úgy le az asztalra, hogy tömeggyártásra is alkalmas legyen, akkor meg bukják a teljes termékportfóliót.
 - 
			
			
						Jacek
veterán
válasz
							
							
								Busterftw
							
							
								#47029
							
							üzenetére
						Alapvetően ez mért gond? Engem pl egyáltalán nem zavar. Ha VW akarok venni pl ott sem egyszerre jön az összes model, szepen sorban mindig legyen valami újdonság nem egyszerre. Ha szép ütemben követik egymást(na ez nincs meg
) mindig tudsz cserélni amikor sorra kerül. - 
			
			
						Busterftw
nagyúr
válasz
							
							
								Yutani
							
							
								#47028
							
							üzenetére
						Ez meg a masik, hogy az AMD nem kepes egy normalis portfoliot osszerakni.
Kettesevel jonnek a kartyak, 1 vagy masfel kategeroat fednek le, mikozben 3 generacio a piacon van. Tuti nem fugg ossze, de en nem csodalom hogy szar a driver helyzet.
Jott ket Vega, aztan jott meg Polaris, jott 1 darab Radeon VII, jott Polaris, jott 3 Navi (XT-t nem szamolva) amibol 1 ertelmetlen, es meg mindig toltak a Polarist (590 GE vagy mi volt).A Polarist mar a Vega rajtkor kukazni kellett volna es lefedni a piacot.
A Radeon VII inkabb ki se adtak volna, hanem elobbrehozni a Navit es kukazni a Vegat. - 
			
			
						Busterftw
nagyúr
válasz
							
							
								Petykemano
							
							
								#47022
							
							üzenetére
						Szerintem is inkabb ez a valasz.
A 2xxx szeriara sokan nem valtottak Pascalrol, foleg az elejen, nem csak ar miatt, koztuk en is.
De nem rohantam 5700XT-t venni, inkabb megvarom a 3xxx szeriat, hogy nagyobbat ugorjak egy valtasnal.AMD oldalon meg rengeteg Polaris tulajnak vegre jo alternativa a Navi.
A Vegasoknak is, miutan a csucskartya egy ido utan lekerult Nvidia kozepkategoriaba. (2060) - 
			
			
						Yutani
nagyúr
Hiba lenne az NV-t mindenhatóak tekinteni. Vannak profit célkitűzéseik, el kell számolni a befektetők felé, nem tehetik meg, hogy csak úgy elengedik a profitot. Egyébként is (jóval) erősebb brand, mint az AMD, és a userek meg tudjuk milyenek, akkor is NV-t vesznek, ha az AMD-nek van egy jobb ajánlata (lásd RX 570 vs GTX 1050 Ti).
Az meg már egy másik történet, hogy az AMD részéről azért várnak egyesek árháborút, hogy aztán az általuk preferált NV terméket megvegyék. És tudod mit? Inkább ne menjen bele ilyenbe az AMD, hadd keressenek ők is a termékeiken, rájuk fér. Az NV pártiak meg így is megveszik az NV kártyákat, maximum 1 hónappal tovább spórolnak.
  - 
			
			
						-Solt-
veterán
válasz
							
							
								Petykemano
							
							
								#47022
							
							üzenetére
						Ez már az okok taglalása, én az érdem negligálására reagáltam.

 - 
			
			
						Petykemano
veterán
válasz
							
							
								-Solt-
							
							
								#47021
							
							üzenetére
						"A számok tükrében a sztori elég egyszerű. Adott egy elhibázott árpolitika amit a vevők azzal büntettek, hogy a konkurencia termékét választották, pont. "
Szerintem nem akkora az átjárhatóság a márkák között. Ez persze részemről csak egy hipotézis.
Egyrészt ha minden igaz, az eladások nagyobb része mobilban történik, ott meg az AMD nem állított olyan jó hívogató versenytársat és arra,.hogy mi.mennyire és milyen gyorsan helyettesítő terméke másnak, arra is nagy befolyással bírnak az ismerten lomha és elfogult OEM-ek.
De még a desktop piacon sem hiszem, hogy a vevők többségének döntéseinek lefolyása az lett volna, hogy márkák között latolgatnak. A navi árazása nem volt "disturbing". Azt akarom mondani ezzel, hogy szerintem a márkák közötti átjárhatóság rugalmatlan, a felhasználók márkahűek.
Piaci részesedés eltolódás bekövetkezhet úgy is, amiatt is, hogy az nvidia túláraz, ezért az az nvidia márkát kedvelők kevésbé vásárolnak
Az AMD pedig előállt valamivel, ami az AMD márkát kedvelők között vonzó tudott lenni és vásárlásra sarkallta őlet.
De eközben az AMD valójában még mindig nem tudott ténylegesen piacozot szerezni az nvidiától.Ez a fajta hullámzás megfigyelhető a régi piaci részesedés grafikonokon. Amikor valamelyik cég kiad egy kártyát, akkor megugrik a részesedése.
De ebből nem derül ki, hogy hányan váltottak nvidia kártyáról amdre. Vagy fordítva. Mármint rövidtávon.
Hosszútávú trendvonal szerint pedig a hullámzásból az nvidia került ki emelkedően.
Tehát azt, hogy ténylegesen sikerült-e piaci részesedést szerezni szerintem majd csak 1-2-3 év múlva lehet a trendből megállapítani. - 
			
			
						-Solt-
veterán
De, ha az NV nem hagyta, akkor, hogy nem lesz ebből AMD érdem? Ha el tudnak tőlem venni 12% piaci részesedést úgy, hogy én ezt nem akarom, nem hagyom akkor az ellenfelem pozitív eredménye az nem az ő érdeme és az én hibám?
A számok tükrében a sztori elég egyszerű. Adott egy elhibázott árpolitika amit a vevők azzal büntettek, hogy a konkurencia termékét választották, pont. Erre, hogy lehet azt reagálni, hogy nem az ő érdemük? Volt versenyképes termék? Volt. Jobb volt az ára? Jobb. Akkor a jobb árú versenyképes termék az adott pillanatban kinek az érdeme? A kérdés költői, hiszen már tudjuk, hogy az adott pillanatban jobb áron kínált versenyképes termék az nem érdem, hanem csak egy mezei következmény.

Az NV ugye azért bazidrága mert a szar AMD nem tud normális konkurencia lenni. Amikor a szar AMD mégis egy picit konkurencia lesz, az csak azért van, mert az NV bazidrága. Upsz, akkor itt most álljunk meg... tulajdonképpen akkor mégis csak az AMD érdeme, hogy egy kicsit konkurencia tudott lenni, hiszen az, hogy az NV bazidrága lett az az AMD-nek köszönhető! Ez ilyen megtévesztős hátulról mellbe taktika... direkt nem akartak konkurenciák lenni, hogy az NV jó drága legyen, mert ennek köszönhetően majd akkor érdem nélkül tudnak később konkurencia lenni! Micsoda trükk... és ezt ő tudta, tényleg zseni ez a pali.
 - 
			
			
válasz
							
							
								-Solt-
							
							
								#47019
							
							üzenetére
						nem hiszem hogy jól érted kivéve az iróniát a hozzászólásodból
 Nem annak köszönheti ezt a nagy ugrást, ,hogy hagyta Nvidia hanem a Polarisnak amire nem volt válasza sokáig a zöldeknek. 2019 Q3 ig az 1660 superig.
A 2019 Q1 és Q2 hozott nekik 9 % -t .
Egy jelentősen olcsóbb kártya család nagyobb teljesítménnyel szinte konkurencia nélkül. A Pascalok drágák voltak, nem is lehetett kapni igazán őket.
A Navi megjelenése óta 4 % nőtt a piacrészük úgy hogy a polaris is még mindig kapható, nem tudjuk az ebből mennyi.
Ezért nem elég a pár százalék árelőny, pont a Polaris esete mutat erre rá mire képes az, ha egy jó ár mellé egy remek teljesítmény társul,de ugye ez még a bányász korszakból felhalmozott raktárkészlet kisöprése volt, ki tudja lesz e ilyen.
Simán a kissé olcsóbb árazás nem elég, lásd Navi, mert arra lehet reagálni könnyen és ezt igen, sajnos hagyja most Nvidia ,nem viszi le az árait.
 - 
			
			
						-Solt-
veterán
Tehát az az árpolitika aminek következtében a konkurencia egy év alatt szerzett 12% piaci részesedést az nem egy elhibázott lépés, hanem egy nemes gesztus. Az pedig, hogy az AMD-nek volt olyan (amilyen) terméke ami kitudta használni a konkurencia elhibázott árpolitikáját és vevőket tudott magához csábítani az nem érdem. Következésképpen az NV ezt gyakorlatilag így akarta.
Jól értem?
 - 
			
			
Értem, de ennek mi köze ahhoz amit írtam. Azonos csíkszélen is hátrányban voltak. A fogyasztást annak köszönhetik, hogy végre külön vették a professzionális dizájnt és léptek 7 nm re,mindegy hány lépcsőben.A többi szerintem stroytime, de lehetséges. Ettől függetlenül amit csináltak a zöldek a Turinggal ekkora lapkával, fogyasztás és teljesítmény/ órajel terén figyelemre méltó egy teljesen új archal. inkább látok benne nagy melót és mérnöki bravúrt...
morgyi :Igen , igazad van. Végső soron ugyan azt írjuk csak más nevekkel.

 - 
			
			
						Abu85
HÁZIGAZDA
Nem igazán. A FinFET jellegzetessége hasonló a bulk megoldásokéhoz. Ahogy mentek a gyártók a bulk határai felé, úgy vált egyre kevésbé jelentőssé a gyártástechnológiai átállás. De ugyanígy második és harmadik generációra ugyanazon a node-on sokkal-sokkal jobbat hoztak. Kiismerték a technológiát. Ez látványos az AMD-nél a Vega 20 esetében, amely az első 7 nm-es lapkájuk. Egyszerűen sok haszna a 7 nm-nek nem volt, mert nem ismerték, hogy mi kell a saját dizájnkönyvtáraik esetében az adott node megfelelő működtetéséhez. Ugyanígy az Intelnél a Cannon Lake, amely szintén nem lett egy túl jó termék, és az ok szintén az, hogy nem értették a működését a 10 nm-es eljárásuknak. Az AMD-nél a második körös termékek, mint a Navi 1x vagy a Zen 2 chiplet már jobb lett, de még mindig nem az igazi. Ugyanígy az Intelnél is jobb lett az Ice Lake, de azért annyira nem. A harmadik körös nekifutásra rakta össze az AMD a Renoir APU-val, ahol úgy vertek rá jelentőset a korábbi APU IGP-jére, hogy csökkentették az IGP feldolgozóinak számát. Papíron visszalépés történt, de megértették a 7 nm-es node-nál azt, hogy miképp lehet magas órajelet elérni, miközben a fogyasztás relatíve alacsony marad. Ez majd a Zen 3 chipletnél is látszani fog. Az Intel is a Tiger Lake-nél érte el azt a szintet, ami már tényleg kellemes teljesítményt ad. Ez a modern FinFET gyártástechnológiák velejárója. Elsőre nem megy, de még másodjára sem, viszont harmadjára azért megtanulják használni. Így lesz ez az 5 nm-en is, nem véletlen, hogy annyira rohan rá az AMD. Minél hamarabb csinálnak rá egy lapkát, annál hamarabb tanulják meg használni a node-ot, mert ebben is benne lesz legalább két kör nehézség.
A következő könnyűnek ígérkező node a Samsung 3 nm-je. De az meg nagyon kockázatos, mert lehet, hogy a GAAFET logikus irány, de nagyon el lehet ám rontani a gyártás szintjén. A TSMC ezért marad FinFET-nél a 3 nm-es eljárást tekintve. Értik, hogy nehéz kezelni, de kisebb a kockázata annak, hogy nem tudnak majd a gyártósorokon lapkákat gyártani.
 - 
			
			
Há azért elég kemény meló lehet az mögött is hogy 12 nm-n ugyan ezt hozza egy RTX.
morgyi
A 2060 Ko ra gondolsz, az nem igazán jutott el a boltokba. Ugyan annyiba kerül most is az én volt 2060 kártyám mint ezelőtt 1,5 éve.Az 5600 XT szerintem nem foglalkoztatta a Nvidiát különösebben,mert látták, hogy ugyan úgy konkurenciája lehet házon belül 5700 nak mint a 2060 mert nagyon közel van hozzá. Ők jobban féltek z 1660 Ti veszélytől ezért jött ki az 1660 super. Egyébként az 5600 Xt és az 5700 is sikeresebb lett volna ha az 1660 Ti vel konkurál 250 dolláros áron az 5600, igazi népkártya lehetett volna.hülyeség volt a rammal cseszekedniük és ráengedni az 5700 nyakára. - 
			
			
						Abu85
HÁZIGAZDA
A 7 nm nem hoz kötelezően semmit. Túl közel van a FinFET vége, hogy minden csak egy átállás legyen. Évek kemény munkája az, ami működtetni tudja ezeket az újabb node-okat. Majd meg fogod látni ősszel. Legközelebb majd a GAAFET node-ok hoznak újra ingyen ebédet. De azoknak is meglesz a vége, ráadásul elég hamar.
 - 
			
			
válasz
							
							
								-Solt-
							
							
								#47011
							
							üzenetére
						Értelek, igaz amit írsz de te is tudod hogy ez ellen Nvidia simán léphetett volna és léphet is bármikor. Ezért írta j@ckal is amit írt és arra utalt, hogy azért vagytok elégedettek az 5700 ( XT) teljesítményével és árazásával mert a Turing drága,de valójában a Vega 64 hez képest a fogyasztástól eltekintve ez a 20 % amit adott AMD, mert az ár kb ugyan ott maradt.
Az ár egy olyan dolog egy ilyen ellenfél ellen, hogy azért van, mert megengedi a zöld, vagy túlságosan bízik a márka névben, vagy megegyezés van mögötte ki tudja... igazából mindegy is.De ez ellen a legkönnyebb tenni, nem kell hozzá semmi különös vagy innovatív fejlesztés elég ha azt mondja hogy holnaptól a 2070 super 400-420$ a 2060 super meg 299-330 és így lefele és még így is keres a kártyáin eleget.
jelenleg elég ,megvan a 30 % ,de ha megnézed a negyedéves jelentést Nvidia eladásai is nőttek miközben a piac részük valamelyest csökkent a gaming piacon, azaz lehet hogy most váltott sok AMD felhasználó mondjuk Polarisról.De ha véletlenül még jön 5 % akkor Nvidia tesz ellene egy árvágással, ezért kell mögé igazi sebesség növekedést és előrelépést is tenni. - 
			
			
						-Solt-
veterán
Ott van három adat, aminek a lényege a folyamatos növekedés. A világ minden sarkában a piaci részarány növekedése a konkurencia kárára az érdem, kivéve PH-n az AMD találgatósban. Lehet nekem kimaradt az a rész amikor a konkurencia direkt arrébb húzódott, hogy a béka seggét szaglászó AMD egy kicsit levegőhöz jusson. Szerintem a Ryzen-k sikere is az Intel érdeme ha jó alaposan megnézzük... persze nyilván van az a szemellenző ami ennyire össze tudja szűkíteni a világot.
Ne érts félre, én is versenyt szeretnék, de most nem erről van szó, hanem az irritáló kettős mércéről. Nem vitának szánom ezt, csak nem tudtam megjegyzés nélkül hagyni azt a nagyívű hozzászólást.
 - 
			
			
válasz
							
							
								-Solt-
							
							
								#47008
							
							üzenetére
						Konkrétan nem. 2018 ban piacon lévő kártyacsaládra aminek az 2060 tagja gyorsabb volt minta az akkor felső szintet jelentő Vega 64 nehéz máshogy válaszolni 1 év késéssel, kötelező olcsóbban adni, ha csak 10-15 % árelőnnyel is mert kevesebb szolgáltatást nyújt( igen a rossz rossz RT, DLSS, VRS, RTx voice, fogyasztás se több éppen... a Dx 12 ultimate hiányáról ne is beszéljünk).Ha Nvidia árháborút akar akkor bele tud menni ebbe mert rekord nyereségekkel mennek.Tehát addig lehet ráncigálni az alvó oroszlán bajszát amíg engedi és lehet örülni, hogy engedi, hogy AMD olcsóbb legyen, úgy gondolom ez is egyfajta kartel a két cég között...
Ha csak egy árra leviszi a 2070 és 60 superek árát ki venne Navit a fanokon kívül vagy mi szólna mellette őszintén most mindenféle Vs témát elkerülve? Mert innováció amúgy nem sok van benne a Turingokhoz de a Vega 64 hez nézve sem, csak az ár. A fogyasztást meg kötelezően hozták 7 nm-n.
A 3 éves Vega 64 hez képest meg 20 % gyorsulást hozott az 5700 XT ugyan annyiért a sima 5700 meg kb ugyan azt hozza ( + 5 %)No offense nem annak szánom, hogy most menjen az adok kapok,de most komolyan gondold végig.
Ezért lenne jó ha Intel is beszállna végre mert úgy gondolom ez a két cég tökre összejátszik és előre megtervezett forgatókönyvek alapján dolgoznak. - 
			
			
						gejala
őstag
válasz
							
							
								#32839680
							
							
								#47000
							
							üzenetére
						NV akkor adta ki ezeket, amikor RT még nem sok vizet zavart. De most már ott lesz a konzolokban is, nem sok értelme van PC-re kiadni olyan új gaming kártyát, ami nem üti meg a konzolok szintjét.
De ha ennek ellenére akarnának ilyet, akkor ennek a kártyának tudnia kellene 1080p ultrán 80+ fpst, hogy legyen értelme rákapcsolni RT-t. Viszont 1080p kártya sehogy se fog megérni $200-nál többet, annyiért meg nem fognak ilyen erőset adni.Úgyhogy szerintem az lesz, hogy hoznak egy kártyát a konzolok szintjére és azt kettéosztják sima meg XT változatra 10-15% különbséggel. Ez már alapból 5700XT fölött lenne. E fölé meg hoznak ugyanígy kettőt, ami kb 40%-al gyorsabb. Az már olyan 2080 Ti +20-25%, vagyis kb 3080-al lesz versenyben.
AMD anyagi helyzetét és az RDNA bénázásait ismerve, nem hiszem, hogy kockáztatnának. A konzolos GPU adott, azt simán kidobják PC-re is kisebb módosításokkal és fölé meg hoznak egy CU-val jobban kitömöttet és kész.
 - 
			
			
						hokuszpk
nagyúr
válasz
							
							
								Petykemano
							
							
								#46998
							
							üzenetére
						ezzel rancfelvarrott Vegat a nepnek !

 
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- WoW avagy World of Warcraft -=MMORPG=-
 - Miért nem tűnik el soha a kalózkodás?
 - „Új mérce az Android világában” – Kezünkben a Vivo X300 és X300 Pro
 - RTX támogatással érkezik a Directive 8020
 - Milyen alaplapot vegyek?
 - Milyen processzort vegyek?
 - Hogy is néznek ki a gépeink?
 - Kuponkunyeráló
 - One otthoni szolgáltatások (TV, internet, telefon)
 - Gaming notebook topik
 - További aktív témák...
 
- RTX 5070 Ti OC 16G/ új, bontatlan/ 3 év garancia/ beszámítás/ ingyen foxpost
 - ASRock RX 9060 XT 16GB GDDR6 Challenger OC - Új, Bontatlan, 3 év garancia - Eladó!
 - Új garancias PNY OC rtx 4070 super 3 ventis OC verzio!
 - MSI GTX 1070 Ti GAMING 8G stabil, működésileg megbízható állapotban eladó!
 - Gainward Phoenix 3080 10G golden sample
 
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 32/64GB RAM RX 9070 16GB GAMER PC termékbeszámítással
 - BESZÁMÍTÁS! MSI MPG Z490 GAMING EDGE WIFI alaplap garanciával hibátlan működéssel
 - Samsung Galaxy A32 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
 - Azonnali készpénzes Intel i3 i5 i7 i9 12/13/14 gen processzor felvásárlás személyesen / csomagküldés
 - Telefon felváráslás!! Xiaomi Redmi Note 11, Xiaomi Redmi Note 11 Pro, Xiaomi 11 Lite
 
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: Promenade Publishing House Kft.
Város: Budapest
						
								
							
								
							
								
								
							
)
							
								![;]](http://cdn.rios.hu/dl/s/v1.gif)
								
							
							
								
								
							
								
								
							
							
								
 
							
								
							
								
								
							
							
								
 
Mintha a valóság és a látott dolgok két dimenzióba történnek. Most hogy végiggondoltam te nem egy demagorgon vagy ? Vigyázz a nyálkás átjárókkal 
							
							
								
								
 
								
							
							
								
