-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Hát igen. Surmó egy dolog ám a last minute driver. Főleg ami 22500-at csinál a korábbi 20000-21000-ből. Szegény tesztelők, akik már lemértek mindent a korábbival.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem kérdőjelezem meg. Ma már viccelődtem vele az NV találgatós topikjában. Érdekes ott többen értették a poént.
Kicsit lazíts, péntek van, menj el szórakozni... de ha akarsz róla beszélni, akkor én még ráérek egy picit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #42157 üzenetére
Ezért surmó dolog. Nem javult retteneteset, de annyit pont igen, hogy újra kell mérni. Mondjuk nekünk ez nem gond, eleve hétfőn kezdünk neki, csak más már kész van, és most ülhet vissza.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
awexco
őstag
-
Petykemano
veterán
Találgatunk, aztán majd úgyis kiderül..
-
Yutani
nagyúr
válasz Petykemano #42165 üzenetére
Nem értem, miért nem lehet ezt egy vélemény cikkben leírni, miért kell yt videóként publikálni. Ja, mert ez pénzt hoz. Akkor rendben.
Nem is néztem végig.
[ Szerkesztve ]
#tarcsad
-
Petykemano
veterán
válasz Yutani #42166 üzenetére
Manapság minden tech youtuber elmondja, hogy a youtube hirdetésekből származó jövedelem csökken. Hogy ez mennyire igaz, vagy nem, azt nem tudom, de mindegyik erre hivatkozva kéri a követőit, hogy támogassa a patreonon. Ezért cserébe prémium kontentet biztosítanak a discord csatornán. Ez nem tudom mi, mert még nem vettem a fáradtságot, hogy megnézzem. De eddig úgy tűnt, bizonyos tartalmak csak ott jelennek meg, meg lehet témát felvetni, beszélgetni - kinél Mit.
A lényeg, hogy a youtube video biztos hozhat pémzt, bár nekem itt még egyetlen hirdetést sem dobott fel. Ha kivétel is vagyok, szerintem ezek az emberek nem a youtube hirdetésekből élnek, hanem a patreon támogatókból. Azért ha van már 2000-3000 olyan követően, akik havi $1-t, vagy párszáz, akik $5-10-t hajlandóak áldozni, az már szép summa.
Nem tudom, hogy ugyanezt meg Lehetne-e csinálni szöveges cikkekkel. A videonak valószínűleg nagyobb bevonzó képessége van. Valószínűleg ugyanezért terjedt el a rádió és különösen a tévé az újság helyett.
Ez a kontent ráadásul magyságrendekkel igényesebben van összerakva, mint azok, amelyekben csak belepofáznak a kamerába.
De mindenesetre értelek, vannak emberek, akik könyv formájában olvassák a filmeket is, mert átélhetőbb. De sajnos, vagy nem sajnos az audiovizuális információközvetítés világában élünk. Egy gyerek ma inkább megnez egy két órás filmet és utána egy hétig meghal az unalomtól, mint hogy egy hétig olvasson.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Azt mondja, hogy
- ő $379 árat mondott, de nem úgy, hogy az a vágott lapka.
- de valójában az amdt nem érdekli. Neki mindegy, hogy ha és amennyiben az nvidia drága, akkor ugyanúgy drága pc gput veszel tőlük, vagy ha ez neked drága, akkor AMD hajtott konzolt veszel, vagy AMD hajtott cloud gamingre fizetsz elő. (Ez egyébként szerintem nem teljesen igaz, mert minél kevésbé végtermék gyártó egy cég annál.vékonyabbak a marzsok)
- ennélfogva valójában az nvidia van lépéskényszerben árazás tekintetében, de legalábbis az AMD-nek ez is kényelmes pozíció. (Ezzel meg azért nem értek teljesen egyet, mert bár a Navit designt nagyrészt kifizette a ms és Sony, a konkrét lapkák tervezésének, tapeoutjának és gyártásának és termékként való elindításának, szoftvertámogatásának is azért biztos van százmilliós költsége. Tehát azért nem tökéletesen mindegy, hogy elkelnek-e a navik, de az tény, hogy ha nem adja el őket bármi áron, abba nem rokkan bele )- röviden elmondja, milyen lépésekben történik a grafika.
- állítása szerint a gcnben a tesszeláció azért volt gyenge, mert kevés volt a puffer/regiszter és az eredményeket kénytelen volt a lassú és energiaigényes memóriába írni
- ezen az rdna új cache hierarciája segít
- a Turing és az rdna egymáshoz közelítő architektúrák
- akkor viszont az mvidia bajban van, mert a fejlesztők valójában a gcnre optimalizáltak eddig is,.mert azt ismerik. Az egy tévedés, hogy a játékokat nvidiára optümalizálják,.kivéve persze a szponzortáltakat.
- a valóság az, hogy a fejlesztők nem tudják és ráhatásuk sincs, hogy működik az nvidia vga. A zártság oka pedig az, hogy az nvidia eddig is olyan techmikákat alkalmazott, driverből vagy hardverből, amelyek alig észrevehető módon és mértékben rontottak a minőségen. A.gcn akkor és ott is dolgozott, ahol az nvidia kártya már legyintett a részletekre. Emiatt hatékonyabb volt az nvidiaTalálgatunk, aztán majd úgyis kiderül..
-
addikt
válasz Petykemano #42171 üzenetére
Köszi!
5600X 2x16GB 6800XT | i5-3570 2x4GB 1050TI | MS Surface Book | iPad Pro 12.9 | iPhone X | iMac e2008
-
Pécsi gyerek
addikt
válasz Petykemano #42171 üzenetére
Gigabyte b360 hd3+i5 8400+4×4 gb ddr4 2400 mhz+fsp 460 80+Gtx 1060 6 Gb +zalman z1 neo
-
Tyrel
őstag
válasz Petykemano #42171 üzenetére
Én végignéztem este, de kár volt, leginkább egy alaptalan és elfogult nézőpontot közöl, azt is szükségesnél 3x hosszabb videóban. Nagyjából AdoredTV szint, össze-vissza beszél meg elmélkedik, a saját rózsaszín szemüvegén keresztül.
Ja meg persze védi a korábbi találgatásait, kimagyarázza hogy az ő úgy gondolta ám hogy most igaza van. AdoredTV csapó 2.
A "játékokat alapvetően GCN-re optimalizálják" résznél már kb. csak röhögtem...Bocs ha megbántok valakit de eddig az egyetlen egy olyan YouTube csatorna ami kellően tényszerű, objektív, naprakész és informatív is, az a Gamer's Nexus. Éljen Tech Jesus!
Visszatérve erre a videóra az egyetlen érdekes pontja az volt (25:15), amikor azt taglalta hogy az AMD kártyák esetenként jobb képminőséget adnak, azzal indokolva ezt, hogy az nVidiánál sokkal nagyobb a driver fejlesztő csapat és megengedhetik maguknak hogy DX11-re és külön az egyes játékokra is olyan "optimalizálásokat" csináljanak, amik miatt alapvetően kevesebbet kell számolnia a kártyáinak, érzékelhető minőségromlás nélkül. Úgy értve hogy ha fut egy játék 60+ fps-el akkor tökre nem veszed észre hogy a kép bizonyos részein valamit alacsonyabb részletességgel renderelt vagy kihagyott egy shader lépcsőt vagy akármi, inkább csak örülsz a magas fps-nek.
Aztán ha ki screenshotolsz egyetlen képkockát és abba még bele is zoom-olsz akkor látod a turpiszságot, de valós időben nem.Ez kb. azért érdekes mert hasonló városi legendák már évtizedek óta keringenek az nVidiáról, még anno a 3dfx-el vívott harcuk kapcsán is felmerült, majd az első ATi Radeon szériás kártyákról is válltig állították egyesek, hogy szebb a képe. Bizonyos időközönként ez azóta is elő-előjön... Itt a fórumon is vannak páran akik írogatták már, ogy nekik volt mostanában mindkét gyártótól videokártyájuk és a Radeonok képe szebb.
Én nagyon megnéznék egy független, objektív tesztet erről, hogy tényleg igaz-e, és ha igen akkor általánosan, vagy csak egyes játékokban amikben az nVidia kiemelt figyelmet fordított az "optimalizálásra"...
[ Szerkesztve ]
Turenkarn
-
-
TTomax
nagyúr
Hát igen,csak az mennyire van hatással a teljesítményre mert azért ebből is lehet teljesítményt nyerni ha igaz az állítás.
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Callisto
őstag
Én amióta létezik felváltva használok ATI (már AMD) és nVidia kártyákat. Magam állítgatom be őket és mai napig Radeonokon valós időben láthatóan szebb a kép akárhogy akarom elérni ugyanazt nVidiával nem lehet.
Jelenleg 1080 Ti-m van, mert szégyen ide vagy oda, de beáldoztam a képminőséget a sebesség oltárán."A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
Carlos Padre
veterán
válasz Petykemano #42170 üzenetére
Én ezt is megértem, de akkor sincs 30 percem 30 másodpercnyi infóra.
Genyó vagyok, ha hülye vagy megmondom.
-
imi123
őstag
válasz Callisto #42178 üzenetére
Én szintén folyamatosan cserélgetem a kártyáim de semmi különbséget nem látok.
Nyilván egyén függő és azért az sem mindegy milyen monitoron nézed.
Én eddig TN panelos monitorokat használtam.Most váltottam IPS-re.Lehet most már nekem is feltűnne a különbség.Tévedni emberi dolog, de állati kellemetlen.
-
westlake
félisten
-
Abu85
HÁZIGAZDA
válasz Petykemano #42171 üzenetére
Reflektálok rá:
"- állítása szerint a gcnben a tesszeláció azért volt gyenge, mert kevés volt a puffer/regiszter és az eredményeket kénytelen volt a lassú és energiaigényes memóriába írni"
A tesszelláció a TeraScale-ban volt gyenge a GCN-ben már erős. Emellett ennek nincs igazán köze a regiszterhez. Van egy puffer ideiglenes tárolásra, de az nem nagy. A memóriába is lehet írni, de annak csupán az a haszna, hogy ha egy mesh tesszelálva van, akkor azt el lehet úgy menteni, és a következő frame-ben csak be kell tölteni. A tesszelláció azért gyenge teljesítményű egy ponton túl, mert a háromszögek kisebbek lesznek 16 pixelnél, és mivel a hardvereket még ma is quad raszterre tervezik, így amint alámész ennek a határnak, rögtön összeomlik a raszter hatékonysága. 8 pixel/háromszöggel már csak 50%-os a raszterizáció, ami gyakorlatilag azt jelenti, hogy hiába viseli el a hardver a munkát a geometria szempontjából, a raszter motorok a munka felét feleslegesen gyakorlatilag csinálják meg. Az RDNA-nak az automatikus prim culling pipeline-ja ugyan tényleg sokat jelent, többet bármilyen korábbi trükknél, de az alapproblémát nem kezeli, vagyis az RDNA-nál is ugyanúgy a raszterizálással kapcsolatos munka fele felesleges 8 pixel/háromszög mellett. Ez minden GPU-n így van és így is marad, amíg nem jön rá valami quad-fragment merging szerű megoldás az API-ban. Hiába trükközik szét a gyártók a pipeline elejét, a raszterizáláson bukik minden.
"- ezen az rdna új cache hierarciája segít"
Ha a tesszellációra gondolt, akkor azon nem igazán. Sokat ér máshol, de pont a tesszelációnál nem lényeges.
"- a Turing és az rdna egymáshoz közelítő architektúrák"
Inkább távolodók. A GCN és a Turing hasonlít nagyon. Az RDNA valamivel másabb. SIMT-nek SIMT persze, csak amíg a GCN és a Turing csak TLP-re van optimalizálva, addig az RDNA ILP-re és TLP-re is.
"- akkor viszont az mvidia bajban van, mert a fejlesztők valójában a gcnre optimalizáltak eddig is,.mert azt ismerik. Az egy tévedés, hogy a játékokat nvidiára optümalizálják,.kivéve persze a szponzortáltakat."
Ez addig igaz, hogy a fejlesztők GCN-re dolgoznak, de a GCN és a Turing optimalizálási iránymutatásai azért eléggé hasonlók. Nem minden szempontból, de úgy jellemzően elmondható, hogy a shaderek megírása tekintetében, ami jó a GCN-nek, az tulajdonképpen jó a Turingnak is, és fordítva. Ergo olyan különösen nagy hátrány az NV-t ezen a ponton nem éri. A Pascalnál lehet, hogy ez gond, de a Turingnál már nem.
"- a valóság az, hogy a fejlesztők nem tudják és ráhatásuk sincs, hogy működik az nvidia vga. ..."
Nagy részleteiben nem tudják, ezért is történik az R&D GCN-en, de azt azért meg tudják nézni az NV profilozóján is, hogy egy adott shader mennyi erőforrást emészt fel, azzal mennyi konkurens warpot tudnak futtatni, mit kell tenniük, hogy több fusson, ha az adott warp mennyisége nem lenne elég, stb. Amikor eljutnak oda a fejlesztők, hogy GeForce-on is tesztelnek, akkor már a GCN-re van egy olyan kód, ami úgy nagyjából hozza azt a teljesítményt, amit céloztak. Innen már nem kell ahhoz nagyon-nagyon részletesen ismerniük a Turingot, hogy további optimalizálást hajtsanak végre. A GCN leginkább az R&D szintjén nagy segítség, mert az sokkal nehezebb lenne nélküle, de amint van egy bizonyos architektúrán már működő kódod, akkor azzal már sokkal könnyebb dolgozni más architektúrán is.
"... A zártság oka pedig az, hogy az nvidia eddig is olyan techmikákat alkalmazott, driverből vagy hardverből, amelyek alig észrevehető módon és mértékben rontottak a minőségen. A.gcn akkor és ott is dolgozott, ahol az nvidia kártya már legyintett a részletekre. Emiatt hatékonyabb volt az nvidia"
Igazából egy túrót rontottak. A driverek alkalmaznak bizonyos optimalizálásokat, amikkel teszem azt kicserélnek bizonyos formátumokat másikra, de nem csak azért, mert ebből teljesítményt lehet nyerni, hanem azért is, mert esetlegesen arra a formátumra írták a programot konzolhoz, csak éppen PC-n annak nincs API szinten támogatottsága, stb. Arról sokat lehetne vitázni, hogy ez csalás vagy sem, de mivel tulajdonképpen mindenki ezt csinálja, így kb. nem érdekes. Emellett az efféle optimalizálások a játékok kis részét érintik, és tényleg nagyító kell az észrevételükhöz. Szóval olyan nem igazán van, hogy a GCN számol valamit, az NV meg csak legyint rá, ha van, akkor az maximum valami driverbug.
Amire itt szerintem próbál utalni, az a DX11 vs. DX12/Vulkan. DX11-ben valóban hatékonyabb az NV, és ennek az oka leginkább az, hogy vannak bizonyos speciális pathok a hardverben, hogy gyorsítsák az egyes DX11-es parancsokat. A DX12/Vulkan ezt ugye kizárja, mert már nem a kernel driverben van a parancslista (nincs is ugye kernel driver), hanem az OS-ben. A Microsoft és a Khronos pedig nem fogja hardverfüggően flaggelni ezeket, hogy ki milyen speciális path-okkal rendelkezik. Vagyis minden grafikai parancs és compute egységes, a driver számára maximum a compute parancsok kezelése megengedett, de a grafikait el kell fogadniuk úgy, ahogy az OS-től jön. Emiatt van az, hogy az NV-nek a DX11-hez szabott speciális path-ok nem működnek már a hardverben DX12/Vulkan alatt. Emellett persze nyilván az is számít, hogy az AMD 2014 elején adott ki explicit API-ra hivatalos implementációt, míg az NV 2016 elején, azt is újraírták nemrég. Ennyi év plusz tapasztalattal persze, hogy valamivel jobban működik DX12/Vulkan API-val az AMD. De ennek aztán tényleg semmi köze ahhoz, hogy az NV valamit nem számol, vagy hasonló. Ha ők csinálták volna meg a Mantle-t, és nekik lenne nagyobb tapasztalatuk az irányból, akkor most az NV drivere lenne ott, ahol az AMD-é van. Ennyire egyszerű.
Ami pedig a játékokat illeti, alapvetően két lényeges különbség van az AMD és az NV között az DX12 implementációk tekintetében. Az egyik, hogy a Turing előtt az NV nem volt minden buffer viewre vonatkozóan bindless, de a Turing már az, ahogy a GCN is. Ezzel a Turingnak és a GCN-nek jobb, ha a buffer viewek nem direkten a Root Signature-be kerülnek, hanem egy memóriahalmazba, míg a korábbi GPU-knak pont ennek az ellentéte az ideális. Csak ugye utóbbival az volt a gond, hogy bármennyire is akartak régebben kedvezni a Pascalnak, nem minden buffer view köthető be direkten a Root Signature-be, tehát a memóriahalmazok használata elkerülhetetlen. Ezért tervezte át ilyenre az NV a Turingot. Ebből a szempontból tehát már lényegében ugyanazok az ajánlások a Turing és a GCN esetében, csak a Pascal miatt tartja magát az NV a régi ajánlásai mellett.
A nagyobb különbség a memóriatípusok kezelése, amely még ma is fontos, mert az AMD és az NV nagyon eltérő itt:
Az NV-nek a memóriafelosztását nagyon nehéz optimálisan kezelni a program oldalán. És ezt valóban nem mindegyik DX12/Vulkan címnek sikerül jól abszolválnia. De ez nem azt jelenti, hogy az NV-nek a felosztása rossz, csak nagyon nehezen lehet rá optimalizálni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#82819712
törölt tag
válasz Shkiz0 #42185 üzenetére
Ez egy érdekes teszt a Vega 64 kár hogy nincs a benchben csak összes NV mert akkor jobban látható lenne mennyire optimalizált is a Végső Fantázia.
Nekem a tesztben egy dolog tünt fel:
Ahol NV vár konkurenciát ott:
2070: 2304 Cores-> Super 2560 Cores
Ahol nem vár:
2080: 2944 Cores ->Super 3072 Cores
A gondolatmenetet szerintem érti mindenki.[ Szerkesztve ]
-
Televan74
nagyúr
-
sutyi^
senior tag
válasz #82819712 #42186 üzenetére
Nincs benne semmi érdekes mert hemzseg a hibáktól és az összes valamire való techoutlet kiszedte a tesztek közül, miután bejelentették hogy a benchmarkban semmit nem fognak javítani már és a teljes játék javításai sem fognak belekerülni.
-Pedig nem is én utállak téged, te utálod saját magad! - ...és mégis egész nap együtt kell lennem saját magammal.
-
Petykemano
veterán
Találgatunk, aztán majd úgyis kiderül..
-
awexco
őstag
válasz Petykemano #42191 üzenetére
Akkor tudok navit venni , mert lesz dögivel ?
I5-6600K + rx5700xt + LG 24GM77
-
TTomax
nagyúr
válasz Petykemano #42191 üzenetére
De drága az N7,azért emelkednek az árak...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
#82819712
törölt tag
Érdekes VS
az 5700 az alábbi memóriákkal várható:
K4Z80325BC-HC14
MT61K256M32JE-12[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- 10x R5 430 2GB DDR5 egybe (zörgő ventis)
- GARANCIÁLIS! MSI SUPRIM RTX 3080 Ti 12GB GDDR6X Videokártya! BeszámítOK
- eMag GARANCIA! ZOTAC Trinity RTX 3080 10GB OC GDDR6X Videokártya! BeszámítOK
- ASRock Radeon RX 6800 XT Phantom Gaming
- BESZÁMÍTÁS! GIGABYTE WindForce 2X GTX 960 4GB GDDR5 videokártya garanciával hibátlan működéssel