-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
igen ez az átka a nem hivatalos chartoknak én nem is arra vonatkoztattam a hozzászólásom hogy ez igaz e vagy nem vagy milyen a cikk. Mint ahogy az a hozzászólás sem igazán azzal foglalkozott.
Továbbra is azt gondolom a 3070 alatta lesz a 2080 Ti hez nézve régebbi címekben ,újakban már nem biztos.
A linkedre :
Sima 2070( nem super) és a 2080 Ti között kb 30-40 % hisz ha megnézed a 2060 super kb az felel meg annak.. egy januári tesz azóta kijött az redhisftből is az új már [link] .Én is sima 2070 karit használok 3 DS -re .
-
-
2xar
tag
A HW-UB azt igazolta hogy van jópár játék, ahol a 3080 NEM CPU-limit miatt tud csak alig gyorsabb lenni egy 2080TI-nél alacsonyabb felbontásokban (1440P-ben 21% átlagosan, 1080P-ben 16%), hanem egyszerűen azért mert ennyit tud a kártya.
Persze nincs is ezzel semmi baj, egyszerűen csak tudomásul kell venni, hogy a 3080-as egy 4K-ra optimalizált kártya. Ott tudja csak igazán megmutatni az erejét. Már 1440P-ben is néha CPU limit, máskor pedig a kártya limitációi miatt jóval kisebb előnyt tud összehozni a 2080TI-hez viszonyítva.
Többnyire sztem úgyis 4K-ra fogják venni az emberek. De aki nem, annak nem árt ha tisztában van vele hogy a pénzéért nem egy fixen 2080TI + 30-35% teljesítményű kártyát kap, hanem sok esetben (pl. AC:O, Doom, F1 2020, Horizon, R6S) csak +15-25%-osat. Még akkor is, ha netalán a jövőben a ma létezőeknél erősebb CPU-t rak alá.
-
2xar
tag
Pedig a Hardware Unboxed ki is mérte. Vannak olyan játékok, ahol valóban CPU limitbe fut a 3080-as még csúcs procival is, de legalább ennyi játék van ahol meg semmiféle CPU-limit nincs, mégis gyengélkedik 1080-1440P-ben.
Azért maradjunk egy kicsit a realitás talaján...
A 3070 a speckók alapján a matematika és a józan ész szabályai alapján kb. 66%-át fogja tudni a 3080-nak. 1-2 játékban felmehet 70-75%-ra (vagy tuning esetén), de a nagy átlag alapon 66% lesz. Az pedig 2-3%-al van 2080S szintje felett, kb egálban lesznek. A 3060 ehhez képest még újabb 20%-al lennebb lehet majd (bár ennek nem csekkoltam a speckóit), amivel a 2070 és a 2070S között lehet. Aki ennél többre vár az keserűen fog csalódni... -
Bandit79
aktív tag
Igazából a fejlődés relatív , nem lehet mindig tartani valamiféle állandót. Törvényleges, túl nagy fejlődések után nem lehet egyre nagyobbakat lépni, 3 generáció múlva tudatra kelnének a gépek
.
Amúgy a mostani fejlődést sem lehet kicsinek mondani, ahhoz át kell nézni a másik oldalra 3-4 generáció óta(lehet keveset mondok) milyen kínlódás megy. -
Az a teljesítmény ,azt értem, de szigorúan műszaki szempontból dobtak rá speckó GDDR6X ramot, duplázták a z RT és tensor magok számát, módosították a memóriavezérlést a warp ütemezőt,változtattak a ROP ok bekötésén plusz bekötöztek a GPC be,a multiprocesszoron is módosítottak, SR-IOV, RTX IO csatoló, kifejlesztettek egy új típusú hatékony hűtőt, váltottak csíkszélt , gyártót .új dekódolót kapott, HDMi 2.1 stb..
Azért van műszaki tartalom elég rendesen , szerintem kicsit túl is tolták. -
Bandit79
aktív tag
Mit kellett volna letenniük szerinted még az aszatra ,ebben a "nagy" versenyben amire AMD kényszeríti, azon kívül ,főleg hogy jön egy gyártástech javulás is tavasszal, újabb version.. ?

flydomi (#34268) ..ha gondolod megveheted ezt is: (így már nem is olyan drága a 3080)
[link] -
Alogonomus
őstag
Single core teljesítményben Cinebench alapján 3600X és 3700X nagyjából azonos (492 és 494), 8700K viszont erősebb mint 9700K (479 és 466). Intelből így erősebb CPU kell 2K/60-hoz, mint 4K/30-hoz. Multi core esetén is erősebb a 8700K, mint a 9700K (3793 és 3656).
AMD és multi core esetén kell csak látszólag erősebb CPU, de valójában aligha fog 6-8 szálnál többet használni a játék, szóval mindegy a 3700X plusz 4 szálából eredő magasabb elméleti értéke. -
gejala
őstag
"A 4K/60 még a térképen sincs náluk"
AMD támogatott játék, nem merték ráírni a 3080-t.![;]](//cdn.rios.hu/dl/s/v1.gif)
Egyébként meg Odysseyben egy 8400 tudja a 60 fpst ultrán, max pár helyen esik be kicsit, de az a játék hibája. Most, hogy kidobták a DX11-t, bármilyen modern 6 magosnak tudnia kellene a 60 fpst.
-
Segal
veterán
-
Oh... mit nézett be a Pista?

Gyorsan átfutottam, az látszik, hogy azért a modernebb DX12/Volcan motorok alatt muzsikál jobban az Ampere (TR, R6, Resi3, stb)... a régi vagy konzolportos, stb. motorok alatt nem jön ki annyira az előny.
Szerintem, ha beindul majd itt az igazi RT meg shader móka mégjobban, szépen el fog majd ez távolodni a Turingtól (is). Bár évek óta ezt mondjuk mindig minden generációváltás után.

Bár tény hogy a DLSS meg pont ez ellen fog dolgozni, mert az meg összehozza a generációkat jobban.

Mindig meg is kell hallgatni mit mond... lehet szóban hangzik el a lényeg.
-
Cifu
félisten
Tekintettel arra, hogy az áron a sokkal nagyobb chipek miatt eleve kellett emelniük (elmászott a profitmaximum pontja), és a sokkal nagyobb chipekre eleve az RT miatt volt szükség, nekem egyértelműnek tűnik, hogy túlbecsülték a közönség várható lelkesedését a sugárkövetés kapcsán.
Őőőőő... a lelkesedés attól függ, hogy hány játék támogatja. Pár címmel az RTX tarsolyában aligha lehetett azt várni, hogy megrohamozzák a felhasználók a boltokat csak azért, hogy RTX kártyájuk lehessen.
Lehet, hogy így készültek, ha igen, akkor irgalmatlan ostobák voltak.
Nekem viszont nem így tűnik, hiszen az RTX csak egy eleme volt a komplex rendszernek.Ha a Pascal árakon jött volna a +35-60% kraft, azzal mindenki happy lett volna.
Lássuk be, hogy egy-egy generációváltásnál a +60% teljesítmény azonos árrégióban nem túl sűrűn fordul elő. Talán a Voodoo 1 vs. Voodoo 2 esetében volt ilyen durva előrelépés?
A +30% is igen jó lett volna...
BTW én örülök annak, hogy az nVidia előjött az RTX-el és a DLSS-el, jobban kedvelem, ha innovációval jön elő, mint amikor csak nyers teljesítményben való versenyzésről van szó... -
2xar
tag
Márpedig a 2000-es széria nem sok újat/jobbat hozott, legalábbis ár/érték arányt tekintve. És azért mégiscsak magasan az a legfontosabb tényező. A csúcskategóriában egy fokkal kevésbé, de ezek az +$1000-os árak már ott is meghaladták az ingerküszöböt. Nem véletlenül volt csalódás a fogadtatása/eladási számai még úgy is, hogy az AMD mai napig csak a 2070(S)-ig tudott direkt konkurenst állítani melléjük (és ahová tudott, oda is csak 1+ éves lemaradással).
-
Szerintem nem hitték ők el, ez csak szimpla marketing volt.
Volt egy új generációjuk, ami világmegváltó akart lenni, de végül nem tudták azon a gyártástechnológián készíteni, amin eredetileg akartak volna, így lassabb meg jóval drágább is lett.Emiatt sajnos nem volt más választásuk: agyon kellett marketingelni az RTX-et (az RT-re és a tensorra alapozó technológiákat), hogy el tudják adni veszteség nélkül. Mi mást tehettek volna?
Most meg itt a 3000-es széria, ami relatíve nagy ugrásnak néz ki, mert a 2000-es széria előrelépése relatíve kicsi volt. Meg ugye az új széria RT-magjai jóval hatékonyabbak, ami miatt még nagyobb az ugrás. Szóval a 3000-es szérián behozták azt, amit a 2000-es szérián elvesztettek.
-
Cifu
félisten
Másképpen látom. Szvsz az nVidia látta, hogy most lehet olyasmivel próbálkozni, ami amúgy nem létfontosságú, de ugyanakkor a képminőség javulását hozza.
Emlékszünk a 3Dfx féle Full Scene Anti-Aliasing marketingre és hatásra? Tök jó volt amúgy az FSAA, csak éppen megfelezte a Voodoo 5 sebességét. Így meg már nem volt olyan jó. Pláne, hogy verseny volt, ahol a 3Dfx-nek nem biztos, hogy egy ilyen megoldásra kellett volna feltennie mindent.
Az nVidia a Turinggal nem betlizet. A Ray-Tracing előbb-utóbb úgy is jött volna, de pont egy olyan időszak volt, amikor a konkurencia vergődik, hát belelapátolták a Turingba. Ha nincs RT, akkor sincs baj, mert akkor is a leggyorsabb kártya az övék. De az RT egy plusz lépés, amit extraként lehet eladni. Az AMD meg csak pislogott, mert nem volt a közelében sem a hardver-támogatott Ray-Tracingnek, így az RDNA egy olyan harcba lett arcal előre beküldve, ahol kb. semmi fegyvere nem volt. Perf/watt terén ott volt, mint a Turing (a 7nm ellenére), sebességben nem volt válasz a felső kategóriára, közben pedig hardveres RT sem volt.
Szvsz ha nem lett volna a Turingban RT támogatás, akkor is körülbelül ilyen áron hozta volna ki az nVidia őket. Egyszerűen így is ott voltak a csúcson, úgy is ott vannak a csúcson, nach so.
-
A Turinggal csak a perf/area a probléma (ezért mocsok drága, hiába jó a perf / watt), a legkisebb chip is majdnem akkora, mint az 1080 Ti által használt. Persze oké, van benne ray-tracing meg tensor is, ezért ilyen. Meg ugye állítólag a Samsung 10 nm-es gyártósorára készült volna eredetileg, ami eléggé logikusnak tűnik, mert a 754, 545, 445 mm2 az bazi nagy chipméret. Összehasonlításképp a Pascal 471, 314, 200; Maxwell 600, 398, 227; Kepler 561, 294, 221. S akkor itt az Ampere, aminél csak az első kettő van meg, de ezek már normális méretek: 628 és 392 mm2.
-
Simid
senior tag
Rosszul fogalmaztam. Nyilván megtehetik, csak feltalálták ők ennek már egy okosabb módját -> Super. Ugyan azt a coreconfigot mgasabb órajellel és esetleg 12GB rammal kiadva még rá is dobhatnak 100$-t és nekik is olcsóbb lehet.
#33833: Persze csak az 4 SM pont nem ér semmit egy ennyire compute nehéz kártyánál.

#33835: Megelőztél!

-
-
Busterftw
nagyúr
-
-
KillerKollar
őstag
Teljes mértékben egyetértek, bár a 3080 jobban meg lett vágva, mint a 2080 Ti, így talán a 3090-el korrektebb lenne az összehasonlítás műszaki szempontból, mind a kettő 102-es chip, még a 2080 kisebb, 104-es chip volt.
Azt sem szabad elfelejteni, hogy már a megvágott GA102-es amit a 3080 használ is 320 wattot zabál, a 2080 Ti pedig csak 250-et, így ugyan nőtt a teljesítmény, de a fogyasztás is... ha pedig egy 2080 Ti-t egy jobb hűtéssel fel tudsz tuningolni annyira, hogy annak is hasonló legyen a fogyasztása, akkor a teljesítmény különbség is jóval kisebb...
A 3090 már korrekt előrelépés teljesítményben a 2080 Ti-hoz képest (40-45%), de annak még magasabb a fogyasztása, fogyasztói szempontból meg pocsék vétel 1500$-ért, úgy, hogy már az NV is beismerte, hogy csak 10-15%-al gyorsabb mint a 3080.
-
Dyingsoul
veterán
Én Jensen papa szokásos showjától nem is dobtam akkora hátast, vártam a reviewerek tesztjeire. De a hitelesebbek is eléggé odáig voltak az Ampere-ért. Viszont a te írásod is logikus. Akkor most nincs igazság vagy mi van? Jó az Ampere vagy szar? Kezdem úgy érezni a 1080 Ti-nek maradnia kell még két évig.
Az árak meg röhejesek így is. Itthon most kb ugyanolyan árakról beszélgetünk 3080 esetén, mint anno a 2080 Ti esetén. ici picit mérsékeltebb de akkor is. Lehet ez még csak a kezdeti hype, fene tudja de nagoyn nem OK valami.Én az AMD-t még tuti megvárom, sőt. Lehet én vagyok már befásulva, de valahogy nem érzem azt, hogy mindenképp de azonnal kell. Pedig szükségem lenne a plusz kakaóra, de nem vagyok hajlandó bármennyit fizetni érte.
AMD minden esetre már nagyon sok ziccert kihagyott, emiatt valahogy elképzelhetetlennek tartom, hogy meg tudna lepni. Arra számítok, hogy legjobb esetben is hoznak egy 5-10%-kal gyengébb csúcs GPU-t, mint a 3080, mondjuk 600 $-ért. Lehet, hogy ez nem lenne rossz, de meglepetésnek, pláne forradalomnak nem tudom nevezni ezt ha így lesz. -
elite.cs11
senior tag
A hardveres része kevésbé vonz a dolgoknak, ezért nem is nagyon figyeltem arra oda. Se a 3090 vérható teljesítményére. Miután bejelentették az árát úgy voltam vele, hogy egy 3080 tökéletes lesz nekem. Szóval lehet azért ütött ekkorát most ez a benchmark leak. Akkor is wtf

-
2xar
tag
Nem egészen. A GA102-es SKU a 3080-ban nagyon szép eladásokat fog produkálni, lévén az új széria (eddigi) legjobb ár-érték arányú kártyája. Úgyhogy már a 3080-on bőven profitot fog hozni annak az SKU-nak a kifejlesztése. Persze nyilván az Nv sem fogja bánni a 3090-eken befolyó extra profitot, de konkrétan annak a VGA-nak nem az elsődleges célja a közvetlen profittermelés, hanem a halo effect.
Nyilván te is tudod, hogy egy termék profit/ár grafikonja egy haranggörbét ír le. Ha az adott termék profitját maximalizálni akarjuk, akkor csak meg kell nézni, hogy hol van a haranggörbe csúcsa, és azon az áron adni.
Meggyőződésem hogy az Nv a csúcskártyáit a haranggörbe csúcsához képest jobbra lövi be. Azaz túl drágán adja őket és emiatt annyival kevesebbet ad el belőlük, hogy már csökken azokon a kártyákon az összprofitja. De azáltal, hogy ezeket a kártyákat még exkluzívabbá teszi, még értékesebbnek láttatja ("ilyen drágán is adhatom a VGA-imat, ENNYIVEL jobb vagyok mint a konkurencia"), tovább növeli a halo effect-et. Persze ez a stratégia/pszichológiai trükk csak akkor működik ha TÉNYLEG övék a stabilan, minden játékban legjobb kártya. De akkor nagyon.
-
Devid_81
félisten
AMD adhatja olcsobban a 16GB GDDR6-et, valoszinuleg olcsobb az mint 10GB GDDR6X

Meg ha igazak a hirek akkor a Big Navi GPU die kisebb is mint az Ampere, szoval siman elkepzelheto, hogy olcsobban jon.
De szerintem megint csak annyival lesz olcsobb amennyivel gyengebb, mostanaban az a jol bevalt szokasuk, ennyi a nagy arverseny.
Bar az AMD kartyak idovel tok jol beallnak arban, AIB kartyak legalabbis.
-
yagami01
aktív tag
Viszont akkor lehet kiadná a 80Ti-t vagy Supert vagy simán csak egy variánst a 80-ból, ami 20 gigás és egyből el lehetne rajta gondolkodni, hogyha mindezek jó áron lesznek a Navihoz képest, ez ugye még kérdés. Már ha valakinek a VRAM szükséges, persze még ott lenne az a 10%. Mindenesetre nem lenne rossz, ha meglenne szorongatva 3090 egy jobb áron, hátha árcsökkenést eredményezne abban a szegmensben. De nem tudom, hogy ez meglesz-e... kiderül.
-
2xar
tag
Lehet, sőt biztos. De pont az volt a fenti okfejtésem lényege, hogy nem számít az Nv számára a 3090 piaci sikere/kudarca. Az se érdekli őket ha 1db-ot se adnak el belőle. A lényeg az, hogy elmondhassák és az emberek azt lássák, hogy minden tesztben a legfelül lévő kártya az Nvidia RTX 3090. Ez a tény önmagában elég lesz ahhoz, hogy az emberek sorban álljanak majd a 3050/60/70-es kártyákért.
(#31670) DeathAdder: Én már előre bekészítettem a mémet
Bár még egy hónapot várni kell hogy kiderüljön igazam van-e. -
-
Abu85
HÁZIGAZDA
Valamilyen szinten gyakorlati, mert bele lehet futni, tehát fontos felhívni a figyelmet rá, hogy az adatlokalitásra az Ampere-nél nem érdemes optimalizálni, mert például a két új konzol akkor működik igazán jól, ha a shaderek pont késleltetésre optimalizáltak, vagyis az adatlokalitásra koncentrálnak a megírásukkor. Tehát ha egy stúdió erre helyezi a hangsúlyt, akkor a konzolra írt shadereket nem nagyon érdemes módosítás nélkül áthozni, mert pont, hogy beleesnek az Ampere rossz végletet jelentő szcenáriójába. Ez lesz az egyik leglényegesebb szempont ennél a dizájnnál, hogy PC-re legyenek külön Ampere-re optimalizált shaderek, és ne a konzolról fussanak be, mint az aktuális generációban, mert amíg a GCN-re való optimalizálás a Maxwell, Pascal és Turing esetében nem volt igazán gond, addig az RDNA-ra való optimalizálás az Ampere-nek pont nem jó.
Ugye ezekkel az NVIDIA még tud dolgozni, hiszen maga a shader cserélhető a driverből. Tehát megtudják ugyanazt csinálni, mint az AMD a Terascale dizájnoknál, hogy folyamatosan optimalizálják a shader fordítót, cserélik a kódokat, de ezzel a day0 support ugrik, így fontos lenne, hogy már a program jó shadereket szállítson.
A day0 support leginkább abból a szempontból egy igen értékelhető lehetőség az elmúlt években, mert a GPU dizájnokból száműzték a co-issue feldolgozási modellt.
-
Abu85
HÁZIGAZDA
Változott a warpok ütemezése, illetve az adatelérés késleltetése nőtt. Ez az új felépítés sajátja, ami miatt az Ampere minimális szintű kihasználásához több warp kell, mint a Turing esetében. Ha viszont az adott shader pont annyi warpot futtat, amennyi a Turing átlapolási minimuma, akkor az Ampere ugyanannyi warppal az extra ALU-k ellenére is lényegesen rosszabbul teljesít, mert a korábbinál több warp kell már neki, hogy átlapolja az adatelérést. Ebben a szituációban a Turing még képes működni, míg az Ampere már hátrányban van, és kihasználtságot veszít. Ez egy viszonylag szűk tartomány, de ki az Ampere minimum működéséhez legalább 2-vel több warp kell, mint a Turinghoz, tehát finomabban kell majd bánni a regiszternyomással.
Van egy másik tényező is, amire figyelmeztetve vannak a fejlesztők. Régebben opcionális stratégia volt olyan shadereket írni, ahol rámentél az adatlokalitásra, így magát a warpok számát beáldoztad, hogy az adat jó eséllyel ott legyen a multiprocesszoron belüli gyorsítótárakban. Az Ampere esetében ez a stratégia már nem ajánlott. A Turingon viszonylag sokszor működik, de az Ampere-nél elég ritkán válik be.
Van tehát egy szűk tartomány, ahol hiába hasonló a felépítés a Turinghoz, az Ampere több limitbe ütközik bele, és ez jelentősen ront a kihasználtságán, amit nem igazán tud ellensúlyozni a több ALU-val. A jó hír, hogy ilyen szituáció azért elég ritka, de gyakorlatban is előfordulhat, tehát számolni kell a fejlesztés szintjén az elkerülésével.
-
Drizzt
nagyúr
Én még amikor gyerek voltam imádtam. Ma már csak nagyon indokolt esetben állok le tuningolni. Pl. ha egy proci legalább 1 Ghz-vel magasabb frekin tud menni, mint alapból. Ma már ami kell, az egy csendes és gyors gép, ami működik, aztán jól van. Valószínűleg életemben először azt is fogom kérni a boltban, hogy rakják össze helyettem.
-
Malibutomi
nagyúr
A GPC skalazodas kerdeses, de az orajele elvileg alacsonyabb mint a 3080-nak es a CUDA core szam is csak 20%-al tobb( az is ugye a duplazassal szamolva)
Szoval a 20% kulonbseg szerintem csak akkor johet elo ha csillagok egyutt allnak es Jensen epp veraldozatot mutat be a benchmark kozben. Ja igen es ugye ezzel az orajelenkenti 2 utasitas/orajellel sincs 100% skalazodas valoszinuleg, inkabb csak 75% korul Szoval en 10 max 15% kulonbsegre szamitanek a 3080 es 3090 kozott. -
keIdor
titán
Szerintem Superek lesznek és a szokásos refresh ciklusban fognak érkezni, ami kb. jövő nyár, mert 9-12 hónappal kell számolni. Az nV így refreshel.
Ki is jön a matek, ha januárra tervezi a Micron hozni a 2GB IC-ket, akkor onnantól kezdhetik a tömegtermelést, ami megint azt jelenti, hogy nyárra lehet 3070 Super 16GB, valamint 3080 Super 20GB.
A Lenovos 3070Ti meg hülyeség, az az oldal valóban két éve emlegette a GTX-1180-at. Az se létezik.
Szerk.: Hozzátenném gyorsan, hogy az nV-t a Vega VII 16GB ramja se érdekelte. Ott volt a Titan tőlük 24GB-al. Most ott a 3090. Nem fogják lereagálni, két éve se foglalkoztak vele.
-
Malibutomi
nagyúr
Igen ezek kerdesesek, bar ha a PS5 GPU-bol indulunk ki (meg amit Abu irt) akkor az orajele magasabb lehet mint az 5700XT akar 20-25%-al)
En mindenesetre orulok hogy atugrottam az NV 2000-es szeriat es nem vettem 2080S-t. Most kivarom meg a Navit aztan osz vegere a 700£-ert amit raszanok joval tobbet kapok mint kaptam volna tavasszal
-
szmörlock007
aktív tag
Hmm, köszi. Elvileg a csúcs rdna2 is oda fog érkezni kb, aztán meglátjuk mi marad belőle megjelenésig.
Engem a 300-350 dolláros ársáv érdekel, szóval én majd az rtx 3060-ra leszek kíváncsi(meg annak az amd konkurensére), valszeg az lesz 350 dollár kb. Bármit is fog tudni, a mostani 2 gigás gtx 1050-emhez képest pár dimenzióval máshol fog elhelyezkedni

-
Devid_81
félisten
Mindenkeppen pozitiv, felreertes ne essek

Csak sokan ugy kezelik mintha a 3080 $499 lenne hirtelen 3070 meg $349
Kozben csak annyi tortent, hogy vegre kaptunk teljesitmenyt, az ar meg maradt.
Sokan arra szamitotottak, hogy amennyi extra teljesitmeny lesz annyi extra penzbe is fog kerulni gondolom.
De akkor sovaroghatnank az $1199-es RTX 3080-ert

Szal jah ehhez kepest nem ez tortent.
-
arn
félisten
Ez alapjan a kisebb modellek hatekonyabbak lesznek... kivancsi leszek a tulhajtas okara. Vagy a gyakorlatban nem kapunk ilyen teljesitmenyszamokat, vagy a konkurencia (amd, konzol).
ezek kisarkitott szamok specialis esetekre, meg valoszinuleg nem is egyszerre ertelmezendok. -
Raymond
titán
Hat nem tudom, nekem a megadott szamok ulnek:
4352@1545Mhz -> 8704@1710Mhz az pont az a 13.4 -> 29.8 GFlops amit a 2080Ti es a 3080 kozott irnak. A GPix/s marad kb ugyanaz a mem savszel pedig csak 23%-ot nott igy attol hogy a compute dupla meg nem lesz dupla teljesitmeny.
-
Abu85
HÁZIGAZDA
Már kérdezősködtem. A compalos srác szerint az történt, hogy a régi Turingban volt külön pár FP32 és pár int32 feldolgozó egy multiprocesszorban. Az Ampere FP32-vel kiegészítette az int32 feldolgozókat, így végül dupla annyi FP32 lett összességében, viszont ezek nem mindig érhetők ám el, mert a multiprocesszor többi részét nem igazították hozzá a megnövekedett számítási kapacitáshoz. Lesznek tehát kódok, ahol befogható az összes FP32 feldolgozó, és lesznek kódok, ahol egyszerűen nincs annyi erőforrás, hogy minden FP32 kapacitás elérhető legyen.
Szintén lényeges majd az órajel. Az NV a boostot adta meg, de ha nagyon komplexen van kihasználva a multiprocesszor (tensor, RT, anyámkínja egyszerre), akkor 1 GHz alá is eshet az órajel, hogy bennmaradjon a hardver a fogyasztási keretben. -
devast
addikt
Írták a diában hogy 2x32 fp32 teljesítmény. Valószínűleg az egy cuda core-ban levő fp32 feldolgozókat duplázták, és jobban hangzik a dupla cuda core mintha feleannyi lenne. TFLOPS-ot nézd, ott látszik. Kíváncsi vagyok, hogy bányászásba milyen, lehetnek itt még meglepetések meg hiány...
-
yagami01
aktív tag
Igaz, ez is változás volt. Viszont most ha minden igaz nem jön Ti egyből. És ha a 3090-et függetlennek tekintjük és lesz Ti később, akkor részben visszatérnének az előzőeknél látottakhoz. Nem tudom ez árban hogy látszana, mert végül is ebben az esetben is lenne egy valami a 80 fölött, még ha az nem is Ti.
-
proci985
MODERÁTOR
970 G1. AMD kartyaval eleve nem volt HW physX.
szoval volt nagy orom 970re valtas utan, hogy remek, van vagy masfelszer gyorsabb a 970 mint a ket 7850 2GBnel hasonlo fogyasztas mellett, meg hoppa vegre ki tudom probalni a physxet. aztan az orom tartott egeszen addig, amig le nem kopott az elso skag.
1080pben egyebkent birta szepen physxel is, valszeg 16:9es FoVra optimizaltak, 48:9en meg valami bottleneckes volt
-
Abu85
HÁZIGAZDA
Ezért kellett volna nyílt forrásúvá tenni az egészet, nem csak kis részeit.
Véleményem szerint csak egy reális iránya van az újítások állandó bevezetésének. Eleinte mehet ez gyártói hátszéllel, de úgy sem tudod mögé rakni a világ pénzét, tehát amint elfogy az újdonság varázsa, a pénzt is kiveszed belőle, és onnan jön a lejtmenet.
Már az elején az kell, hogy nyílt forráskód legyen az egész, és ugyan az újdonság varázsa itt is eltűnik, de a megírt eljárásokat felhasználják, írnak saját implementációt a stúdiók, így maga a technológia fennmarad, sőt, sokszínű lesz.(#29298) huskydog17: A PhysX létezik 13 éve, míg az explicit API-k 6 éve. És nagy különbség, hogy a GPU-s PhsyX esetében már nincs fejlesztés alatt álló cím, míg az explicit API-kra több tucat.

A 4-es verzió pont a problémák forrása. Az NVIDIA elvitte a fejlesztését a professzionális felhasználás felé, és egy csomó olyan döntést hoztak benne, amelyek durván károsak a játékfejlesztőknek. Egy játékba többet között nem kell professzionális fizika, mert sokkal többet ér a sebesség, minthogy egy kő ugyan tényleg valósághűen esik le, de százszor lassabban számolja a hardver. Ezért lépeget az Epic Games saját rendszerek felé, Niagara a részecskeszimulációra, Chaos a rombolhatóságra, Finite Element Method FX a végeselem-módszerrel történő deformálhatóságra, stb. Sokkal egyszerűbb lenne egyszerűen integrálni a PhysX 5.0-t, csak annyira elment professzionális irányba, hogy sokszorosára nőtt a gépigénye, és nyilván a játékosok körében nem fognak 10-20 GPU-t venni szimulációra, az Unreal Engine-nek olyan módszerek kellenek, amelyek egy GPU-val is megoldják a problémákat. Lehet, hogy nem abszolút valósághűen, de összhatásban jó lesz.
A robotika persze rajongani fog a PhysX 5.0-ért, nekik megéri a beruházás, de ha megnézed az NVIDIA a PhysX-szel már marketing szinten sem foglalkozik. Eltűnt a kártyák dobozáról, stb. A gaming driverben a runtime is ezer éve frissült utoljára. Egyszerűen nincs értelme pénzt rakni a runtime modernizálásába, ha gaming szinten senki sem használja. -
Alogonomus
őstag
"Miután a hardcore vásárlók többsége továbbra is sokkal inkább a 4k@120Hz-re veri, mint a valósághűbb képminőségre, eddig nem is nagyon volt miért gyorsítani ezen a folyamaton."
Amíg a raytraycing bekapcsolása harmadolja a képkockasebességet a minimálisan valósághűbb képminőségért cserébe, addig az emberek sokkal inkább stabil 144+ fps mellett fogják 1080/1440p-ben játszani órákon keresztül a játékokat, mint ugyanazt jó esetben szűk 60 fps mellett. Jelenleg a raytracing nagyjából ugyanazzal a problémával küzd, mint az SSAA. Szebb képet ad mindkettő, de nagyon nagy áron. Igazán csak az egyszemélyes, kényelmes tempójú kalandjátékokban érdemes bekapcsolni, mert azokban a játékokban a képminőséget van idő kiélvezni, míg egy pörgős ütemű játékban a kép szépségénél sokkal fontosabb, hogy hamarabb tudj reagálni az eseményekre. Ezért is annyira kevés a raytracing játék. Egyszerűen az emberek úgyis kikapcsolnák a sugárkövetést a multiplayer játékokban a normális szintű fps értékek érdekében. A DLSS 2 megoldhatta volna ezt a problémát, de a betanítási fázisa vállalhatatlanul hosszú és valószínűleg költséges is az Nvidia számára. Majd talán a DLSS 3 javíthat ezen, bár eléggé vad vállalásnak tűnik az Nvidia részéről, hogy minden egyes TAA-képes játékban automatikusan bekapcsolható lesz és komoly gyorsulást hoz majd.Valószínűbb, hogy az eleve DXR 1.1-hez írt játékmotorok és játékcímek hozhatják csak majd el talán azt a "világot", amikor már vállalható áron be lehet kapcsolni a sugárkövetést egy játékban. Ezek a játékok viszont 1-2 éven belül még nem igazán jelennek meg, mert csak mostanában kezdhetik fejleszteni őket, ahogy az első DXR 1.1-es fogyasztói termékek megjelennek.
-
carl18
addikt
Hát akkár hogy nézzem, az RTX 2000 is le lett nyomva a vásárlók torkán. És mivel nem volt más ezért meg is vették az emberek. Azért kiváncsi lettem volna hogy ha az RTX helyet jön egy GTX 2000 széria és 60-70% sebbeség ugrás produkál akkor melyiket vették volna jobban az emberek.
Olyan ez mint a G-sync anno, azt is az Nvidia jokora felárral kinálta. Jött a FreeSync és most már az alap monitorok is támogatják mind két szabvályt. Sok mindenre mondták évekkel korábban hogy az a jövő. Még a 3D tévék, monitorok is szenzációk voltak pár éve. Most meg a kutya se foglalkozik vele, kikoptak a piacról.
Talán a Hardveres RT-nek akkor volna értelme, mikor már a játékok már alapból azzal dobnák piacra és nem is lehetne kikapcsolni. Talán még a DLSS lehet még érdekes, de azt se támogatja túl sok játék. Igy hogy gyakorlatban semmi se müködik vele nem igazán lehet vele számolni.
Szerintem az elmúlt években is megmutatkozott hogy jöhet itt Ray Tracing/Physx/ meg ki tudja milyen forradalmi eljárás. A Szimpla teljesitmény a legfontosabb, mert később egy 50 terraflopos GTX 4080 erőből megoldhatja a Ray Tracing problémát.
Főleg ha készül hozzá egy szoftveres leképző ami hatákonyan müködik.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Samsung Galaxy A54 - türelemjáték
- Mesébe illő csodakábelt tervezett a GeForce-ok leégése ellen a Segotep?
- Vezetékes FEJhallgatók
- The Game Awards 2025 - Az összes bejelentés egy helyen!
- Path of Exile 2
- Irodát kért, de gyárat kapott Elon Musk a Samsungtól
- Hazavághatja a MicroSD memóriakártyák piacát a Biwin-féle Mini SSD
- VR topik
- Battlefield 6
- További aktív témák...
- RX 6500 XT 8GB Eladó - Garancia
- Készpénzes / Utalásos Videokártya és Hardver felvásárlás! Személyesen vagy Postával!
- 27% - SAPPHIRE RX 7900 XTX Nitro+ 24GB DDR6 Nitro+ Videokártya! BeszámítOK!
- GAINWARD GeForce RTX 2060 SUPER GHOST
- Készpénzes / Utalásos Videokártya és Hardver felvásárlás! Személyesen vagy Postával!
- Samsung Galaxy S24 Ultra / 12/256GB / Kártyafüggetlen / 12HÓ Garancia
- Bomba Ár! Lenovo ThinkPad P53 - i7-9850H I 16GB I 512SSD I FHD I Nvidia 4GB I W11 I Cam I Garancia!
- Xiaomi 13T Dobozzal Töltővel
- Vadi új, 2 év garanciás, Sony PlayStation DualSense 5 kontroller
- Apple iPhone 14 Pro Max 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest




.
![;]](http://cdn.rios.hu/dl/s/v1.gif)
Nem csodalom. Nem veletlen nem adtam erte egy forintot sem.




