Új hozzászólás Aktív témák
-
X2N
őstag
Ezt így nem lehet kijelenteni, és jó lenne ha a gyári stock 9070XT-t hasonlítanád a gyári 7900XTX-hez, nem a mostanában megjelent húzott változatokat, a stock 7900XTX-hez ahogy a legtöbb tesztben. Van a 2 kártya között egy jó 10-12% különbség teljesítményben, vagy még több is attól függően melyik verziót hasonlítod.
-
PuMbA
titán
Azt még hozzátenném, hogy a gyakorlatilag nulla izgalmat hozó RDNA3-as bemutatót elnézve én sosem vettem volna RDNA3 kártyát és végül nem is vettem, pedig akkor RDNA2-m volt. Annyira szinte semmi javulást nem hozott az RDNA2-höz képest....a bemutató után egyből az volt a gondolatom, hogy ez bukta lesz. Az lett.
X2N: A gyárit hasonlítottam
Erős RT-s vagy PT-s játékokban megvan a 30% különbség is a 9070XT javáíra. -
T.Peter
őstag
A konzolok is tudnak 60 fps mellett rt-t futtatni, 1080p koruli felbontassal, szoval teljesen elerheto mindenki szamara.
Nem az rt tehet arrol, hogy nincs igazan olyan jatek, ami a dinamikus bevilagitast kihasznalna.
A hellblade 2 nem raszter, egyik ue5-os cim sem az, ami lumen-t hasznal.
A nanite 5.1 ota tamogatja a wpo-t, 2022 vege ota.
A mostani upscaler-ekrol elmondhato, hogy jobb kepminoseget biztositanak, mint a regi taa/taau.
Az ue5 elsosorban a jatekfejlesztoknek szol, amivel akar evekben merheto fejlesztesi idot es milliokban merheto penzt tudnak sporolni (amellett, hogy oriasi az a grafikai ugras, amit bemutat) -
PuMbA
titán
"raszterben a 7900XTX sokszor elveri a 9070 XT-t "
Ez azért kevésbé számít, mert régebbi / régi motoros játékokban veri el az esetek legnagyobb többségében és ott is 100+ fps felett vagy, tehát most hogy 130 vagy 140 fps-ed van, nem tudod szemmel megmondani a különbséget.
RT-ben viszont többször 25%-kal gyorsabb a 9070XT a 7900XTX-hez képest és mivel RT a jövő, ez számít. A sima 9070-em, ami 220W-ot fogyaszt RT-ben ugyanazt a sebességet hozza, mint a 350W-os 7900XTX, szóval gigantikus az előrelépés ezt nézve. Ugyanígy a jövő a különböző RT kiegészítő technológiák, amit most már nem csak az NVIDIA csinál, hanem az AMD az FSR Redstone-nal: Ray Regeneration, Neural Radiance Cache.
A 16GB VRAM meg nem lesz gond, elnézve, hogy most a 8GB-os VGA-k kezdik az újra virágzásuk korszakát. Az NVIDIA "bejelentette", hogy a 8GB-os 5060 és 5060Ti-ből lesz egy raklapnyi, a többiből meg kevés.
-
X2N
őstag
Szerintem nem az a lényeg hogy érdekli-e vagy nem a Radeon tulajdonosokat az RT-hanem hogy amíg kimerül abban az RT hogy alapkövetelmény hozzá a felskálázás(DLSS/FSR) és a Frame Gen, valamint csúcskártya kell még az 1080p natívban értelmes fps-el futtatásához frame gen nélkül, addig nincs miről beszélni, kevesek hozzá a kártyák és nem éri meg vele foglalkozni se, még jó ~10 évig, mert a felhasználók elenyésző %-a tudja jelenleg is kihasználni. Az agyon butított RT sem egy nagy élmény, ahol nincs igazán kihasználva az hogy minden fény/árnyék/tükröződés dinamikus lehet, a korábbi statikus, bakelt megvilágításhoz képest. Path tracingről ne is essen szó, az továbbra is irreleváns amennyivel több teljesítmény igénye van, nem realisztikus célkitűzés jelenleg, se 10 év múlva ezekkel a videókoránya teljesítményekkel, meg a 2-3 évente +25% teljesítménnyel az hogy majd PT-el realtime 3D grafikát fogunk futtatni.
Közben meg raszterizációval, Horizon Forbidden West, Senua's Saga: Hellblade II, játékok készülnek a hagyományos global illumination-al amik büntetősen néznek ki, mindössze azért mert nagyon részletes modellek/textúrák vannak, jól bevilágítva. Amíg ilyen limitációk is vannak hogy nem tudunk részletes modelleket/textúrákat kipakolni a képernyőre, mert még Nanite sem tud mindent, pl. vegetációt(csak a mostani újabb 5.x verzióban már) megjeleníteni így addig az RT ne legyen már prioritás. Persze az NV-nek prioritás, meg kell teremteni az eddig nem létező igényt, még akkor is ha ez nem realisztkus célkitűzés, hogy eladhassák a kártyáikat valami újabb feature-el, lásd AI.
Az pedig nem előrelépés azoknak akik régebbi kártyákon vannak, hogy majd bekapcsolhatják a DLSS-t hogy értelmes fps-ekkel tudják futtatni a legújabb optimalizálatlan címeket még rosszabb képminőséggel, kép artifactokkal, mert letolták a fejlesztők torkán is az RT-t, ami egy jelenleg nem kiforrott technológia.
Ebből az egészből a "nyertesek" igazából csak a filmesek akik kaptak egy UE5-t amiben lehet már Path Tracelni is meg LED falakkal-virtuális kamerát mozgatva videózni, ezzel jelentősen közelebb hozza a valós idejű munkát a moziminőségű látványhoz, gyorsítja ezzel a gyártási folyamatot.
-
Alogonomus
őstag
Én sem értem, hogy miért lett a hozzászólásod is törölve, mert abban nem volt személyeskedés vagy sértegetés. Gondolom a "szórásba" belecsúszott véletlenül.
A HWU a hivatalos MSRP áron túl rögzíti a valós piaci állapotokat is a kártyatesztjeinél a tényleges ár-érték számokhoz, és a 600 dolláros 9070 XT érkezésekor a 7900 XTX még 900 dollár volt. Jelenleg is itthon 275 ezerért kapható a 9070 XT, míg a 9700 XTX 350 ezertől indul. Bőven kijelenthető, hogy a 9070 XT sokkal kedvezőbb vétel a játékosok túlnyomó többsége számára.
-
válasz
Alogonomus
#50784
üzenetére
jah nagyon korrekt tőled egy törölt hozzászólásra válaszolni és így reagálni a kommentedre.
Ha a radeon tulajokat nem érdekli annyira az RT mint ahogy eddig állították sokan 9070 XT nem tartalmaz érdemi előrelépést egy 7900XTX vagy XT tulajnak gyakorlatilag a felskálázáson kívül ugyan az - 8 GB vram ebben visszalépés, de mivel aktiválható a 7000 sorozatra is a felskálázás mindegy is.
A 7900XTX 700-750 dollár volt kb kifutáskor a 7900 XT meg olcsóbb, 600 körül, tehát egy nagyon elméleti sokkal jobb ár, raszterben a 7900XTX sokszor elveri a 9070 XT-t és egyáltalán nem sokkal takarékosabb egy 9070 XT kb annyival mint amennyivel kevesebb vram és vezérlő vanó kb 10 %.Az 5080 szintén nem tartalmaz semmi előrelépést, értelmetlen kártya.
Erre írtam hogy milyen érdekes valami véletlen folytán ( khmm k) mindkét cég éppen most nem lép előre az előző generációhoz képest nagy átlagban.
persze az 5090 kivételével az már más dimenzióban focizik mind teljesítmény mind árazás tekintetében.írtam hogy igaza van jaceknek, hogy a 5070 nek a 4080-at az 5070 Ti nek pedig a 4090 közelében kellene lennie,de szerbntem ezek az idő már elmúltak, ne legyen igazam. Ettől függetlenül az 5070 Ti olcsóbban hozza a 4080 teljesményét szintén,aki Nvidia oldaláról akar választani. Kb az egyik legértelmesebb kártya ebben a genben és nem azért mert nekem is az van.
Mondjuk nem tudom miért lett törölve a kommentem, de az anyázások fényében mindegy is.
-
Alogonomus
őstag
Na azért csak posztolom "b" törölt hozzászólására írt, de mindenféle személyeskedéstől mentes válaszomat.
"amikor az AMd sem produkált azért előrelépést az előző genhez"
Azért az lényeges különbség, hogy az AMD névben, de főleg árazásban 70-es kártyaként pozicionálta az aktuális generációs csúcskártyáját, szóval nem is állította, hogy 80-as, vagy főleg 90-es kártyát adott ki. Így pedig eléggé jelentős előrelépésnek számít, hogy egy lényegesen olcsóbb és takarékosabb 70-es kártyával ott vannak az előző generációs "mondjuk 85-ös" 7900 XTX kártyájuktól bár lemaradva, de annak 20 GB-os kistestvérének a szintjén.
-
PROHARDVER!
A személyeskedést és egymás sértegetését legyetek szívesek fejezzétek be.
-
X2N
őstag
válasz
Busterftw
#50773
üzenetére
Az az érdekes hogy múltkor is találtam olyan játékot(CS:GO) ami a Techpowerup teszt szerint ilyen 300-360 fps-el ment volna a hardveremen 4K felbontásban, erre nálam 450-500fps is simán megvolt. Ugyanazokkal a beállításokkal, ugyanazzal a pályán, tettem is fel róla képet. Nagyon nem mindegy pl. hány botot teszel be, cpu limites játék. Ha nem ebben a topikban akkor a Radeonos találgatósban. Érdemes lecsekkolni, mert lehetnek eltérések, nem is kevesek, persze ehhez kell egy olyan vga ami ezeket az fps-eket még 4k-n is tudja. Szerepelhetnek rossz mérések is tesztekben, amik eltérhetnek még az előző tesztben mértekhez képest is, meg nem árt ismerni a játékot is, hol milyen teljesítményt tud, ezért nehéz is lehet reprodukálni a teszteket, legyetek résen

-
X2N
őstag
Persze hogy nem vagyunk előrébb, ha nem realisztikus a tesztkörnyezet se amiben mérnek. Akkor mi értelme van az egész mérésnek? Én is lekapcsolhatom a tűzfalat, meg a defendert meg a biztonsági patcheket ahogy Steve, meg minden mást is amit tudok még ebben a rendszerben is, de nem ezt kellene lemérni hanem hogy mindenféle mókolás nélkül mit tud a rendszer.
-
PuMbA
titán
Azon kívül, hogy elmondtad a bajaid a beszúrt tesztekről még mindig nem vagyunk előrébb, csak feleslegesen pörögnek a hozzászólások
Nincs róla mérésünk, hogy gyorsabb lenne a 10 vagy egy kiherélt rendszer a gyári 11-hez képest játékok alatt, miközben sok mérés van arról, hogy ugyanolyan gyors a 11. Továbbra is itt tartunk, a többi a templomba tartozik, mert úgy hívják, hogy hit. Eredményeket szeretnénk látni, hogy hol van olyan újabb teszt, ahol kimérték, hogy a 10 gyorsabb, mint a 11. -
X2N
őstag
-
huskydog17
addikt
"AMD & NVIDIA Abandoned This Segment" | Intel Arc GPU Factory Tour with Sparkle
Gyárlátogatás a Sparkle-nál.
Rendkívül érdekfeszítő volt ez a videó és nagyon tetszik, hogy a Sparkle sok olyan információt oszt meg, melyeket más AIB partner nem (pl. konkrét árak).
-
PuMbA
titán
Ok, bár most itt játékokról van szó és közben nem szoktunk renderelni a háttérben vagy hasonlókat csinálni
Én még 22GB-nál több memória használatot nem láttam a 32GB RAM-ommal, gyári Windows 11-gyel. Simán belefér 1-2 repülő szimulátoron kívül minden ebbe a mennyiségbe bloat-tal együtt és még marad is szabad hely. -
Ribi
nagyúr
És akkor ne is beszéljünk arról hogy W11 gyorsabb mint a 10?
-
X2N
őstag
FPS-t limitál, így jóval kisebb az eltérés a mért eredmények közöt ami csalóka is lehet. Azt se felejtsük el hogy ezek friss telepítések, nem 1-2 éve futó rendszerek.
"Ezt sem értem, hogy mi különbség van 1,6GB memória és 1GB memória használat között, ha van bőven memória, mondjuk 32GB. Ugyanolyan kényelmesen és zavartalanul elfér."
Szeretem a bloat mentes oprendszereket, már futottam ki többször is 32GB ramból, még ezzel az optimalizált rendszerrel is, akkor upgradeltem 96GB-ra, nekem ne fusson semmi felesleges a háttérben ami nem kell. még ha csak +500MB, akkor se.
Linuxon a KDE Plasma el van 800MB-al, az baráti. -
PuMbA
titán
"Még mindig limitál a 9070"
Továbbra sem értem, hogy mit limitál
Ha a Windows miatt lenne lassabb, akkor pont hogy gyengébb hardveren jobban lassulna, hiszen kevesebb benne az erő, azaz kevésbé bírja a Windows háttérfolyamatait futtatni zavartalanul, mint egy csúcs konfig."1.6GB memória, az még mindig sok."
Ezt sem értem, hogy mi különség van 1,6GB memória és 1GB memória használat között, ha van bőven memória, mondjuk 32GB. Ugyanolyan kényelmesen és zavartalanul elfér mindkettő.
-
X2N
őstag
Még mindig limitál a 9070, nem győzöm hangsúlyozni, a játék összeállítás is elég rossz, multis címek->kapásból kuka.
Ez a Nano11 mit tud a gyári win11 hely képest? Feladatkezelőben mennyi a memória használat, mennyi a cpu-nál a processes? Még Defender sincs ebben a nano11-ben? Az viszont gáz.
Szerk:Na most néztem, nano11, ~106 process, 1.6GB memória, az még mindig sok.

Nálam ReviOS win10-nél ~73 process és még ennél is kevesebb ram használat van. -
PuMbA
titán
Windows 11 vs Nano 11 - Is a De-Bloated Windows REALLY faster??
Ezt is kimérték már és semmivel sem gyorsabb játékok alatt egy kiherélt Windows 11 verzió
Itt 7800X3D-t és RX9070-et használtak:
-
PuMbA
titán
Nem láttam mostanában olyan friss tesztet, ahol lassabb a Windows 11. Ez egy 7 hónappal ezelőtti teszt és igazából picit gyorsabb a 11: Windows 10 vs Windows 11 - Is Windows 10 REALLY faster??

-
Jacek
veterán
Es akkor.. ja a ket generacioval elotti csucsot sem eri el
a 4080-at sem tudja meg megkozeliteni sem nemhogy a 90-et..
-
Jacek
veterán
Megverte? Megverte.. minden mas bullshit..
-
Busterftw
nagyúr
"3070 megutotte a 2080Ti ugy ahogy az elod 70-es az elozo csucsot, most az 5080 sem tudja megszagolni az elozo csucsot."
Ott volt egy eleg nagy node ugras am. 8N vs 12nm, amik kb javitott" 10nm es 16nm nodek, plusz arch.Ada es Blackwell eseteben a node kb nem valtozott. N5 (N4 es N4P)
-
Jacek
veterán
válasz
Callisto
#50738
üzenetére
Most raneztem TPU 1080P-13%, 1440P-17%, 4k-21% biztos nem er dupla arat, de mint mondtam ettol meg az 5090-et is megveszik 5x aron

Csak ez a gen az NV-nel botrany arazasban es teljesitmenyben.
3070 megutotte a 2080Ti ugy ahogy az elod 70-es az elozo csucsot, most az 5080 sem tudja megszagolni az elozo csucsot.
De most super szeria helyett lesz 6x frame gen, gondolom a kovetkezo gennel jon a 8x
-
4K-n azért 20%-35%. Ára sem 100% plusz volt. Egyébként a jó isten sem igazodik ki rajta, mert láttam olyan tesztet is ahol 1x játék átlaga alapján 35% előny volt, de láttam olyant is ahol másik X játék átlaga alapján csak 15%

Megnézem nyújt-e többet annyival ami nekem megéri. A Nitro+ 9070XT elvan a dobozában addig is. -
Ma hazahoztam egy GB Gaming OC 5080-at. Kapcsolom be a gépet DDU-hoz és az első amit az Adrenalin feldobott, hogy nagyon megköszönnék ha kitöltenék egy kérdőívet, hogy felmérjék hogyan tudnának javítani. Micsoda véletlen egybeesés

A szabadszöveges mezőbe beírtam:
Nem támogatják a 7900XTX-et (FSR4). Ezért lecseréltem 9070XT-re, majd jött a Redstone, majd a CES ahol a consumer-ek semmit se kaptak. Ma vettem egy 5080-at. Good Bye!Persze aztán majd kiderül, hogy személyes tapasztalatok alapján 4K-n mennyire fogom a 9070XT-hez képest a jóval magasabb árat elviselni
Azt tudom, hogy az Adrenalin köröket ver az Nvidia app-ra stb., de ez legyen a legkisebb bajom -
Abu85
HÁZIGAZDA
válasz
szarnyasdino
#50734
üzenetére
Kérdeztem a PC-gyártókat erről, de azt mondta nekik az Intel, hogy nem lesz. Eredetileg gondolkodtak rajta, de a mobil piacra is nagyon kevés Panther Lake fog készülni, asztalra nem maradna semmi.
-
szarnyasdino
junior tag
[Intel Core Ultra X9 388H "Panther Lake" iGPU Doubles AMD "Strix Point" Performance in Cyberpunk 2077]
Asztali fronton durva lenne egy ilyen
De kb álom 
-
-
Alogonomus
őstag
Mivel az AI folyamatokat eleinte lényegében kizárólag CUDA környezetben próbálták kezelni, így az AMD nem is lenne alkalmas a feladatra. Illetve csak ilyen ZLUDA típusú alternatív megoldásokkal, amivel viszont az Nvidia rosszallását vívnák ki a kínai fejlesztők. Ezért nem használnak az AI feladatokra AMD hardvert. A nyilvános projektekhez Nvidia, a védett projektekhez pedig esetleg valami kínai belső hardvert.
-
PuMbA
titán
GeForce RTX 5090, 5080, 5070 Ti and even 5060 Ti are now sold in blower-style designs for AI farms
Mindegyik NVIDIA 5000-res modellt használják már AI farmokon a sima 5070 kivételével
Érdekes módon átalakított AMD kártya még mindig nem került elő, bár a GamersNexus felderítő videóban azt mondták, hogy egyáltalán nem érdekli a kínaiakat az AMD. -
bozont
veterán
válasz
huskydog17
#50726
üzenetére
Pont ezért értetlenkedtünk sokan ( én még most sem értek egyet a döntéssel), hiszen egy fsr 3 quality is jobban néz ki mint a native taa és akkor az fsr native aa-ról ne is neszéljünk.
-
huskydog17
addikt
És azóta se sikerült felfogniuk a károgóknak, hogy azok játéktesztek és nem GPU tesztek.
Te is tökéletesen láthatod, még az agyon tömörített YT videókban is, hogy a játékok saját TAA algoritmusa meg sem közelíti a DLSS minőségét, ezt még Crizzpy (WormZ) is meg szokta mutatni. Azért őt említem, mert többször írtad, hogy őt szoktad nézni.
Emiatt nem mindegy, hogy egy játékban TAA-t vagy DLSS-t használsz, mert a DLSS jóval alcsonyabb input felbontással is sokkal szebb képet ad, mint a TAA magasabb felbontáson, ez tény, ezt te is milliószor elismerted, szóval számodra is logikusnak kellene tűnjön a CB lépése.
A GPU tesztek továbbra is azonos render felbontáson történnek. -
-
PuMbA
titán
válasz
Busterftw
#50723
üzenetére
Behozhatjuk a képminőséget a vitába, de ez ingoványos talaj
Nagy felháborodás volt a ComputerBase-nél vagy talán a PCGamesHardware-nél is amikor a régebbi kártyákon a natív TAA-s sebességet rakták egy grafikonra RDNA4-en az FSR4-esével és NVIDIA-kon a DLSS-ével Balanced módban, merthogy képminőségben így fer a sebesség összehasonlítás. Azóta szerintem senki sem próbált meg így tesztelni. -
Raymond
titán
válasz
Raymond
#50720
üzenetére
Pardon, 1.33ms...
De azt hiszem a lenyeg ott van hogy a Preset M a Performance-hez van, tehat az az 1.33ms is 1280x720 -> 2560x1440 felskalazasra ertento nem a Quality 1707x960 felbontasara.
A Developer Guide-bol:
- Preset K: Default preset for DLAA/Balanced/Quality modes. Less expensive performance wise compared to Preset L.
- Preset L: Default preset for UltraPerformance mode. Delivers a sharper, more stable image with less ghosting than Preset J, K but are more expensive performance wise. Preset L is peak performant on RTX 40 series GPUs and above.
- Preset M: Default preset for Performance mode. Delivers similar image quality improvements as Preset L but closer in speed to Presets J, K. Preset M is peak performant on RTX 40 series GPUs and above.
Tehat DLSS Quality Preset K es a DLSS Quality Preset M osszehasnlitasnak nincs ertelme a sebesseg szempontjabol, csak a kepminoseg szempontjabol van ertelme. Mondjuk DLSS Performance Preset K vs Preset M lenne az erdekes.
Szerk: a CB azt tesztelte amit kell - 4K DLSS Performance K vs M [link] Az 50-es es 40-es sorozat 4-5%-al lassabb a 30-as es 20-as pedig 12-13%-al.
-
Raymond
titán
Szerintem valami nincs rendben vagy a HUG tesztekkel vagy az override implementacioval mert a HUB-os eredmenyeknek keves ertelme van ha az 5070 es 4080S szamokat nezem. Eleve az hogy ket csoportra osztodnak a jatekok gyanus. Vagy semmi gond vagy lassabb/ugyanaz az FPS mint nativ. Az 5070-nel a Preset K a tesztelt 1440p felbontason 1.38ms fix koltseg. Az hogy a jatek 3.686 MPix (2560x1440) felbontason ugyanannyi FPS-t hoz mint 1.639 Mpix (1707x960) felbontason amire ramegy plusz 1.38ms nem all ossze. The math ain't mathing.
-
PuMbA
titán
válasz
huskydog17
#50718
üzenetére
"DLSS 3.0 hozta a FG-t, DLSS 3.5 hozta a RR-t, a 4.0 hozta a Transformer modellt és MFG-t."
DLSS 3-hoz tartozott Super Resolution is tudtommal, nem csak FG, ahogy a 3.5-tel is frissült a Super Resolution az RR mellett. Tehát ezek egy csomagok voltak tudtommal. Nem így van?
"Nem, nem bonyolult és főleg NEM kell a usereknek átállítani az NV app-ban semmit,"
Tudtommal de, ha az eddigi működést és sebesség előnyt akarja megkapni a user egy RTX20-as vagy 30-as kártyával, de javíts ki ha tévedek. Ha beimplementálják a játékokba a DLSS 4.5-öt, akkor ott a DLSS 4.5 modellje lesz az alapértelmezett, tehát az M. A gyorsabb K modell a DLSS 4 modellje.
-
huskydog17
addikt
"Futtatni bírja, de sebességben nem bírja el, mert kisebb felbontást számol, mégis lassul, így értettem"
Ez is marhaság. Még az általad linkelt teszt is megcáfol téged, ott is jó látszik, hogy számos játékban jó a sebesség. A felbontás pedig az lesz, amit beállítasz, nincs olyan, hogy kisebb felbontásban számol, csak akkor, ha úgy állítod be. Azért lassul, mert nincs FP8 támogatás Turing és Ampere szériákban.
"Most az NVIDIA ugyanúgy eldarabozza a megjelenést, ahogy az AMD szokta, tehát először a DLSS 4.5 Super Resolution része jelenik meg, aztán majd jön a DLSS 4.5 többi része. Erre értettem."
Eddig is így volt, most valamiért úgy csinálsz, mintha eddig nem így lett volna. DLSS 3.0 hozta a FG-t, DLSS 3.5 hozta a RR-t, a 4.0 hozta a Transformer modellt és MFG-t.
A különbség annyi, hogy az NV-nek már van sok játékban RR és MFG is, míg AMD-nek nincs, így semmilyen szempontból nincs értelme annak, amit írtál."Nem, szerintem feleslegesen bonyolult és hogy ezt a usernek kell állítani az NVIDIA App-ban manuálisan. Te supportáltál már IT vonalon ügyfeleket? Képben vagy, hogy miket nem értenek meg egyszeri felhasználók? Ennél tízszer egyszerűbb dolgokkal gondban vannak."
Nem, nem bonyolult és főleg NEM kell a usereknek átállítani az NV app-ban semmit, ha nem akar, nem kötelező, ahogy az NV app-ot még csak telepíteni sem kötelező. A userek többsége azt sem tudja, mi az, hogy felbontás, csak elenyésző többségük foglalkozik felskálázással manuálisan.
Igen, 15 éve vagyok IT support-ban (szerencsére nem Helpdesk-en), de ennek most az égvilágon semmi köze az egészhez. Te most valóban az NV IT supportjáért aggódsz, hogy nekik túl sok melójuk lesz emiatt? Ez most komoly?
Tehát inkább vágjuk el sok millió felhasználótól a DLSS 4.5 lehetőséget, mert az NV IT supportnak szerinted túl sok dolga lesz emiatt, mert néhány usernek túl bonyolult a +2?
Szerintem az NV sokkal jobban tudja nálad, hogy a supportnak mi okoz gondot és mi nem és hogy mennyire okozna ez gondot nekik.#50719: Sajnos nem tudom értelmezni amt írtál. Ki milyen működést akar megkapni?
"Ha beimplementálják a játékokba a DLSS 4.5-öt, akkor ott a DLSS 4.5 modellje lesz az alapértelmezett, tehát az M. A gyorsabb K modell a DLSS 4 modellje."Ha beimplementálják a játékokba a DLSS 4.5-öt, akkor ott a DLSS 4.5 modellje lesz az alapértelmezett, tehát az M. A gyorsabb K modell a DLSS 4 modellje.
Igen, akkor mégsem olyan bonyolult, megértetted. Akkor mi itt a bonyolult?
-
PuMbA
titán
válasz
huskydog17
#50714
üzenetére
"Megint nem bírják? Egy kommentedben saját magadnak mondasz ellent. Döntsd már el!"
Futtatni bírja, de sebességben nem bírja el, mert kisebb felbontást számol, mégis lassul, így értettem

"Az meg, hogy "NVIDIA is átmegy AMD-be lassan" szintén egy nagy marhaság."
Most az NVIDIA ugyanúgy eldarabozza a megjelenést, ahogy az AMD szokta, tehát először a DLSS 4.5 Super Resolution része jelenik meg, aztán majd jön a DLSS 4.5 többi része. Erre értettem.
"DLSS 4.0 = Preset K (DLAA, Quality és Balanced módhoz ajánlott)
DLSS 4.5 = Preset M (Performance módhoz ajánlott), L (Ultra Performance módhoz ajánlott)
Szerintem ezt még egy értelmes kisiskolás is képes felfogni, főleg mert kiválóan van dokumentálva és kommunikálva, hogy melyik micsoda és mire jó."Nem, szerintem feleslegesen bonyolult és hogy ezt a usernek kell állítani az NVIDIA App-ban manuálisan. Te supportáltál már IT vonalon ügyfeleket? Képben vagy, hogy miket nem értenek meg egyszeri felhasználók? Ennél tízszer egyszerűbb dolgokkal gondban vannak.
-
huskydog17
addikt
"Nem állítottam, hogy nem bírja."
???

Pedig de, szó szerint ezt írtad, ki is másoltam. Nem értem miért tagadod a saját kommentedet na mindegy.
"Pont ezt írtam, hogy ezeket a legújabb preseteket nem ajánlja az NVIDIA a régi kártyákra a jelentős sebességdeficit miatt, mert nem bírják."
Megint nem bírják? Egy kommentedben saját magadnak mondasz ellent. Döntsd már el!
Sehol nem írt olyat az NV, hogy nem ajánlják a DLSS 4.5 használatát Turing és Ampere-hez, csak annyit írtak, hogy jóval nagyobb a sebességdeficit, mint Ada és Blackwell esetén. Az NV továbbá performance és Ultra Performance módhoz ajánlja a 4.5-öt, de ettől el lehet térni, mindenki úgy használja ahogy akarja.#506691:
"zWormZ Gaming csinált RDR2-vel tesztet tegnap és újra kellett csinálnia, mert nem működött a DLSS4.5
Ugyanígy Testing Games csatorna, MxBenchmarkGaming stb. le sincs írva, hogy milyen profillal tesztelnek."Attól, hogy néhány videós túl hülye vagy túl lusta, hogy utána nézzen a faék egyszerű dolgoknak, illetve túl lusták fontos infókat megadni, az a legkisebb mértékben sem az NV sara. Amúgy Crizzpy (WormZ) csatornáját én is rendszeresen nézem, ő nem teszteket csinál hanem inkább szubjektív élménybeszámolókat, az RDR-2nél ő nézte mbe a dolgokat, amit el is ismert a javított videóban. Érdemes nála az Oblivion Remastered videót is megnézni a témában, ha már szoktad őt nézni, ugyanis ott jóval nagyobb különbséget ad a 4.5, mert eltünteti a ghostingot a kardnál.
Az meg, hogy "NVIDIA is átmegy AMD-be lassan" szintén egy nagy marhaság. Ez akkor lenne igaz, ha a DLSS 4.5 csak és kizárólag Blackwell-en működne, mármint minden modulja, pont úgy, mint ahogy az FSR Redstone RDNA4 exkluzív lett.
Ezzel ellentétben az NV a 7 éves GPU-kat is támogatja, illetve ezekhez a régi GPU-khoz is odaadja a piac legjobb felskálázóját.
Szóval nem, az NV egyáltalán nem megy át AMD-be, épp ellenkezőleg, az NV mutatja meg hogyan kell példaértékű, hosszútávú supportot adni.#50698:
Mindössze annyi változás történt, hogy bejött két új preset, semmi több, amelyek ráadásul egyértelműen ki lettek kommunikálva, hogy mire jók és mihez ajánlottak.
Minden más úgy maradt, ahogy volt. Eddig nem volt túl bonyolult, de a +2 preset már túl bonyolult? Ne nevettess már!
Ha mondjuk bejönne egyszerre több tucat preset és egyikhez se lenne az égvilágon semmilyen infó az NV részéről, hanem csak úgy megjelennének az NV App-ban, akkor talán lehetne azt mondani, hogy esetleg túl sok és kaotikus, de jelenleg úgy néz ki, hogyDLSS 4.0 = Preset K (DLAA, Quality és Balanced módhoz ajánlott)
DLSS 4.5 = Preset M (Performance módhoz ajánlott), L (Ultra Performance módhoz ajánlott)Szerintem ezt még egy értelmes kisiskolás is képes felfogni, főleg mert kiválóan van dokumentálva és kommunikálva, hogy melyik micsoda és mire jó. Akinek ez a végtelenül egyszerű dolog gondot okoz, annál valami más egyéb súlyos gondok vannak.
Az AMD-nél egyébként ugyanez van, csak sokkal szűkebb hardveres támogatással: ott egy játék Redstone kompatibilisnek számít, ha az egész Redstone csomagból csak egy feature-t támogat, akkor is Redstone játék, ha kizárólag egy FSR 3.1 felskálázás van benne, ott is eltérnek a különböző modulok verziószámai. Náluk a Denosier és a RR az első generációnál tart. Ott nem nem kavarnak össze?#50703:
Ez a teszt tökéletesen igazolja, amit már írtam is, hogy Ampere és Turing kártyákon is gond nélkül lehet használni a 4.5-öt , a kijelentéseiddel ellentétben gond nélkül meg tudnak birkózni vele (ez nyilván játék- és beállításfüggő dolog). Még a 7,5 éves 2080Ti is hozza átlagosan a 60 fps-t 1440p Ultra-n M presettel. Nem látok problémát.#50705:
"Az lemaradt, hogy Steve a videó végén megemlítette, amit én is írtam tegnap, hogy a DLSS az egyre több opcióval kezd bonyolulttá és nehezebben következővé válni, hogy a főként régebbi kártya felhasználóknak manuálisan kell presetet állítaniuk, ha maradnának a K profilnál."HUB Steve-nek minden rossz, amit az NV csinál, ezt már rég megszokhattuk. Az, hogy neki is gondot okoz a +2 jól dokumentált preset érkezése, az legfeljebb az ő szellemi problémája, amiről az NV megint csak nem tehet. Ez sokadszorra megerősíti bennem, hogy ne nézzem az ő videóit.

#50707:
"Én csinálnék egy automatizmust vagy egy egyszerű felületet, plusz beállítást (sebesség vagy képminőség) erre az NVIDIA helyében, hogy alapértelmezetten a régi kártyák maradjanak úgy, ahogy voltak és elhúzhatják a csúszkát, aminél leírják, hogy képminőséget kapsz, de a sebesség nem nőni, hanem esni fog."Van ilyen, úgy hívják: NV App
-
PuMbA
titán
válasz
Busterftw
#50711
üzenetére
Attól, hogy megértek dolgokat még nem szeretem a bonyolultságot
Programozóként is nagy feladat, hogy úgy csináljunk / csináljak meg valamit, hogy a lehető legegyszerűbb legyen a felhasználónak és magunknak is megérteni, hogy aztán a karbantartás is minél kevesebb időbe kerüljön. Könnyen át lehet esni a túloldalra és elveszni a komplexitásban."A sebesseg hitet pedig el kell engedni, ahogy HUB is mondta ez kepminoseg nelkul sokat nem jelent."
Jaja, csak azért említettem meg, mert ugye a felskálázókat mindig is úgy reklámozták és az volt a cél, hogy növelje a sebességet és például ellensúlyozza a teljesítményigényes RT-t. Most igazából fordult a kocka, mert itt már nem csak erről van szó, hanem jóval szerteágazóbb dolgokról. Nekem úgy tűnik mintha az NVIDIA a DLSS Super Resolution helyett a Frame Generation-ra rakja át a sebesség javulás "ígéretét".
-
Busterftw
nagyúr
Nekunk? 3 napja arrol beszelsz neked ez milyen bonyolult, pedig nem az, meg a fejlesztoknek is egyszeru az ajanlas.
A sebesseg hitet pedig el kell engedni, ahogy HUB is mondta ez kepminoseg nelkul sokat nem jelent. A jobb kepminoseget ado modell miatt mehet a balanced/performance mode, igy nem kell lemondani semmirol sem.
-
PuMbA
titán
válasz
Busterftw
#50706
üzenetére
"A valasztas adott, hatalmas + pont."
Nekünk hozzáértőknek igen, a felhasználók nagy részének nem biztos, mert nekik plusz melót és utánajárást igényel. Ő csak ül otthon az RTX3060-ával és azt látja, hogy csökkent az fps-e az eddig fps növelő DLSS-sel. Én csinálnék egy automatizmust vagy egy egyszerű felületet, plusz beállítást (sebesség vagy képminőség) erre az NVIDIA helyében, hogy alapértelmezetten a régi kártyák maradjanak úgy, ahogy voltak és elhúzhatják a csúszkát, aminél leírják, hogy képminőséget kapsz, de a sebesség nem nőni, hanem esni fog.
-
PuMbA
titán
Az lemaradt, hogy Steve a videó végén megemlítette, amit én is írtam tegnap, hogy a DLSS az egyre több opcióval kezd bonyolulttá és nehezebben következővé válni, hogy a főként régebbi kártya felhasználóknak manuálisan kell presetet állítaniuk, ha maradnának a K profilnál. Sokan azt se tudják, hogy létezik ilyen, akik nem PC-s szakik.
Talán ezért van az, hogy az AMD vonakodik kiadni az FSR4-et régebbi kártyákra, mert megszűnne az egyszerűség. Tök jó lenne ott lenni egy megbeszélésen, hogy náluk mi a helyzet, hiszen a modell készen van, kiszivárgott.
-
DudeHUN
őstag
válasz
Callisto
#50702
üzenetére
Lehet csak én vagyok, viszont DLSS4 óta 1440p renderrel nyomnék mindent Nvidia kártya esetén 4K kijelzőn. 4K output, Quality DLSS. A 4K+TAA-nál kategóriákkal jobb az esetek 90+ százalékában. A DLAA natívhoz ekkora felbontásban meg nem éri meg imho, szinte csak 5090 mellett.
TAA lejebb meg főleg mosottas. Szvsz még 1440p kijelző esetén is szebb a Quality DLSS, sőt 1080p estén is annyire hulladék tud lenni a TAA. Ha meg van kakó a DLAA-ra akkor ofc az. De Nvidia kártyával (tiertől függően) szvsz 4K és 1440p kijelzőn a Quality DLSS a legjobb választás túlnyomórészt a 4.0 óta. -
PuMbA
titán
DLSS 4.5 vs DLSS 4 Performance, There's Good News & Bad News
Teljesítmény igényes lett a DLSS 4.5 Super Resolution. Még RTX5070-en is több esetben alig ad sebesség növekedést a Quality mód, szóval az NVIDIA a sebességet jobb képminőségre cserélte ebben a verzióban.

Nagyon kíváncsi leszek, hogy mi lesz a sebességgel, ha még erre rákapcsolják a Ray Reconstruction-t vagy a Frame Generation-t, de lehet, hogy az NVIDIA arra megy, hogy most már inkább használjanak az emberek Balanced vagy Performance DLSS módot.
-
9070XT-t van most a gépben megint. Azóta eldöntöttem, hogy az 5070 Ti nem kell. PT/RT és dinamikus FG miatt váltanék maximum. Ha váltanék, akkor erősebb kéne a 4K miatt.
Egy 5080 azért 4K-n már 20-25%-ot is tud hozni sok esetben és OC is jobb kicsit ami későbbre adhat erőtartalékot. (Csendes működést előnyben részesítem amíg csak lehet.)
Tisztában vagyok vele, hogy talán még így sem éri meg főleg, de az a rohadt 5080 nagyon úgy van belőve, hogy pont az a plusz hiányzik 4K-n a natív 60 FPS-hez (natív vagy DLAA-val). Tudom DLSS, de hagyjuk. FSR/DLSS maximum végső esetben.
Ha mégis kell felskálázás egyes játkoknál (PT/RT), akkor is több a tartalék benne és jóval több játék lépi át 5080-al a számomra bűvös 60FPS-t 4K-n.
Nem tudom véletlen-e vagy szándékos, de az 5080 éppen azokat célozza meg szerintem akik hajlandóak kifizetni az irrelális árkülönbözetet a 4K miatt.
5090-eket is nézegetem, de arról azt gondlom pénzkidobás lenne. Egyrészt következő gen nem tudni mit fog okozni árakban, mennyivel lesz jobb. Másrészt amikor lejár a gari ember nem fog eladni annyi pénzért gari nélkül egy cseszett PC alkatrészt. Maximum óriási veszteséggel.
Nehéz döntés, hogy használjam a 9070XT-t az új gen megjelenéséig (2027H2 jelenlegi pletykák szerint) vagy inkább 5080 a több erőtartalék miatt mielőtt valóban felmennek nagyon az árak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Alaposan helyretette az AI ellenzőit az NVIDIA vezetője
- SörcsaPH!
- Luck Dragon: Asszociációs játék. :)
- Milyen autót vegyek?
- Gyúrósok ide!
- BestBuy topik
- World of Tanks - MMO
- One otthoni szolgáltatások (TV, internet, telefon)
- Lesz is reklám a Nothing telefonjainak zárképernyőjén, meg nem is
- Genshin Impact (PC, PS4, Android, iOS)
- További aktív témák...
- AKCÓ! HTC VIVE Pro 2 virtuális valóság szemüveg garanciával hibátlan működéssel
- Keresünk iPhone 15/15 Plus/15 Pro/15 Pro Max
- GYÖNYÖRŰ iPhone 15 128GB Black -1 ÉV GARANCIA - Kártyafüggetlen, MS3944
- ÚJ Quansheng UV-K6 adóvevő eladó
- BESZÁMÍTÁS! Gigabyte B760M i3 12100F 16GB DDR4 512GB SSD RX 7600 8GB Zalman T4Plus CoolerMaster 650W
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Erős RT-s vagy PT-s játékokban megvan a 30% különbség is a 9070XT javáíra.







3070 megutotte a 2080Ti ugy ahogy az elod 70-es az elozo csucsot, most az 5080 sem tudja megszagolni az elozo csucsot.
De kb álom 



