Új hozzászólás Aktív témák
-
kredenckos54
csendes tag
Sziasztok!
Megosztom énis a tapasztalataimat, nekem van mindkét kártyából:
-AMD 7900XT
-NVIDIA 3080TI
Új játékoknál (DX11, DX12, VULKAN) nincsen különbség a két kártya között, viszont a régi játékoknál (DX7, DX9) az AMD kártya gyengélkedik, de az (OpenGL) alatt az AMD kártya elvérzik - de szó szerint (10 évvel régebbi NVIDIA kártya is megveri OpenGL-ben).Mivel több platformon használom, NVIDIA-nak van rendes drivere ("rendes drivere" = "Windows alatt meglévő GPU control panel") Linux alatt, ezzel szemben az AMD-nek ( amdgpu ) semmi, szó szerint semmi control panele nincsen - ez azért elég gáz. Használtam régen AMD GPU-t Linux alatt, AMD-Catalyst driverrel abban volt rendes control panel - nem is értem hova sikerült ide fejlődniük.
Windows alatt, AMD GPU-val jelentkeztek a hírhedt "FPS lagg / FPS spike" (pl.: FPS játék alatt mész, elfordulsz lemegy az FPS 5-re majd vissza és közben beszaggat a kép a monitoron ) írtak mindenféle megoldást "AMD Adrenalin"-ba kell ki/be kapcsolni dolgokat - ezeket interneten megtalálod - nem oldotta meg a problémát, meguntam átraktam a másik gépbe az AMD kártyát, visszaraktam az NVIDIA kártyát, érdekes azzal nem volt gond.
Röviden:
- AMD driver/szoftver környezet le van maradva az NVIDIA-hoz képest, hiába jobb hardveresen, így a végeredmény is olyan.Fentiekből mindenki leszűrheti mit akar venni.
-
paprobert
őstag
Na na, ne mondj ilyen racionális projekciókat. PC gamerként a játékos fókuszának annak kell lennie, hogy a VRAM-kispórolt kártyáján megmozdul-e az éppen megjelent új cím.
A gamingnek nem a játékról kell szólnia, hanem arról a minijátékról, hogy fej vagy írás alapon kompatibilis-e még a 8GB-tal a megjelent játék, 1080p-ben.
-
PuMbA
titán
Jaja, ebben egyetértünk
Viszont azt ne felejtsük el, hogy nincs ingyen ebéd. A textúra minőséget valószínűleg egyre lejjebb kell majd venni az eddig megszokottakhoz képest a 8GB-os kártyákon. És itt a probléma az, hogy az RX7600 árából veszel egy 12GB-os RX6700XT-t, ami gyorsabb is és több memória van rajta, tehát magasabb minőségű textúrákat tudsz használni vele.
-
paljani
aktív tag
Nem értelek. Senki nem vitatta, hogy a tendencia nem az egyre növekvő VRAM igény irányába mutat-e, hanem hogy meddig elég a belépőszintre a 8GB. A minimum még jó sokáig (huszadszor: a next-gen konzolokig kb.) megmarad a 8GB környékén, mert el is kell adni a játékot amit csinálnak. Megnéztem a legfrissebb steam surveyt ( [link] ) több mint 76%-nak 8GB vagy alatti a VRAM (abból ~30% a 8GB a többi az alatti).
-
PuMbA
titán
Szerintem a tendencia egyértelmű. Például nézz rá a Starfield minimum gépigényére:
AMD Radeon RX 5700 8GB, vagy NVIDIA GeForce 1070 Ti 8GB.Vagy a ma megjelent Immortals of Aveum minimum gépigényére:
NVIDIA GeForce RTX 2080 Super (VRAM 8 GB) / Radeon RX 5700XT (8GB)A 8GB az abszolút minimum lesz már a jövő évben.
-
paljani
aktív tag
válasz
Busterftw #140 üzenetére
Továbbra se értem ezt a pesszimizmust. A TPU például minden friss címre kiad egy “performance analysis”-t és komolyan nem láttam olyat, hogy 1080/Ultra többet evett volna 8GB-nél.
Itt egy példa mire gondolok: [link] vagy ez [link] vagy [link]
Azért a fejlesztők is látják, hogy nem lehet az egekbe emelni a követelményeket, mert a mainstream (=átlagvásárló) nem high-end hardvereken csücsül. Én inkább úgy látom, hogy a 8GB lett a sztenderd követelmény, de annál a legtöbb esetben még 4K alatt se kell több Ultra mellett. Kivételek persze vannak, de azokra nem lehet trendet húzni. Bizonyosan lesz olyan, hogy majd 12 vagy 16 GB lesz az elvárt, de azt én a next-gen konzolokkal várom kb. 3-5 év múlva. Addig azért cserél az ember GPU-t (párszor). -
-
Busterftw
nagyúr
Ehhez viszont hozzátartozik az az állapot, ami van, nem pedig ami ideális lenne.
Mert épp arról van szó, hogy az érkező játékok többsége bugos szar, tehát ezzel kell számolni, nem azzal, hogy ha a devek megtáltosodnak akkor tiptop játékok jönnek és elég lesz a 8GB.Feltételes módban elég lesz, ahogy kinéz a helyzet egyre inkább nem.
-
paljani
aktív tag
Mindenoké?
Arról beszélgettünk, hogy elég lesz-e 8GB VRAM az elkövetkező években belépő (1080p) gamingre. Szerintem igen, más kollégák szerint meg kevésbé és példaként a D4-et hozta fel, amit én még mindig vonakodok elfogadni, mert a textura menedzsmentje egy bugos szar (volt?). Senki nem lepődik meg a fejlesztés szükségszerűségén (vagy legalábbis nem adott hangot neki itt). -
podtibi
senior tag
De akkor hogy a francba venne bárki is jobb kártyát ha nem lenne rá szükség?
Ne csodálkozzunk ha a vevőt vásárlásra kényszerítik, mert ugyebár ez már nem a vevőkről szól jó ideje, de biztosra veszem hogy vannak akik még azon a kis mezőn sétálnak, azt gondolva hogy számít az érdekük. Nem értem az emberek hozzáállását. Azon kell meglepődnünk hogy jobb kártyát kell vennünk? Hány éve is már? Kicsit a fejünkbe kellene szállnunk és másra költeni helyette vagy történjék bármi is, spórolni a jövőre.
Valamelyik témánál meg azt olvastam hogy a 30-as kártyák sokkal rosszabbak driver miatt egy játékban és sokan jelezték a supportnak. Amikor utoljára olvastam az illető hozzászólását, továbbra is hiába való volt a supportnak írnia. -
paljani
aktív tag
Rendben, hivatalosan ki van javítva. Két okból is furcsa, egyrészt mert a forumban amit linkeltél továbbra is panaszkodnak másrészt mert még most vasárnap is játszottunk a cimbive és kb. óránként kilépett emiatt (ő 3060Ti én PS5-ön vagyok, engem nem érint). Majd megkérdezem, hogy csak megszokásból vagy tényleg van/volt még nyavajája valami.
-
PuMbA
titán
Itt írja a közösségi vezető, hogy az 1.1.1-be beletették a VRAM kezelés változtatásokat és a belső tesztek alatt jól szerepelt, tehát nem növekedett a VRAM használat ide-oda járkálások után:
Diablo 4 Community Lead Says Patch 1.1.1 Will Feature a Fix for Frustrating Performance IssuesItt pedig a Blizzard hivatalos oldalán láthatod, hogy Augusztus 8-án ment ki az 1.1.1, amikor a fórumbejegyzéseket is írták, amit linkeltem:
DIABLO IV PATCH NOTESAugusztus 15-e óta már az 1.1.2-es javítás van.
-
PuMbA
titán
Na, találtam infót! [link] Több beszámoló alapján körülbelül 1GB-tal kevesebb memóriát használ a javítás után, ami így sem segít semmit a 8GB-os kártyákon, mert 14GB kellett a javítás előtt az Ultra textúrákhoz, szóval úgy látszik, hogy ez a játék így működik. Végre, el tudtunk érni egy konklúziót
-
paljani
aktív tag
válasz
Busterftw #127 üzenetére
Ámen. Ha kicsit továbbgondolom, belépőszintű-casual gamingre nincs is nagyon értelme (új) hardvereket venni, egyszerűen jobban megéri egy PS5 (vagy XBox). Ráadásul Bill+egér támogatás sok címben adott, ha valakinek az áll inkább kézre.
Ha marad ez a trend, akkor a PC a high-end gaming színtere lesz, ultra high-end áron.
-
Busterftw
nagyúr
Viszont annyiban van értelme figyelembe venni, hogy a játékok főleg a konzol portok többsége az elmúlt pár évben kb nulla optimalizálással került ki a piacra és maradnak úgy elég sokáig.
Szóval oké, hogy ne egy memory leakes játék legyen a példa, de amíg ez így fut hónapokig (2 és fél hónapja jelent meg)-1 évig vagy soha nem leszttökéletesen javítva, akkor ez van.
Jó belegondolni, hogy ez hogy futna memory leak nélkül, de azokon nem segít akiknek ez gondot okoz release óta.
-
Dr. Akula
félisten
Pont arra mondtam, hogyha leakes, akkor leakes, nem tudsz vele mit csinálni, ezt kell futtatnia a hardvernek. Az kevés vigasz hogyha jobb lenne, elfutna gyengébb hardveren is, mert nem olyan. Én a GTA4 alatt használtam el 3 generáció Radeont, de aztán be kellett látnom hogy ez nem lesz jobb, és váltottam (vissza) Nvidiára. Minél újabb Radeonon futtattam, annál kevesebb volt az fps, a végén már 800x600 fölé nem is engedte a beállításokat, csak ha felülírtam -norestriction kapcsolóval. Ez ilyen, én is csak annyit tudtam tenni hogy veszek olyan hardvert ami jobban futtatja.
-
paljani
aktív tag
válasz
Dr. Akula #124 üzenetére
Ezt most nem biztos, hogy értem.
A kolléga a D4-et hozta fel példának, hogy már most többet eszik, mint 8GB ultra textúra részletesség mellett. Én meg mondtam, hogy nem jó példa mert VRAM leak-es (pontosabban szar a memória/textúra menedzsmentje) és még csak most fogják javítani blizzardék (Adam Fletcher legalábbis megígérte). Ez egy - fejlesztők által is - elismert hiba (bug) a PC programban. Ha megvan a fix, akkor fogjuk látni pontosan, hogy mennyi a matek, lehet marad ugyanennyi de lehet jócskán csökken majd (esetleg még nő is…
).
Én továbbra is úgy gondolom, hogy 1080p mellett elég lesz a 8GB VRAM a belépő szintű gémingre kb. amíg az új konzolgeneráció meg nem érkezik. -
-
Mint irtam is jó lehet a cucc játékra.
Én személy szerint nem próbálkozok vele ekkora összegért.
Semmilyen komment és ha még látnám sem győzne meg hogy 4 kilót letegyek erre.
A másik az hogy amúgy sem cserélnék le egy 250-es Z790 lapot.
Amd vga viszont bármikor,most lesz épp egy xtx. -
PuMbA
titán
"Szerinted a méréseket pár perces etapokban csinálják, közben minden egyes (minden egyes) alkalommal teljeses újraindítva a gépet? Viccelsz, bolondozol?"
Sokszor azt érzem, hogy nem olvasod el az egész hozzászólásom és ez frusztráló, mert többször le kell írnom ugyanazt. Leírtam. Nem kell újraindítani a gépet. A játékban a textúra beállítás megváltoztatása törli a memória tartalmát és friss lappal indul a dolog, tehát tesztelés esetén, ahol folyamatosan változtatják a grafikai beállításokat ez épp elfedi a problémát
Erről van fent sok videó a YouTube-on "Diablo IV VRAM issue fix" névvel.
-
paljani
aktív tag
Szerinted a méréseket pár perces etapokban csinálják, közben minden egyes (minden egyes) alkalommal teljeses újraindítva a gépet? Viccelsz, bolondozol?
Maradjunk annyiban, hogy a Diablo IV NEM jó példa semmire a VRAM usage tekintetében, mert bugos mint a szar. Ha kijavították, majd térjünk vissza rá…
-
Nekem csak egy 5600-van amd-től a kislányom játszik rajta.
Nem irtam hogy nálam mert csak intelt használok személy szerint.
Nézd meg a linkelt második videót.
400ezerért én nem próbálkozok amd-vel (alaplap+proci ára),ddr5-öm van ugy 240gb.
Jelenleg egy 40ezres i3 van az is kiszolgál októberig,akkor pedig refresh lesz véve de az is csak azért mert a memóriavezérlőn javitanak.
Ha a mostani H0 i3-ban jólenne nem cserélnék,de nagyon gyengusz. -
PuMbA
titán
"Más kérdés hogy alapvetően átlag felhasználásra viszont nem vennék amd-t mert mint platform lassú mint a tetü."
Valami energiagazdálkodás nálad el lehetett állítva, hiszen ha játékok alatt a középkategóriás AMD gyorsabb a csúcs Intelnél is, akkor minden másra is gyorsnak kell lennie. Nekem AMD 5600X-em van és semmivel sem lassabb átlag felhasználásra, mint szüleim Inteles gépbe. A belinkelt YouTube videóban is leírják, hogy nekik semmi problémájuk az AMD procikkal, tehát egyértelműen beállítás hiba van:
"Had a 5700x and went over to a 13700k. I dont feel like one is much different as far as response times."
"After receiving a B650E, 7800X3D, and 2x16GB 6000 CL30 kit from a small-time sponsorship, I've had no issues so far with mine." -
Nem hajtja ki maradandóan egyik hatmagos processzor sem még a belépő vagy középkategóriás vga-kat sem.
Legalábbis a minimum és maximum fps-ek biztos hogy jóval alacsonyabbak lesznek attól mint amilyenek lehetnének.Az averagen lehet hogy nem sokat befolyásol.
16 erős mag lenne optimális sok cache-el de ilyen intelnek nincs az amd meg nem igazán erős de mégis talán valamelyik 7xxxX3D proci a legjobb választás gaming-re.
Más kérdés hogy alapvetően átlag felhasználásra viszont nem vennék amd-t mert mint platform lassú mint a tetü.
[link] , [link] -
PuMbA
titán
Még nincs videó, mert mostanában fog kijönni a patch, de a beszámolók alapján 2 óránál többet kell játszani, hogy probléma legyen, tehát ez egy nagyon lassú hiba, így a pár perces teszt méréseknél ez nem számít. Ezért nem siettek annyira a javítással.
Egy felhasználó beszámolója alapján már indításkor teli van a 8GB VRAM medium grafikán:
"Using AMD’s metrics app, when I launch Diablo 4 on Medium graphics preset the game utilizes approximately 7.6gb of VRAM. As time goes on and I play the game for over 2 hours or so, that VRAM number slowly increases until the point where it nears or reaches the 12gb limit"
Egyetlen kérdés, hogy medium preset esetén mire van állítva a textúra, de ahogy olvasgattam az jött le, hogy medium
-
paljani
aktív tag
válasz
Dr. Akula #107 üzenetére
Natessék! Van itthon egy Sinclair ZX81 és igen, játszottam rajta évekig. Simán gondolhatom, hogy arra gondoltál!
Annyiból érdekes (lehet) magszámra visszavetített teljesítmény(vesztés) hogy sokan agyalnak, hogy egy I5-13600K vagy R5 7600X vajon elég lehet-e egy nagyobb kártya mellé és az így spórolt pénzen mégnagyobb kártyát vegyenek vagy mi legyen. Úgy tűnik, hogy a jelenlegi (nyolcmagos) konzolgeneráció magával hozta a 8 mag igényt is az újabb játékoknál.(Bár az asszony elnyírta a ZX tápkábelt vagy 10 éve, de mindig jövőre már tényleg kicserélem! )
-
paljani
aktív tag
Bánomisén akkor vegyenek vissza minden másból. Azért azt megjegyzem, hogy ultra->high tipikusan észrevehetetlen (nem véletlenül nagyítanak bele a képekbe YT videókban sem…) főleg 1080p-ben (merthogy belepő kategóriáról van szó még mindig) és ez instant 500MB-1GB-XGB spórolás játéktol és felbontástól függően VRAM követelményt tekintve.
(Diablo IV vram leak -> keress rá, nem értettem mi a bánatért eszik az annyit a videódban, mostmár értem)
-
PuMbA
titán
-
Dr. Akula
félisten
Értelmes keretek közt, értelemszerűen. A víz is folyékony - értelmes keretek közt. A vas meg nem folyékony, de azért a Föld magjában már igen. Ugyanígy a processzoroknál is azért lehetett sejteni hogy nem Z80-ra gondoltam, hanem ami manapság egy gémer gépben előfordulhat.
-
PuMbA
titán
A játékosok nagy része szerintem inkább vissza vesz az fps-t csökkentő render effektekből, minthogy a csúnya, mosott textúrákat nézze, aminek a magasabb minőségre állítása nem csökkenti az fps-t.
Azaz inkább játszanék úgy, hogy közepes grafika magas textúrákkal, minthogy magas grafika közepes textúrákkal. Az előbbivel az fps-ed is több lesz es a mosott textúra sokkal jobban észrevehető, mint például, hogy 100 vagy 200 részecskéből áll egy varázslat effekt.
-
paljani
aktív tag
válasz
Dr. Akula #104 üzenetére
Hátőizééé… az eredetileg azt mondtad, hogy mindegy milyen CPU van 4K felbontásban a 4090 alatt. Aztán hoztál videót, ami 8/8+ magos I9-eseket hasonlít össze. Én meg azt mondtam, hogy azért nem teljesen mindegy milyet és hoztam egy videót amiben látszik, hogy egy 4-6 magara visszabutított I9-es is akár 30-80% fps droppal járhat.
Helyesen akkor úgy hangzik a tézis, hogy mindegy milyen CPU-t teszünk a 4090 alá, amíg az egy I9-es (vagy ezzel ekvivalens Ryzen).
-
Dr. Akula
félisten
A 9900k már elég régi ahhoz hogy nyugodtan lehessen átlagosnak nevezni. Az őskorba valóban nem mentem vissza, hogy Cyrix 6x86-tal hogy festene a képlet.
A lényeg hogy a mai világban elérhető processzorok (játékra valószínűleg senki nem gondolkodik Celeronban meg i3 legaljában) közül kb. mindegyik elég 4K-ra, elég csak a videókártyát upgradelni. Kivéve ha kifejezetten az az 1-2 játékkal akarsz csak játszani ahol pont a legnagyobb eltérések vannak, és ezért hajlandó vagy 1+ millát áldozni a platformváltásra. A videók lényege az volt hogy felesleges.
-
paljani
aktív tag
válasz
Busterftw #101 üzenetére
Aztakurva… gondolom a textúra mérete és minősége között meg nincs reláció… oh wait.
Abban igazad van, hogy a (VRAM) limit elérése ami számít, DE ennyi erővel azt is leírhattad volna, hogy az ég kék a fű meg zöld. Mind igaz, de miben mond ez ellent annak amit írtam: ha elfogy a 8 GB akkor lejjebb veszed a (textúra) minőséget.
?
-
paljani
aktív tag
Elbeszélünk egymás mellett. Eredetileg azt írtam, hogy hamarabb fogy ki a kraft a gpuból ( a mindenféle rendereffektekhez) minthogy kevés legyen a 8GB a 1080p felbontású textúrákhoz. Ha meg mégis kifogyna belőle, akkor lejjebb veszi azok minőségét (mert azok zabálják a leginkább).
Most tényleg nem érthető vagy csak nem akarod megérteni? -
PuMbA
titán
Egy kis segítség videó. Már 8 évvel ezelőtt is kimérték a textúra minőség állításának hatását 4K felbontásban és mérési hibahatáron belül volt még ezekkel a régi, nagyon gyenge hardverekkel is:
GTA V Texture Quality Comparison & Benchmark
#100 paljani: Így van, de csak akkor van köze, ha nem elég a VRAM
A GPU erőnek nincs köze hozzá, ahogy eredetileg állítottad, ezért simán ráférne a 7600-ra is a 12 vagy 16GB memória és akkor akadozás nélkül Ultrára rakhatnád a textúrát például Diablo 4-ben.
-
paljani
aktív tag
válasz
Dr. Akula #94 üzenetére
Kevertem a videód ezzel, szori. Túl sok van már megnyitva.
Megnézted amit linkeltem? A Digital Foundry 4 és 8+ mag között szépen mért 30-80% különbséget. Amire te hivatkozol az mind 8 vagy annál sokkal több mag csak eltérő generációk.
Kolléga meg egy 6 magos 5600-at cserélt egy 8 magos I9-re. Persze, hogy ugrottak az fps-ek felfele…
-
PuMbA
titán
"Ennek az értelmezésnek ugorjunk neki mégegyszer szerintem. Szóval hogyne befolyásolná a textúrák minősége (=mérete) a gpu teljesítményét? Minél nagyobbak annál több erőforrás kell a renderelésükhöz és annál több a VRAM igénye is. Manapság ez mondjuk kevésbé hangsúlyos (főleg 1080p alatt) fps oldalról, de attól még így van."
Ez egy általános tévhit, de ne higgy nekem, próbáld ki. Amivel most éppen játszol játékokkal, nézd meg az fps-t alacsony és magas textúrán. Ugyanannyi lesz
A nagyobb textúráknak csak több VRAM kell, GPU erőforrás nem!
"(Amúgy ha továbbnézed a videódat 5:39-től, akkor látható, hogy elég a 8GB az ultrához)."
Igen, de közben többször akadozni fog a játék, ez a videó lényege
Nem egy kellemes játékélmény úgy.
-
paljani
aktív tag
Ennek az értelmezésnek ugorjunk neki mégegyszer szerintem. Szóval hogyne befolyásolná a textúrák minősége (=mérete) a gpu teljesítményét? Minél nagyobbak annál több erőforrás kell a renderelésükhöz és annál több a VRAM igénye is. Manapság ez mondjuk kevésbé hangsúlyos (főleg 1080p alatt) fps oldalról, de attól még így van.
De megpróbálom átfogalmazni: Hamarabb kell levenni/kikapcsolni egy belépőszintű kártyán a grafikával kacsolatos effekteket mint hogy kifogyjon a 8GB VRAM-ból, hogyha ezt nem teszi meg.
(Mondjuk így se hangzik jobban…A lényeg, hogy 1080p mid-high beállításokhoz még sokáig elég lesz a 8GB VRAM).
(Amúgy ha továbbnézed a videódat 5:39-től, akkor látható, hogy elég a 8GB az ultrához). -
Dr. Akula
félisten
Akkor itt van ez, szintén 4K, 9900k - 13900K-ig csak Intel összehasonlítás (de ha a korábbi alapján a 7800X3D ugyanaz mint a 13900K, akkor mondjuk az is benne van
). Néhol van jelentősebb különbség, de a legtöbbnél alig vagy egyáltalán semmi. Cyberpunknál pl. pont semmi. Mivel különböző felbontásoknál a kisebb felé haladva nyílik az olló, valószínűleg 4K-n belül is ott van komolyabb eltérés, ahol nem annyira nagy a terhelés.
Az XTX nem tudom hogy kerül ide, az előbbi videóban a tech specnél elmondják hogy 4090-el tesztelnek. A procikat váltogatják, nem a videokártyát.
-
paljani
aktív tag
válasz
Dr. Akula #91 üzenetére
Sajnos nem. Amit linkeltél az a két legerősebb CPU tesztje, pont semmennyire nem támasztja alá, hogy 4K-ban mindegy mi lenne a 4090 alatt.
Itt viszont szépen látszik mennyire NEM mindegy milyen CPU van a 4090 mellett (summary 11:42-től).
(Nekem viszont jó a linkelt videód, mert korábban írtam ide, hogy van olyan felbontás és játék, amiben az XTX megveri a 4090-et is, na ebben pont látni ilyet, többször is
).
-
PuMbA
titán
"Teljesen tökéletes a 8GB memória a 7600-asokra. Meg öt év múlva is az lesz, ugyanis ez egy belépőszintű (1080p) kártya."
Ezt most meg tudom cáfolni neked, mert már ma problémás a 8GB VRAM rajta. Diablo 4 esetén a High textúrákat még 720p-s YouTube videó alatt is látom hogy homályosak az Ultrához képest és az Ultrához pedig nem elég a 8GB: [link]
"Hamarabb fogy ki a nafta belőle, mint a textúraméret kihízza a 8GB-ot 1080p-n"
A textúra minőség nem befolyásolja A teljesítményt, így ennek a mondatnak nincs értelme
Low és Ultra textúra alatt is ugyanannyi fps-t tudnak a videókártyák.
-
Feri1984
tag
válasz
Sontir Fel #88 üzenetére
Én csak azt mondom amit tapasztaltam.4090 alá kevés volt 5600x.
-
Sontir Fel
őstag
válasz
Sontir Fel #87 üzenetére
-
paljani
aktív tag
Teljesen tökéletes a 8GB memória a 7600-asokra. Meg öt év múlva is az lesz, ugyanis ez egy belépőszintű (1080p) kártya. Hamarabb fogy ki a nafta belőle, mint a textúraméret kihízza a 8GB-ot 1080p-n, ha meg mégis, akkor lejjebb viszi az ember a textúra minőséget és kész.
A sokak által hivatkozott RX 580 (8GB) sose volt belépőszintű kártya, sőt a polaris-ok teteje volt, alatta volt az RX 550 2GB, RX 560 4GB, RX 570 4GB meg az RX 580 4GB. Ezért öregedett “ilyen jól”. Irreális összehasonlítgatni a mai belépőket ezzel, meg elvárni, hogy ugyanaddig és ugyanolyan jók legyenek mint az RX 580 volt. Azt inkább egy 7900XTX vagy 4080-tól lehet és ezek valószínűleg meg is fogják ugrani ezeket az elvárásokat…
-
Feri1984
tag
válasz
Sontir Fel #84 üzenetére
Ez egy nagyon érdekes táblázat egyébként.Csak nem tükrözi a valóságot.
Tapasztalat alapján és nem túlzok!
Cyberpunk +25 fps
Call of Duty +20 fps
RDR 2 +20 fps
Mafia Remake +20 fps
Egyenlőre gondolom elég,ja és eltüntek a random fps droppok.
És hűvösebb. -
PuMbA
titán
Na ezeket a játékokat még én se néztem, jó információk!
Én még például PS2 emulátorozok is PC-n, ami közbe szintén kevésbé jár a GPU, de ugyanúgy AAA játékokkal is játszok, oda pedig kell a 6700XT összes ereje.
Ha egybe vesszük a nagy gépigényű és a kis gépigényű játékokat, úgy kellene a tesztoldalaknak meghatároznia egy átlagfogyasztást szerintem. De hát mivel ez nincs, ezért kell több tesztet megnézni és abból összekaparni az adatokat, ha valaki alapos adatokat akar egy kártyáról.
-
MolGabi
aktív tag
"Ne felejtsd el nem mindenki csak gamingre vásárol vga-t.
Sok területen a 7600 jócskán best buy vétel."Nekem a jelenlegi RX580 után ez is óriási lépés lenne, de ahogy már sokszor ki lett tárgyalva, ugyanazért az árért jobbat is kap az ember, mint egy 7600. A 8GB 5 éve még jó dolog volt, ma már, főleg ha sok évre tervezi az ember, már nem túl biztató. Játékra is jó azért a 7600, ahogy az 580 is még helytáll, még ha kompromisszumokkal is, főleg a rosszabb portoknál. Személy szerint azért nem szívesen választanám a 7600-at, mert nem érzem azért az összegért azt az ugrást teljesítményben, tudásban, mint amit a korábbi gépfejlesztésnél. Ezért is gondolom azt, hogy nekem személy szerint a 6800 tudása lenne a következő, észszerű lépés.
A 7600-nak akkor lehetne szerintem reális ára, ha újonnan 80e Ft körül lehetne kapni. A 6000-es széria és a napokon belül érkező jelenlegi széria hiányzó tagjai miatt túl sok a lehetőség, ráadásul a használt piacon hirtelen rengeteg 6700XT lett, az árak ebből kifolyólag mennek lejjebb, szemben a 6800-as szériával, ami még mindig szerintem drága használtan is, már ha lehet kapni. De remélhetőleg heteken belül változnak a dolgok, főleg ha lesz "új" generáció és teljes lesz a 7000-es család is.
Azért kíváncsi leszek a Gamescom-ra, nem csak hardveres témában, remélem az idei nem lesz akkora csalódás, mint az elmúlt évek rendezvényei.
-
paljani
aktív tag
Tegnap este megnéztem pár YT összehasonlítást az újabb címeknél (4K - Max - 4080 vs 7900XTX)
- Atlas Fallen - 310W vs 345W
- LOTR: Gollum - 290W vs 345W
- Dead Island 2 - 320W vs 345W
- Diablo IV - 300W vs 345W
- Sons of the Forrest - 300W vs 346W
- Remnant 2 - 297W vs 366W…aztán bealudtam.
Szóval egy erős átlag 15-20% fogyasztáskülönbség van a 4080 javára, de azért nem többszáz wattok, ez utóbbi nagyon szituációs (1440p - minimum graf - 2 játék talán?) ahogy miszter optimumnvidiatech Úr is elismeri a videójában.
-
Aprósólyom
addikt
A szűk látókörűséget elkerülvén vedd figyelembe, hogy a TUF kártya egy AIB OC kártya szemben egy nVidia ref. kiadással. A TUF kártya max load-on 40 wattal többet eszik az AMD ref.-hez képest TP teszt szerint. Nem csak az órajel miatt, hanem a VRM/PCB design miatt is vannak eltérések fogyasztásban/hatékonyságban. Bizonyos esetekben nem kevés. (pl. XFX változat 60 Wattal eszik többet az AMD refhez képest.)
Techpowerup ugyan nem tesztel low/med. grafon, ez igaz, viszont a VGA-k fogyasztásának a skálázódását csökkentett terhelés esetében másként: 60Hz+V-sync kombóval szokta mérni. Persze nem ugyan az mint low/med. graf beállítás, de ez az opció is nagyon jól mutatja, hogy miként képest az architektúra optimalizálni magát light load-on. Ott sem mutatkoznak akkora fogyasztásbéli különbségek.
Hiába látok a videókon HW mérőeszközöket, más számok és hogy jóformán csak egy kisebb youtuber reprezentálta a jelenséget az összességében szkeptikussá tesz.
Ha majd egy hitelt érdemű tesztcsapat foglalkozik a kérdéssel és reprodukálni tudja az eredményt. Akkor azt mondom OK.
Addig ezeket a 200+ watt különbségeket én fenntartásokkal kezelném.
De ha van forráshivatkozásod ne tarts magadban én kíváncsi vagyok rá. -
PuMbA
titán
válasz
Aprósólyom #78 üzenetére
Aki kritizálja az szűk látókörű. Attól, hogy valakinek csúcskártyája van nem azt jelenti, hogy csak nagy gépigényű AAA játékokkal kötelező neki játszani, hanem azt is, hogy játszhat könnyed szórakoztatókkal is mint pl. Among Us, Fall Guys vagy hamarosan megjelenő Party Animals. A TechPowerUp ilyen játékokkal nem tesztel, ezért jön ki más eredmény
Ne felejtsük el, hogy a TechPowerUp sem egy mindenható tesztoldal, mert sok dolgot kihagynak a tesztjeikből, például ezt.
-
Aprósólyom
addikt
Azt a videót azért vannak, akik kritizálják és nem alaptalanul. pl. Techpowerup elég sokféleképp méri a fogyasztást és egy ideje a játékonkénti átlag fogyasztást is közlik, tehát rengeteg adatot össze lehet vetni és ugyan van különbség, de közel sem akkora, mint amit az Optimum tech csatin reprezentált a srác.
#48 Feri1984: Még így is a teljes PC 400W felett eszik a konnektorból a tápegység hatékonysága miatt. Akkora teljesítményből már pirítóst is lehetne készíteni
-
Feri1984
tag
válasz
Sontir Fel #75 üzenetére
Nem tudok a kártyáről többet.
Igen kényelmesebb lett volna váltani 5800x3d-re de sokkal drágább is lett volna.
Alaplapomat annyiért adtam el mint amennyiért vettem.Mert megjöttek a 7000 amd proci a rohadt drága alaplapokkal,így a régi lapok ára is felment.Legalább is akkor nagyon mentek.Az áráért boltban vettem egy vadi új msi z590 tomahawk-ot és még maradt 5000 a zsebemben.A proci csere meg +25k volt de abből lejött az 5k.
Igy az egész csere 20k-ba fájt.Ekkor tájt ha jól emlékszem még használtan is 140k körül mentek a 5800x3d-k.így ez +50k-ba fájt volna. -
Sontir Fel
őstag
Felvetődik a kérdés, hogy, aki megvásárolta tőled, az is ezekkel a problémákkal szembesült vagy sem. Amennyiben igen, ott akkor elképzelhető, hogy hibás a kártya. RT-t leszámítva szerintem - és emlékezetem szerint - a 6800xt kicsit combosabb mint a 3080, nem beszélve a több memóriáról. 5600xről 11700ra váltás szintén érdekes döntés. 5800x3d kényelmesebb lett volna szerintem. Egyik barátom akart 11900at venni, hogy majd szénné OCzza, aztán jöttek a tesztek, hogy egy 12400 hozzá kb a szintet, el is engedte... Ha már Intel vonal
A melegedős kérdésedre látom már kaptál választ. Emlékszem engem is meglepett minden alkalommal a váltás, romlott vagy 10 fokot az érték CPU cserék alkalmával: 2700, 3600, 5600x, 5800x3d
-
Nincs esély nem is volna létjogosultsága.
150-160ezres ársávban kéne lennie egy ilyennek ahol esélye sincs.
Rengeteg használt kártya van forgalomban 6800-ak 140e körül vehetőek,6700xt-k pedig 90-ért mindkettő erősebb tőle.Ne felejtsd el nem mindenki csak gamingre vásárol vga-t.
Sok területen a 7600 jócskán best buy vétel.
-
Feri1984
tag
Köszönöm a választ.Logikus.
Igen,nincs baj vele csak nekem "viszket" tőle az agyam egy kicsi része.
Kisebb nm technológia+kevesebb fogyasztás és mégis nehezebb hűteni.Nálam ez +5-8 fok volt a két proci között,idle és terhelés alatt egy aránt.
Félre értés ne essék,nem az intelt akarom magasztalni.
Ott is vannak azért hőfokok amiket nem tudok hova tenni.
Egy két proci igényesebb játáknál 135-140w kajálása közben
70-75 fok.Ami ugye megint nem baj de ugyan csak viszket az a valami hogy a max 300w fogyasztású kártyám meg 65.
És mit csinál az intel megint ősszel a 14.gennel.
Megint kis reszelgetés,megint kis órajel húzás,megint kis étvágy növelés.
13900k prociről láttam videót ,all core 5,5ghz.
Cinebench alatt 300w fogyasztás.
Jó,ez egy terhelés teszt és igen,játék közben nem lesz ilyen soha.értem én de akkor is.ne már. -
MolGabi
aktív tag
Van esély egy RX 7600XT bejelentésre is a közeljövőben? Vagy inkább úgy kérdezném, az előző generáció idején mikor adták ki a feljebb húzott alsó kategóriás kártyákat? Szerintem a 4060 16GB kártya után ésszerű lenne egy válasz az AMD-től egy pl. 7600XT 16GB vrammal, még ha erőben nem is egy felsőkategóriás kártya. Hosszabb távon jobb a több vram.
-
paljani
aktív tag
Úgy lehet ez, hogy a Ryzen chip (die) mérete 80 mm2 a core I7-é meg 276 mm2. Sokkal nehezebb a kisebb felületről elvezetni a hőt, mint a nagyobbról. És ugye nem is magát a die-t hűtöd, hanem a kupakot rajta ami tovább rontja-ronthatja a hatásfokot. Az, hogy a ryzenek melegek-melegebbek azzal alapvetően nincsen gond amúgy.
-
Feri1984
tag
válasz
Sontir Fel #66 üzenetére
Neked sarkításnak tünhet,én csak leírtam a tapasztalatomat.
Neked akkor szerencséd volt mindkét kártyával.
Nekem és mások nem.
Ha oc-ra is vezethető vissza?én nem oc-tam.
Sőtt próbáltam undervoltozni de annyira új volt a kártya hogy afterburner nem támogatta,catalyst,bocs adnerarin meg folyton összeomlott.
Ahogy fentebb írtam a widows asztalt bámúlva,tehát semmi más program nem futott és a kártya 44fokos volt.ha jól emlékszem a memória meg 65fokon füstölt.prõbáltam levinni a ramok órajelét de mintha nem is állítottam volna semmit.ugyanúgy pörögtek a ramok.
Látom írtad a procit is,nekem is volt 5600x.nem volt vele gondom.
viszont
all core 4,6ghz turbó,kis pbo
jelenleg 11700k all core 4,8ghz.
Tudod mi az érdekes?ugyanazzal a proci hűtővel,ventik és fordulatszámmal a +2 mag és 200hz órajel ellenére a 11700k hűvösebb.nincs delidelve.
14nm vs 7nm.
125w tdp vs 65w tdp
Kérdés hogyan lehet ez? -
adr0001
aktív tag
Volt már ilyen, előre bejelentés nélkül. A Poraris is kijött és utána 1 évig kb. semmi nem történt. Középkat. volt a javából, mégis, vitték mint a cukrot a Pascal ellenében is, mert ment is és az árazása jó volt. GPU fronton az AMD legnagyobb, legjobb, és leghűségesebb vásárlói a Sony és a Microsoft. A R&D Department elsôsorban az ő igényeikre figyel sztem. Az nV meg az AI-re. Egy ex-bányászkártyákkal teleszórt PC piacon ezen ne is csodálkozzunk.
-
Sontir Fel
őstag
-
paljani
aktív tag
Én azt olvastam, hogy az RDNA 3 refresht kaszálták el, ami javította volna a teljesítményt. A jelenlegi XTX-ek teljesítménye ~20%-al az eredeti cél alatt vannak.
Most meg még az RDNA 4-ről is lehet olvasni, hogy csak a kisebbek jönnek, de ez rafinált dolog is lehet, tekintve hogy nem monolitikus felépítésben gondolkodnak, hanem chipletekben. Lehet (például) a kicsikből összegyúrnak 4-et és kész is az ultra high end cucc. Mindenféle hírek vannak meg másnap azok ellenkezői is.
Abban egyetértek, hogy mindenki vegye meg a legnagyobb GPU-t amire van budget, abból nagy gond nem lehet. Aztán attól senkinek nem lesz lassabb a kártyája, hogy vannak kint újabbak/gyorsabbak. De halogatni nem érdemes, hol kriptó hol AI hol kiskutyafüle: az árak csak nőnek és a jobb eset ha van készlet, a rosszabb ha drága valami és nincs is. -
Feri1984
tag
Ha már beszélgető partnerekre leltem ki mit gondol a pletykákról mi szerint az amd nem csinál csúcs vga-t a következő szériánál.
Valamint az nvidia a papír forma szerint 2 évente,vagyis jövőre esedékes next gen kártyákat el halasztotta 2025re.
A háttérben valószínű a MI fejlősése miatti hardverkereslet áll.
Mindkét gyártó inkább a ilyen felhasználású kártyákat fogja gyártani a gamer kártyák helyett.A jelenlegi kártyák előellítását is csökkentik.Ezzel újra kisebb kínálatot teremtve,ami ugye az áraknövekesésével jár.
Véleményem szerint megint csodás minimum 2 év áll a játékosok előtt.
Lehet érdemes lenne karácsonyra spórolni azoknak akik gondolkodnak gép fejlesztésen.Jövőre ne hogy megint pislogjunk mint ponty a szatyorban az árakat látva. -
adr0001
aktív tag
Giga 6600XT-m ugyanez, 1-2 hetes korában újrapasztáztam. Megszűnt minden gondom utána. Sok kedvem nem volt visszaküldeni, ezért csináltam én. Legközelebb bármi is legyen az, visszapattintom annak aki elkövette. Egyre trehányabbak a gyártók, és ha én oldom meg a kvázi DOA baját a szaruknak akkor pluszban csak az RMA listájukat karcsusítom. Így arra jutottam hogy a DIY ezen formája kontraproduktív lehet
visszaküldeni, aztán meg csak szedjék szépen össze magukat. -
paljani
aktív tag
Ami szar az szar, ezen nincs mit szépíteni. Én tök megértem, ha valaki ilyen tapasztalat(ok) után közelébe sem megy az adott márkának/gyártónak többet. Nekem eddig (~25 év/15 kártya vegyesen) szerencsém volt, ha gondok voltak is mindkét oldalon, nem ennyire meredekek, inkább csak apróbb, dühítő szarságok.
-
Feri1984
tag
Ugyan abba a gépbe berakva a 3080at minden probléma megszünt.
+ a 6800xt idle 44fokos volt 33% venti mellett.
3080 32 fokos.
Fórumokon találtam megoldást.azt mondták a memória pörög maxon valamiért vrr monitor miatt.át kellett volna állítani valamit a catalistban de amikor ezt megtettem a monitor sötétült el és csak a restart segítet,persze a a beállítás nem lett elmentve és megint forró volt a kártya.
Most a szívemre teszem a kezem én mindig szúrkoltam az amd-nek de saját tapasztalatok alapján sosem jönn össze nekik.
Most is a 7000-s vgák vapor chamberes hűtésével csak a problémákat olvasom a fórumokon.
100fokos 7900xtx-ek zsák szám.
4090en nem megy 70fok közelébe.
Proci oldalon ugyan ez.
5600x-em 4,6gh 360as aio hűtéssel játék közben melegebb volt mint az rtx 3080.
Tehát hiába a kisebb fogyasztás proci,vga oldalon egyaránt ha mégis melegszenek,valamint fps droppok és hardveres/szoftveres problémákkal küzdenek.
Egy szónak is száz a vége: drukkolol az amd-nek megint a 8000s procik/vgak kapcsán de amíg a fenti dolgokat nem oldják meg ln maradok intel/geforce oldalon még ha drágább is.
De ez csak egy ember véleménye 😊 -
adr0001
aktív tag
Csak azért várom mert eleinte open-source-nak hirdették, amit aztán később nem cáfoltak. Vagy ha igen, akkor arról lemaradtam. Aminek egyébiránt csak akkor van igazán értelme, ha tisztán szoftveres megoldásról van szó.
Nyilván vmilyen compute shader megoldás lesz és akkor én egy DX12 ultimate HW szintre lôném be a követelmènyt. Azoknál a kártyáknál marad is annyi kraft hogy ezt is csinálja meg a játék render-rel is foglalkozzon.
Párszor már leírtam itt a PH!-n, egy HD7970 2ms frametime-mal renderel 2160p/23,976-> 60fps-t (1000x jobb minõsêgben mint bármelyik TV)
nV-n a sziliciumba égetett rész csak a mozgásvektorok keresését gyorsîtja két kép közötti kûlönbség vizsgálatakor...
Maga a technológia faék egyszerûségû (az artifactok eltûntetése már nem annyira), és remélem az AMD-nek lesznek tökei ahhoz hogy kamura hivatkozva nem korlátozza a hozzáférést egy olyan cucchoz amit egy mosógép/kvfõzõ/anyám mikrója is simán kiköhõgne. -
paljani
aktív tag
válasz
Busterftw #53 üzenetére
Ez kezd komédia lenni, rajtam kéred számon, hogy a TDP/TGP/TBP stb. miért nem tartalmazza az ilyen 1-2 századmásodperces tüskéket? Nem te tekergeted ezt a “beszélgetést” össze-vissza “véletlenül”?
De akkor tanuljunk egy kicsit: a gyártók ezeket tipikusan az ajánlott tápmérettel fedik le. Ezek olyan rövid ideig tartanak, hogy a tényleges fogyasztást érdemben nem befolyásolják, tehát ha te bármiféle (pl. átlagfogyasztási) következtetést akarsz levonni akkor nemcsak rossz úton jársz, de rossz kontinensen is vagy egyszerre.
-
Feri1984
tag
Konkrétan az egész steam könyvtáramat végig próbáltam.
Volt hogy bírta egy 1óráig is de volt hogy gép bekapcs,játék indít,load game...pufff képernyőillesztő nem válaszolt.
Fellehet tenni a kérdést hogy előtt 1060/1070/ utána pedig 3080/4090 kártyával volt-e ilyen hibám VALAHA!!! is.Spoiler SOHA. -
adr0001
aktív tag
Lehet azon vitatkozni hogy egy 760i vagy egy Ford Mustang fogyaszt-e többet, csak nincs értelme.
-
adr0001
aktív tag
válasz
FragMaster #1 üzenetére
Azt csiripelik hogy az is lesz, itt. Már kíváncsi vagyok hogy a 3060Ti-m 4060Ti lesz-e hirtelen az AMD jóvoltâból.
-
Feri1984
tag
Idegből megy itt az adok-kapok kérem szépen.
Volt nekem is amd konfigom (5600x + 6800XT) ,csak volt.
Nekem sajnos igen sok gondom volt a driverrel.Játék közben kifagyások sorozata volt,aztán az asztalon fogadot a kis ablak hogy jaj az amd képernyőillesztő nem válaszolt.Csinálhattam,állítgathattam én akármit amit a fórumokon tanácsoltak.Friss winfos is lettmár a gépen.Azt felnyomtam apróra.Kaptam érte egy rtx 3080-at 1:1be.
Érdekes módon utána nem volt gondom.
Most egy inno 4090 zakatol.Csak az összehasonlításhoz.
Cyberpunk 2077 (Mert hát ez csak nem konzol port)
Natív 4K no dlss,no rtx,mert abból ugy amd gyenge
Minden más max
Igen,undervolting van.0,9v engedtem neki a képen látható órajelen,memóriához nem nyúltam.
Undervolting nélkül,csak a telesség igényével.
Csak azért hogy egy 4090-t is lehet etetni 280w-tal és még így is erősebb bárminél. -
Chiller
őstag
Na de várj akkor tehát azt mondod, hogy a furmark spike-nál kevesebbet spikeol game alatt? Ez nyilván igaz lehet, de akkor logikusan végiggondolva game alatt még kisebb lehet a max spike fesz radeon alatt, tehát még kevesebb a különbség a két gyártó között.
"mint például én is Valorant alatt, és ilyenkor 30% a VGA kihasználtságom"
Itt megint csak felmerül a kérdés, minek a 3000 eurós gép 30%-ra...Örülök ha környezetbarát módon használod, ne érts félre
Csak ha esport akkor (tudtommal) a többség vagy valami olcsó középkategóriás géppel nyomja (mert csak erre telik), vagy csúcsgépen minden alkatrészt maxra tolva csilliárd fps-el full lowon. -
himpike
aktív tag
"Persze jók a programok, minden jó... csak sok köcsög van..."
-
Nincsenek nagy különbségek.
Csak árban...ott viszont elég nagy.
De szerencsére még mindég választhat mindenki.
Az amd kicsit többet kajel az nv-n meg jó húzós az árcédula.
Valójában szerintem teljesitményben nincs egetverő különbség köztük.
Viszont 4090 árából pont beszereztem 3 radeont egy 24gb,egy 16gb,egy 8 gb. -
paljani
aktív tag
Mink mán’ elköszöntünk de spongyát rá!
Az optimumtech nvidia sponsored csatorna, amivel semmi gond nincsen, viszont ez megmagyarázza, hogy miért keresi az XTX-en “a csomót” és nem azért mert húha ranked esportos lenne…Az a helyzet, hogy mindenre találni példát és mindennek az ellenkezőjére is a játék(teljesítmény) világában. Főleg, hogy a stúdiókat hol a ződ’ hol a vörös támogatja az adott címet illetően. Az egyik raszterben, min fpsekben meg árban erős(ebb) a másik meg fogyasztásban meg RT-ben. Rohadtul nincsenek nagy különbségek, maximu felnagyítottak vagy szituációsak. Ennyi.
-
-
Raymond
titán
"Ránéztem most a videóra, és pontosan azt bizonyítja, amit írtam..."
Ez a video? [link] Hogyan?
@paljani
"Namost ezt a hiányt próbálja meg pár kolléga itt “átfordítani”, hogy minden terhelésen, minden körülmények között több száz Watt fogyasztásbeli kölönbség van a kártyák között."
Ilyet ki irt itt? -
PuMbA
titán
"Namost ezt a hiányt próbálja meg pár kolléga itt “átfordítani”, hogy minden terhelésen, minden körülmények között több száz Watt fogyasztásbeli kölönbség van a kártyák között. Ami meg nyilván nem így van."
Nem minden terhelésen és nem minden körülmények között, én átlagban állítottam vagy akartam állítani ezt, ami teljesen megállja a helyét, hiszen sokan esport játékokban 144 vagy 240fps-es cap-pal játszanak (amik cap nélkül 600fps-t hoznának), mint például én is Valorant alatt, és ilyenkor 30% a VGA kihasználtságom, azaz még a ventik se pörögnek fel. Erre kezdtétek el mondani, hogy nem életszerű, mikor a saját példámon látható, hogy az. Optimum tech is azért tesztelt így, mert ő egy esport játékos! Emellett a mai játékok kb. felében van 100W különbség nagy terhelés alatt is, azaz 4K Ultrán. Ezek a tények, de legyen nektek igazatok, ne offoljunk tovább és békében váljunk szét
-
paljani
aktív tag
Valójában az szúrta a szemét a jútubernek, hogy amíg bizonyos terhelések mellett (amik nem életszerűek szerintem se) a 4080 szépen visszaveszi a fogyasztást akár 70W-ig is, addig az XTX nem. Itt valóban lehet <200W különbség közöttük,, de ez bőven a gyártói specifikáció határain belül. Erre írtam, hogy nem skálázódik jól “lefele”.
Namost ezt a hiányt próbálja meg pár kolléga itt “átfordítani”, hogy minden terhelésen, minden körülmények között több száz Watt fogyasztásbeli kölönbség van a kártyák között. Ami meg nyilván nem így van.
-
Busterftw
nagyúr
"7900 XTX (355W)"
"Én a hivatalos (=gyártó által megadott) maximum fogyasztási adatokra hivatkozok"
Hat pedig ezt irtad.
Ehhez kepest a 7900XTX ezt boven tullepi. de jah vegig arrol volt szo.
A lenyeg azon van, hogy az RDNA3 teljesitenyehez kepest indokolatlanul sokat fogyaszt, mikozben elvileg az energiahatekonysagra mentek ra. -
PuMbA
titán
Itt a probléma ugye mindig az, hogy egy VGA sosincs 98%-ban kihasználva játékok alatt, hiába írja azt a felirat, mert az csak a parancsmotor kihasználtságát írja ki. Abu írta le ezt anno valamikor. Egy VGA valós kihasználtsága jó, ha 60-70%-ot eléri a játékok alatt és ehhez is jól optimalizált játék kell és emiatt tud ennyit spórolni az NVIDIA a fogyasztáson, mert kiváló az energiamenedzsmentje. Mondom ezt úgy, hogy AMD VGA-m van, egy 6700XT, de amit el kell ismerni, azt el kell
Az AMD az olcsósággal és a plusz VRAM-mal egyébként ezt jól kompenzálja.
paljani: "amik nem életszerűek szerintem se"
Mert nem mozogsz esport játékok közében. Én Valorantot játszik 144fps-re korlátozva, így a VGA-nak még a ventijei se pörögnek fel, mert 30%-on pörög csak. Életszerű a példa, mert sokak játszanak esport címekkel.
-
paljani
aktív tag
-
PuMbA
titán
A TechPowerUp a spike-okat FurMark alatt méri, ami olyan terhelést rak a kártyákra, mint egy játék se, így irreleváns ebben a diskurzusban. Nézd meg több TechPowerUp VGA tesztben a fogyasztás grafikont és láthatod, hogy a FurMark alatt teljesen máshogy viselkedik mindegyik VGA.
"Olyan helyzeteket generálnak, amivel kb senki nem találkozik real life."
Ezért nézd meg a második beszúrt videómat, ahol 4K magas grafikával tesztelnek és ott is 100W körüli a különbség az ott tesztelt játékok felében
-
Chiller
őstag
Úgy értem, ha a max spike 412W vs 334W, akkor az nem 200W különbség. És ez a max, mert az meg hogy normál game között átlagban 284W vs 320W, az remélem senkinek sem szúrja a szemét...
Ránéztem most a videóra, és pontosan azt bizonyítja, amit írtam...
1440p-ben futtatni OW2-t meg F1 22-et egy csúcs GPU-n, 3000+ eurós asztali gépen ? Esetleg LOW-on? Olyan helyzeteket generálnak, amivel kb senki nem találkozik real life. -
Raymond
titán
"YT-nak élből nem hiszek, ott csak "támogatott" tartalom van 99%-ban."
OK
"100-200 wattos különbség igencsak hihetetlen, mikor pld. ezek a max spikeok"
Es mi koze a max spike-oknak ahhoz amirol a videoban szo van? Tehat arrol hogy hogyan viselkedig a kartya olyan jatekok alatt ahol nem kell a plafonig tolni a TDP/TGP-t?
Nezd, lehet a homokba dugni a fejet, de ez a tema a megjelenes ota letezo problema es a tulajok azota varnak valami megoldasra vagy javitasra az AMD reszerol. A video arra mutat ra hogy meg mindig nem lett kezelve sehogy. Persze az is lehet hogy nem tudjak sehogy kezelni.
-
Chiller
őstag
YT-nak élből nem hiszek, ott csak "támogatott" tartalom van 99%-ban.
Értsd: egyértelműen reklám, direkt olyan beállításokat mutogatnak, ami megfelel a fizető cégnek. Biztos újat mondok, de ezek ebből élnek.Még a hivatalos szöveges-képes-diagramos revieweket is meg kell nézni az embernek már rendesen - de ott legalább össze lehet gyorsan hasonlítani őket feketén-fehéren. Nem 10 db 20-30 perces videóból összeollózni válogatni kideríteni mi az igazság. Kinek van erre ideje?
100-200 wattos különbség igencsak hihetetlen, mikor pld. ezek a max spikeok:
-
paljani
aktív tag
Szerintem vegyél vissza, én csúnyán írok DE NEM személyeskedek.
A last of us egy ótvaros konzolport (ezer helyen leírták), pont nem vonnék le semmiféle következtetést belőle, de ha valaki ezzel és csak ezzel (!) játszik a csúcskártyáján akkor vegye a 4080-at rá minimum 20%-al drágábban. Ilyen egyszerű.
(Van játék és felbontás ami alatt a XTX még a 4090-et is megveri, ettől akkor jobb lesz mint a 4090? Nagyon nem…) -
Szerény véleményem szerint nem az a kérdés, hogy az AMD tudna-e jobb kártyát gyártani a 4090-nél, hanem, hogy akar-e? Szerintem ők inkább egy másik szegmenst igyekeznek kiszolgálni ár-érték arányban jó kártyákkal, egy anyagilag érzékenyebb közösséget, mert valószínűleg rájöttek, hogy ez a réteg a szélesebb, ennek éri meg jobban gyártani és eladni. Az AMD fullhd kártyái azért nagyon jók lettek és manapság még az emberek többsége fullhd-n nyomja a pasziánszt.
-
PuMbA
titán
Látod ez a baj, hogy még most se nézel utána a dolgoknak, csak 1 percet megnéztél abból az 1 darab videóból már leírod a nagy konklúziódat, ami helytelen. Nem csak low grafikán van ez
Például a Last of Us Part 1 alatt 4K Ultra beállításokon is 100W-os fogyasztás előnnyel dolgozik az RTX4080, miközben még 10%-kal gyorsabb is: RX 7900 XTX vs RTX 4080: The Ultimate Comparison, de szemezz tovább ebben a videóban mert még találsz ilyeneket. Nem csak 50-60W a különbség.
-
paljani
aktív tag
Én a hivatalos (=gyártó által megadott) maximum fogyasztási adatokra hivatkozok, ilyen egyszerű. Minél raszter/raytracing intenzívebb egy adott cím, annál közelebb vannak/lesznek a kártyák ehhez (jövőben megjelenő játékokra ez hatványozotta. Igaz). Lehet az optimumtech-es csóka ezeréves cs:go 1440p low grafikán lemérte a fogyasztáskülönbséget és valóban nagyobb (értsd az rdna 3 lefele nem skálázódik jól) de nézd meg ugyanezt frissebb címekkel, 4K-ban: mindjárt 50-60 Wattra olvad a különbség (RDR2, CP 2077, Hogwarts legacy etc.). Ennyit erről, senki nem 1440p/low-ra vesz felsőkategóriás kártyákat.
Az RDNA 3 többet fogyaszt, ezért cserébe olcsóbb és/vagy nagyobb teljesítményt ad le. Ezt írtam és ezt továbbra is fenntartom.
-
PuMbA
titán
-
paljani
aktív tag
Jaj, roppant mód le van maradva az rdna 3 fogyasztásban. A zöldek “kettéhugyozzák” őket, mutatom: 7900 xt (315W) vs 4070ti (285W) ill. 7900 XTX (355W) vs 4080 (320W). 10% vagy az alatti a difi mind a kettő esetben. Mit is mondjak… húha… ég és föld… Ennél már csak az hányásabb érvelés, hogy “egyszer 15 éve volt gondom radeon driverrel ezért csak az nvidia”.
A kotta úgy néz ki, hogy vagy kapsz 10-15%-al nagyobb (raszter)teljesítményt azonos áron (7900xt vs 4070ti) vagy 20%-al olcsóbb árat nagyjából azonos teljesítményért (7900xtx vs. 4080). Meg sokkal-sokkal (sokkal!) több memóriát. Ez utóbbi fog a legtöbbet számítani hosszútávon. Raytracingre maradnak a zöldek, bár az új amdk is bőven jók (a prevgen nvidia tetejét hozzák) lájtosabb beállítások mellett, mert az még mindig megfektet mindent felskálázás nélkül 4K-ban. Lehet választani mindenkinek.
(Arról már nem is beszélek, hogy a legtöbb amd haternek valami komoly 3060-3070 szintű “rettenet” van a gépében, lef*snák a bokájukat ha csak megfoghatnának egy XTX-et..)
-
paprobert
őstag
"Zöldek folyamatosan az fps számok után rohannak (tipikus farokméregetéses stílus
), míg a pirosak - ha jól olvasom a topic-ot - rámentek a fogyasztás optimalizálásra, ami kevesebb fps-t jelent a sor végén."
Pontosítanék.
Az AMD azért nem hajtja a jelenleginél is jobban túl a kártyáit, mert azok nem gyorsulnának tőle számottevően.
Az NV pedig azért nem, mert nincs rá szüksége, elviszi a koronát így is.A piros "fogyasztás optimalizálás" egyébként pont nem látszódik sehol, ebben eléggé le van maradva az RDNA3. (perf/watt)
-
hahakocka
őstag
Igen kevesebbet 30-40W al? Ha a 7900xt-4070ti-7900xtx 4080 at nézzük. Ennyi előnye volt korábban AMD nek szintén azt senkit se érdekelt. Mert nem nagy érvényű előny. 50+ tápcsere se kell e különbségre. Undervoltolni meg lehet mindkettőt.
Podtibi : Végre igen teljesen egyetértek az FSR és a DLSS egyelőre marketing eszköz semmi más. Veszel egy vadiúj kártyát hogy az alsókategben bekapcsold és 720pről skálázz fel 2023 ban!!!!! Menő.
A másik hogy a DLSS3 nál minél nagyobb a difi a raszter és a DLSS3 al hozott FPS között annál rosszabb lesz a kép minősége. Ezért DLSS2 t szoktak helyette inkább sokan használni. Az se tökély egy natívhoz képest de annál az is jobb. Ezért tartanak a fake frames FSR3 tól is már sokan hacsak ki nem tudták javítani.
Dr. Akula: Nekem is volt NV-m s éppen Geforce 4 régen pl, meg 950m laptopban. Volt driver hibám 1-2 apró dolog de ezért most azt kell mondjam én is hogy akkor életem végéig rossz az Nvidia vagy mi? Ezt sose értettem. Már rég nem az az AMD legkésőbb a 2019 es adrenalin driverre váltással mint régen Ati korszakban. Legalábbis én nem tapasztaltam azóta se. Míg pl a Geforce drivere ugyanaz az őskövület, az AMD drivere sokak szerint modernebb, s bármit lehet állítani. -
Dr. Akula
félisten
Amíg Radeonom volt, mindig a jövőbemutató featurekre mentek rá, csak épp game nem volt ami kihasználja, közben meg olyan sz.r fps-eim voltak hogy inkább váltottam (vissza). Most meg se feature, se sebesség, RT-ben is csak loholnak az Nvidia után. (+DLSS, +frame generation.) A fogyasztás csökkentése jó dolog, csak nem mindegy mi fogyasztja el azt az áramot. Az S3 Trio mégkevesebbet fogyaszt, de mégkevesebbet is nyújt cserébe.
De annyira most a fogyasztásban se bajnokok.
#9hahakocka: Ez az egyetlen amit csinálni tudott a termékével, hogy beárazza reálisan. Ez azonban nem vívmány, hanem kényszerpálya. Ha jobbak lennének, ők is mernének nagyobbat álmodni, mint tették azt az Athlon64 X2 korszakban. És még ezt az eredményt is nagyban köszönhetik a bányászok okozta VGA hiánynak is, amikor nem volt Nvidia, és az ember már az AMD-re is ráfanyalodott, csak legyen már valami a régi helyett.
-
podtibi
senior tag
Nem írtam olyat hogy az eladások királya. Szimplán szerintem könnyebb lehet egy középkategóriát jobban kielégíteni és felépíteni, mintsem végül azon versenyezni hogy ki hozza ki a magasabb fps-t nagyobb fogyasztással. Az intel is megoldotta processzor terén, ha nem is videókártya, hogy piacilag fent maradjon bármi áron és legyen belőle profit. Az amd mért is versenyezzen mindazzal ami csak több pénzbe kerül? Ha könnyebb középen felülmúlni az nvidia-t, akkor ott kell felülmúlni. Az hogy miben lesz az amd jobb, engem aztán nem érdekel, de ettől még több értelme van ott megszorongatni az nvidia-t, ahol jobban meg lehet szorongatni.
Igen. Nekünk a legjobb kell, de nekik attól még mindig a profit számít és ahogy látom ez a "verseny" sem már a vevőről szól, hanem az eladóról. Ez az ami senkit nem izgat, ahogyan tapasztalom.
-
hahakocka
őstag
Közèpkategben sokszor AMD ásta a legjobb ár èrtèket. Most is alsó S közèpkategben 6000 és szèria. Legtöbb vram azonos erő jó àr pl 6700xt-6800;6900xt S ha jó lesz esetleg a 7700-7800 akkor ott is esèlyes. 7900xt jobb 10% al a 4070ti nèl 20 GB Vram van rajta S olcsóbb 50e el, 4080 vs XTX ugyanez majdnem . Egyedül jelenleg a4090 ahol Nv az úr de azt a Paksot nem sokan tudjàk megvenni 700e Ft èrt S mellè tàp ház a mèrete miatta 1.5 millânàl vagyunk . Rt Ben jobb az NV de pl amikor meglátom hogy az Nvidiás Cyberpunkban is csak 43fps hoz a 4090 a 4080 28 át a 7900xtx 22 T kiröhögöm az egèszet annyit effektben nem is ad hozzà.
-
Raysen623
addikt
Ennél sokkal fontosabb szerintem a gyártók megközelítése a fejlesztéseket tekintve. Zöldek folyamatosan az fps számok után rohannak (tipikus farokméregetéses stílus
), míg a pirosak - ha jól olvasom a topic-ot - rámentek a fogyasztás optimalizálásra, ami kevesebb fps-t jelent a sor végén. Ha ezt elengednék, akkor nyílvánvalóan tudnának akkora GPU-t gyártani hogy felvegyék a kesztyűt. De biztosan ez a jó út hosszútávon?
Alulfeszelést meg engedjük el, mert átlag Jóska nem csinálja és egyébként is mindkét gyártó esetén megoldható.
-
Dr. Akula
félisten
Az igaz hogy könnyebb ott uralkodnia ahol tud, mint ahol nem. Vakok közt félszemű a király.
Sajnos már csak kontroll szerepük van (úgy a 9800pro óta), nem engedik elszállni az Nvidia árait túlságosan.
Ha az AMD az eladások királya, akkor hogyhogy nincs pénze fejleszteni hogy jobb legyen mint a konkurrencia? Csak nem azért mert egyáltalán nincs így, sőt fordítva van? Nem létező bevételből nem jut fejlesztésre se.
Nekünk meg aztán hótmindegy hogy kinek mennyi profitja van, nekünk csak az a fontos hogy a pénzünkért a legjobbat kapjuk.
-
Chiller
őstag
Nem látom az évszámot.
-
podtibi
senior tag
A trón ha úgy vesszük a pénzen múlik és nem csak a vevőn, ha pedig az amd-nek ezen a szegmensen könnyebb uralkodni, akkor hülye lenne nem élni a lehetőséggel. Ugyebár a legjobb videókártya nem csak az lehet amiből kihozod a mindennél jobbat, hanem az is amiből kihozod a legjobb árat, ami jóval több profitot termelhet mindennél.
Aztán az is ott van hogy az amd-nek nem szükséges mindennél jobb kártyákat csinálnia, ha az nvidia-ról lelesheti hogy hogyan is uraljon egy másik szegmenset. Majd kiderül hogy melyik kategória hozza a legtöbb pénzt.
-
Dr. Akula
félisten
A cím alapján azt hittem valami nextgent pattintott az AMD hogy átvegye a trónt az Nvidiától, erre csak valami középkategóriás valami...
-
Raymond
titán
"Scott Herkelman, az AMD grafikus üzletágának alelnöke...megszellőztette, hogy a következő héten esedékes Gamescom alkalmával új termékeket jelentenek majd be."
Ha Scott Herkelman mondta/irta akkor arrol is ketsegeim vannak hogy lesz egyaltalan Gamescom -
válasz
FragMaster #1 üzenetére
Nemsokára jön a hírek szerint.
-
FragMaster
addikt
FSR3?
Új hozzászólás Aktív témák
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Lopakodva befutott a Radeon RX 9060
- Konkrét moderációval kapcsolatos kérdések
- Revolut
- Sorozatok
- Mafia: The Old Country teszt
- Magisk
- Samsung Galaxy A56 - megbízható középszerűség
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- További aktív témák...
- HP Victus 15-fb1002AX - 15,6"FHD IPS - Ryzen 5 7535HS - 8GB - 512GB SSD - RTX 2050 - Win11
- HIBÁTLAN iPhone 13 Pro 128GB Alphine Green -1 ÉV GARANCIA - Kártyafüggetlen, MS3024, 91% Akkumulátor
- Vállalom telefonok,tabletek javítását ,(szoftveres hibát is,frp lock-ot is)márkától fügetlenűl
- BESZÁMÍTÁS! ASUS TUF A620M R5 7600X 32GB DDR5 1TB SSD RX 6700 XT 12GB ZALMAN I3 NEO A-Data 750W
- Bomba ár! Dell XPS 15 9550 - i7-HQ I 16GB I 512SSD I 15,6" FHD I M1200 4GB I Cam I W10 I Gari!
Állásajánlatok
Cég: FOTC
Város: Budapest