Új hozzászólás Aktív témák
-
HSM
félisten
válasz
Busterftw
#46316
üzenetére
Arra akartam utalni, hogy szvsz Abu a driver alatt a drivert érthette abban az értelemben, ami működteti a videókártyát, míg az általad említett kontextusban a driver a szoftvercsomag, ami áll magából a driverből és annak telepítőjéből.
Az általad hivatkozott anyagból is ez derül ki, a probléma a telepítési folyamat során alakulhat ki. Egyébként érdekesség, hogy elvileg akkor csinálja, ha egyidejűleg megy a windows update is. Jó kis összeakadás lehet...
Ezek egyébként a legaljasabb bugok, amik csak bizonyos csillag-együttállásokkor jönnek elő.... QA legyen a talpán, aki az ilyenek megfogja.Nyilván a fix ebben az esetben, hogy kiadják a drivert újra egy javított telepítővel.
-
HSM
félisten
válasz
#90868690
#46301
üzenetére
"Mert csak a fele cpu megy, ezek szerint"
Ez így totál félrevezető...
Ha ennek a fele megy csak, akkor a 13900K-nak is, különben utóbbi felmosná vele a padlót, ami láthatólag nem történik meg... A productivity tesztekben is egyértelműen látszik a 7700X/7950X-hez hasonlítva, hogy mennek a magok, és ott is fele a fogyasztás a 13900K-hoz képest.Egyébként ez a tervezett működés mindkét CPU-n, hogy az aktív feladat/játék lehetőleg az arra optimális magokon fusson, a háttérfeladatok pedig a maradék magokon.
"8mag dolgozik /8mag "parkol"
Ezért érdemes megvárni a 8-magos 7800X3D-t azoknak, akik csak játékra keresnek erős CPU-t. A legtöbb mai játék bőségesen elvan 8 maggal is. -
-
HSM
félisten
170W-ról 120W-ra csökkent a TDP a 7950-hez képest, illetve mások is azt mérték, hogy a 7950X3D igen takarékos lett, míg a 13900K elég lelkesen veszi magához az energiát...
Pl. [link] , ~500W helyett 280W Blender-t mértek a két CPU között. Hasonló arány lett a linkelt TPU tesztben is. 
Saját tapasztalatom, hogy már az 5600-as Ryzen is igen takarékos tudott lenni, ami a közvetlen előd és elég hasonló sok szempontból. Átmenetileg nem volt venti a toronyhűtőmön, visszavettem 50W limitre, hát elég emberes tempót villantott úgy is...
De pl. Witcher3 alatt is 350W körül mutat a fogyasztásmérő egy alulfeszelt+tuningolt 6800XT-vel monitor nélkül.
-
HSM
félisten
válasz
GeryFlash
#46270
üzenetére
Fele fogyasztásból mindezt [link] .
Ez azért nem piskóta, ráadásul az ütemező tévedésének is sokkal kisebb ára van a 7950X3D-n. Ha elrontja, csak szimplán nagyon gyors lesz. 
Szerintem egy nagyon jó productivity+gaming CPU lett.
Akinek meg csak gamingre kell, hamarosan jön a 7800X3D, annál már az ütemező sem fog tudni tévedni. 
-
HSM
félisten
válasz
Petykemano
#46259
üzenetére
A dia szerzőjének oldaláról vetül fel a kérdés, miért éppen ezeket választotta ki, és miért emelte ki a csiplet kialakítást illetve a 2234-est és 7702-est?
Abból a szempontból értem, hogy ezek a legkisebb TCO2, és legnagyobb teljesítmény, de így úgy tűnik, mintha ezek minden további nélkül összehasonlíthatóak lennének...
Nem voltam ott az előadáson, így a továbbiakat passzolom. -
HSM
félisten
válasz
Petykemano
#46254
üzenetére
Köszönöm!

Megvannak a válaszaim... Tartottam tőle, hogy ezt fogom látni. Kicsit az a benyomásom, hogy a konklúzióhoz válogatták a résztvevőket...
Lássuk a TCO2 bajnokot, egy négymagos CoffeeLake.
Igen, egy 71W-os, ehhez képest csigalassú 14nm+++++ CPU [link] 2019-et reprezentálva.
Ezzel persze nincs is az égvilágon semmi gond, a gond azzal van, hogy miért nem szerepel a konkurenciától bármi olyan CPU, ami ennek akár távolról is ellenfele lenne? Merthogy egy 128 sávos PCIE hubos 8 csatornás kőkemény szerver CPU, amiket melléraktak Epyc-eket többfélét is nyilvánvalóan egészen más karbonlábnyommal fog dolgozni, mint egy notebookokból szabadult mini-CPU, 16 sávos IO-val, 2 memória csatornával.
Egy reális ellenfél 2019-ből, ha már chiplet, egy 3900X/3950X lett volna, ami sajnos nem szerver, de ha már erőltetjük a megközelítést, akkor egy reálisabb ellenfél, az máris árnyaltabb képet mutat [link] , és ez a 3900X nagyon nem hatékony működésre volt ám optimalizálva....
Az is jól látszik, hogyha már méltó ellenfél, a 6348-as 'valódi szerver' felszereltségű Xeon hiába monolitikus, lényegesen nagyobb a lábnyoma, mint bármelyik chipletes megoldásnak.Én azt gondolom, hogy ebből az a konklúzió, hogy ezek a rengeteg PCIE sávos és memória csatornás monstrumok bizonyos metrikák szerint kevésbé hatékonyak lehetnek, mint egy nagyon minimalista IO-jú megoldás. Viszont nem véletlenül használnak sok területen ilyeneket, ha kell az IO is, akkor nem tudsz mit tenni. De mindenképpen hasznos, ha odafigyelnek a cégek a nagy adatparkok teljes környezeti lábnyomára, és ebbe az irányba is fejlődnek majd a cégek.

A chiplet megközelítés éppen emiatt "környezetbarát", alacsony ráfordítással akár többféle IO kiépítéssel is körítheted ugyanazt a CPU magot, ha van rá piaci igény. Az említett 3900X-ben ugyanazok a CCD-k, mint a szerver EPYC-ekben, csak kevesebb IO-t tartalmazó IOD-vel. Sőt, még a 15W-os notebook CPU-k alapja is ugyanaz a fabric, csak integrálva. Ez azért óriási megtakarítás sok szempontból a monolitikushoz képest, minden téren.
Ehhez képest minimális többlet fogyasztás csak az ár a fabric részéről, bár tény, hogy egy rengeteg CCD-s kiépítésnél a fabric már nagyságrendileg hasonlóan is fogyaszthat, mint maga a CPU, lásd pl. [link] .
-
HSM
félisten
válasz
Busterftw
#46251
üzenetére
Logisztika... Rendkívül apró és könnyű dolgokról beszélünk, amiknek a szállítása így énszerintem eléggé környezetbarát. Ezzel szemben az előállításuk rendkívül energia és nyersanyag igényes legjobb tudomásom szerint. Így naívan azt gondolnám, pl. az AMD megközelítése, hogy igen magas kihozatallal gyárt picike CCD-ket friss gyártástechnológián és hozzá egy már nagyon erősen bejáratott technológián szintén magas kihozatallal IOD-t, nekem éppen rendkívül környezetbarátnak és költséghatékonynak tűnik.
Ezért is lennék kíváncsi, hogyan jutottak erre a konklúzióra.
-
HSM
félisten
válasz
Petykemano
#46249
üzenetére
A csipletes mitől lett rosszabb a monolitikusnál? Én éppen fordítva gondolnám, a monolitikus már a magasabb selejtarány miatt problémákba kellene ütközzön nagyobb csipeknél.
Persze, nyilván van egy sweet spot, 128 mindenképpen magot pazarlóbb összekötni, szinkronban tartani, mint mondjuk 8-at.
-
HSM
félisten
válasz
Petykemano
#46196
üzenetére
"Ha AMD kártyával tapasztalunk valamilyen problémát az az AMD driver hibája."
Van egy önbeteljesítő jóslat jellege szerintem a dolognak. De ezt én is megfigyeltem.
Többször találkoztam olyannal, hogy pl. büszke, de vélhetőeg instabil CPU tuning/undervolt után az illető megjelent az AMD VGA topikban, hogy összedőlt a drivert, meg fekete kép, stb, szinte evidenciának véve, hogy a driverrel van a baj... Nv-nél pont fordítva van, ha a driver beteg, akkor is másban keresik a hibát.
-
HSM
félisten
válasz
huskydog17
#46188
üzenetére
A 420$-os RTX3080 azért durván jó vétel!
Azért végigondolva vicces így a product stack, RTX3060Ti-399$, RTX3060Ti+20$=RTX3080, RTX3080+180$=RTX3070.
-
HSM
félisten
válasz
Busterftw
#46182
üzenetére
"csucsot csuccsal illik osszehasonlitani"
Szerintem azonos árkategóriát van értelme összehasonlítani, márpedig a 7900XTX a RTX4080 árán van, egészen pontosan többnyire picivel alatta. A 4090 lényegesen drágább ezeknél."Illetve mi ertelme beerni az Nvidiat, ha ilyen orbitalis bugok vannak jatekokban?"
Nincsenek orbitális bugok. BFV-ben tapasztaltam a 6800XT-vel azt az RT-s bugot, ami eléggé hasonlónak tűnik ehhez a másikhoz. Tehát igen, van egy vagy két bug, amiről tudunk. Ezen kívül nálam teljesen rendben van a 6800XT."...hogy kb mindenki Radeonon fejleszt."
A kulcsszó: fejleszt. Én tesztelésről beszéltem, ha úgy tetszik QA [link] . -
HSM
félisten
Jogos észrevétel, ez is arra való.
Azt most nem tudom neked megmondani pontosan, miért volt megjelenésekor előrébb az AMD-s verzió, ennyire nem ismerem őket behatóan. De vélhetőleg nem véletlen lelkendezett több fejlesztő, hogy végre jobban belelátnak a működésbe.
#46178 Busterftw : Legfrisebb információim szerint Nv-n az RT fut csak lényegesen gyorsabban, RT nélkül pl. a 7900XTX még le is lépi a 4080-at. Ami annyira nem is meglepő, hiszen az Nv a GPU-ba jelentősen több ezt gyorsító részegységet pakolt.
#46180 FLATRONW : A piaci részesedés épp nekik kedvez... Hiszen, ha játékfejlesztő vagy, elsősorban a vásárlóbázisodnak megfelelő gépekkel fogsz tesztelni kiadás előtt, tehát PC-re Nv-n...
-
HSM
félisten
válasz
Busterftw
#46175
üzenetére
Megint képzavar...

Az, hogy a Radeonon profilozod a kódot, és a Radeonon megtalálod a teljesítmény szempontjából problémás részeket, az utána jó eséllyel Nv-n is jobban futó, problémamentesebb kódot fog adni. Ha ez nem lenne, keresgélhetné a fejlesztő Nv-n vakon, miért fut lassan a kódja...
Ha jól emlékszem, az egyik UE fejlesztő örült nagyon twitteren, hogy egyből találtak a profilozóval egy kódrészletet a motorban, ami feleslegesen zabált erőforrást, és amiről addig senki nem tudott, mert nem volt eszköz, amivel láthatóvá vált volna.
Az, hogy bizonyos játékokkal előfordulnak bugok, az nem ezzel áll összefüggésben. -
HSM
félisten
válasz
Busterftw
#46172
üzenetére
"az AMD elvileg csinalt egy ubertechnika debuggert es profilozot"
Ami abban segít, hogy jobb kód szülessen, ami utána akármilyen hardveren jobban és problémamentesebben fog futni.
Tehát arról van szó, hogy ez ismét egy olyan AMD fejlesztés, ami összességében minden gamer számára jó.
#46173 PuMbA: Ha meggyőzött volna kellően a 3060, akkor adtam volna el a 6800XT-t is, és jött volna helyette egy 3080 vagy 3090. Mondjuk a 3090 helyett már inkább kicsit többért egy 7900XT, azt még lehet idővel meg is lépem.
Persze, vonzó opció lett volna az is, ha az 'olcsó' 3060 a 'szuper' DLSS-el hozza a 6800XT natív RT tempóját, de messze volt a DLSS-es képminőség a számomra elfogadhatótól.
-
HSM
félisten
válasz
Raymond
#46167
üzenetére
A hozzászólásból nekem az is átjött, hogy az opensource és a jó debugger felesleges, hiszen ugyanúgy maradhatnak bugok. Ezt szerettem volna tisztázni, hogy ez nem így működik.
#46168 PuMbA : A jó debugger az Nv hardvereken is segít jobban futó kódot alkotni... Az open source pedig azért jó, mert kis csúsztatással nem fog a fejlesztő a tudta nélkül pl. világrekorder részletességű betontömböt számolni a VGA-n a feketedoboz middleware-el.
Nv-n nekem amúgy nem volt játékban grafikai bugom, AMD-n is csak az az egy, amit említettem. Viszont az Nv másfélszer akkora méretű drivere volt, hogy sikertelenül installált, és a control centert is sikerült párszor összezavarjam. Az experience-t meg fel sem raktam, nem fogok nekik csinálni accountot is. Ezek meg AMD-n működtek jobban és sokkal kényelmesebben.
#46170 PuMbA: Én a gyakorlatban is a Radeont tartottam meg, nem az RTX-et...
-
HSM
félisten
Összekeversz dolgokat...
Az open source nem azért jó, hogy ne legyenek bugok, hanem hogy a fejlesztő lássa, mi történik, jól tudjon optimalizálni, és jól tudja beépíteni a szoftverbe. A debugger meg a problémák megtalálásában segít, de a megléte nem elég a csodához, ahhoz kell a fejlesztő is, aki használja a problémák felderítésére. -
HSM
félisten
válasz
huskydog17
#46163
üzenetére
Érdekesség, hogy egy első ránézésre rendkívül hasonló jelenséggel találkoztam BFV közben is a 6800XT-n [link] . Én ezért használok most is 21.5.1 drivert, mert az újabbakkal nem jó az RT BFV alatt, nem mennek a tükröződések és bizonyos részek ilyen feltűnően fehérek lesznek és a ram igény is megnőtt jelentősen új driverrel. Persze, reportoltam is úgy 1-2 hónapja, de azóta nem jött új driver, vagy visszajelzés.
Ez egyébként valóban jogos negatívum, ezekre jobban kellene figyelni.
-
HSM
félisten
válasz
Petykemano
#46148
üzenetére
"És csak a piaci penetráció vs extra munka kérdéskörön bukhat el"
Ha okosan csinálják, szerintem nem túl nagy extra munka, hiszen kész az API, és a konzolokon is elérhető a feature. Főleg, ha később esetleg szabvány is lesz belőle, ami nem elképzelhetetlen, mert mások is látják azért a DXR jelenlegi korlátait, köztük az nv is, azért hozták a 4000-es széria fejlesztéseit a fixfunkciós blokkba [link] .#46149 Busterftw : Nem tudok róla, hogy lenne olyan játék, ami az AMD saját RT API-ját használná.
#46150 b. : A helyzet, hogy a DXR és az RTX-ek eléggé egymásra lettek szabva... Lásd DXR1.0 - Turing, DXR1.1 - Ampere. Így könnyű. Az AMD más megoldást képzelt erre el a konzolokkal és RDNA2-vel kezdődően. A nagy költői kérdés, hogy annak támogatása miért nem került bele a PC-s DXR-be, főleg, hogy a konzolok is tudják?

Egyébként már a DXR rendszer megjelenésekor többen panaszkodtak a rendszer black-box jellegére és bizonyos pontokon a programozhatóság, rugalmasság hiányára. Szintén Abu85 linkelte nemrég [link] , teljes mértékben egyetértek vele szoftverfejlesztési szemszögből.#46156 paprobert : "De hát mindhárom állítás igaz. ... A kártyákban nincs elég számítási kapacitás ... rövid távon."
Ezzel a pontoddal nem értek egyet. Jó példa erre a mostani RDNA2 és RDNA3 kártyák (Navi21, 31). Elég komoly RT-re képesek még úgy is, hogy rá vannak kényszerítve a korlátozott DXR megvalósításra.
Természetesen a fixfunkciós hardver + rá szabott, a konkurencia erősségét nem támogató API mellett nyilvánvalóan az RTX-es megvalósítás tűnik szükségesnek és jobbnak. De ne csak a chartokat nézzük, hanem a tágabb kontextust is, és máris nem lesz ez olyan magától értetődő.
-
HSM
félisten
válasz
Petykemano
#46146
üzenetére
Architektúrálisan azért itt lehetnek szűk keresztmetszetek.
Pl. hogyan kommunikál a shader a fixfunkciós metszésvizsgálóval? Egyáltalán nem ugyanaz, ha ezek egy komplett blokk, mintha a compute shaderrel kell intenzíven együttműködni. Az már csak hab a tortán, hogy az RDNA-ban több és potenciálisabban optimálisabban kihasználható cache van.Én erre számítok, hogy DXR lesz, és nem fog olyan jól futni, mint az AMD-specifikus kód. Nem is kifejezetten az L2 miatt. De ez mind csak találgatás az elérhető információ-motszákból.

-
HSM
félisten
Ezt én sem értem egyébként, miért írta. Illetve saját tapasztalatból is mondhatom, hogy ugyanaz a játék, mint a képek, nekem szó szerint bántja a szemem az élesség hiánya, nem esik jól nézni.
#46143 Busterftw: Ahhoz képest értettem, hogy a 3060 WQHD-ban pl. 9FPS Portal RTX-ben, míg a 6800XT csak 2, és hogy ez mennyire reális erőviszony egy átlagos, szép RT-jű játékban.
Mit jelent... 3060-ason ugyanabban a gépben kaptam a tesztelt erdei jelentnél FHD-n nagyjából 20FPS-t TAA-val, Quality DLSS-el és jóindulattal 30 körül. A 6800XT-n pici finomhangolással (2.5Ghz GPU, kb. 100Mhz OC kis alulfesszel) TAA FHD szalad 30-35-el, régi driverrel, újabbakkal gyorsabb ennél picivel. Viszonyításként a 6800XT WQHD-n is 25 FPS körül adott ugyanott TAA-val.
Nem pontos mérések idő hiányában, csak amolyan gyors erőfelmérésnek szántam saját szórakoztatásomra, melyiket tartsam meg, no, meg kipróbálni a DLSS2-t.
A nyerő kombináció nálam egyébként FHD lett TAA-val a 6800XT-n, fix 30FPS korláttal, így ugyanis nincs az RT miatti extra input lag és darabosság, és vajsimán fut fixen ennyivel, nyilván amennyire 30 FPS vajsima lehet.
Kicsit sajnálom, hogy így marad némi kihasználatlan hely a WQHD monitoromon, de kárpótol a gyönyörű képi világ.
Amúgy ez a csatorna töltött fel szuper összehasonlító videókat. 1440P-n így megy a 3080 [link] , így a 6800XT: [link] és így a 3060 [link] . Annyi lábjegyzet, hogy a 3080-on minden RT ment, a másik kettőn csak az RT-GI. Illetve én is minden RT-t bekapcsolva teszteltem. Szubjektíven ez nálam a 6800XT-nek kedvezett a 3060-al szemben videó benyomásához képest.
#46144 gV: Nem vitatom, én is szívesen kipróbáltam volna, de ~2 FPS-el nem opció.
-
HSM
félisten
"Jok az uj radeonok,az arazasuk szar."
Nekem pont az árazással van a kisebb bajom, nagyobb, hogy ismét sikerült félkész driverrel megjelenni. Így pl. azonnal kukák a multimonitor és videólejátszós magas fogyasztásos mérések, mert még folyamatban van a rendberakásuk...
#46140 Petykemano : "az Nvidia behozta a lemaradását az L2$ méretének megnövelésével"
Abu85 a találgatósban elég szépen levezette, az L2 miért nem egészen ugyanaz: [link] . Illetve jóval kisebb mérettel is rendelkeznek. A 7900-asokban L2-nek van 6MB, IC-nek 80 vagy 96MB, ehhez képest a 4090-ben 72MB L2 van, a 4080-ban már csak 64MB, a 4070Ti-ben pedig 48MB."Ez alapján nagyjából olyan erősorrendnek kéne kialakulnia kb, mint RT mód nélkül, nem?"
Szerintem nem szükségszerűen. Hiszen a Radeon felépítése optimalizálva van erre a működésre, hogy compute shaderen fut a bejárás, és fixfunkciós a metszéspont vizsgálat (ha jól emlékszem a részletekre), míg az RTX-eken vélhetőleg az optimális működés módja, ha a fixfunkciós rész van mindkét lépésre felhasználva.
A másik probléma, hogyan hajtod meg így az RTX-et? A sima DXR nem tud ilyet, azt nem tudom, van-e hasonló tudású saját API-juk."Miért gondolod, ... fognak még foglalkozni azzal is, ... DXR irányt is implementálják"
Az eladások miatt. A jelenlegi piaci arányok szerint lényegesen több RTX kártya van, mint RT-képes Radeon, így kelleni fog valami megoldás, ami azokon is működőképes. Persze, lehet opció az is, hogy RT csak Radeonon, de azt kevéssé tartom reálisnak, mint egy alternatív, pazarlóbb, de szabványos megvalósítást az egyéb termékekre. -
HSM
félisten
válasz
gejala
#46134
üzenetére
Én a 2.4.x-eset próbáltam, ami a Witcher 3 next-gen 4.0 verzióban volt.
Sajnos abban a címben nekem nem úgy tűnik, hogy érdemben javítana a 2.5.1... [link]
A ghostinggal nem volt problémám, mással igen, itt részletesen beszámoltam róla: [link] .#46135 Busterftw : Idő hiányában nem mentem részletesen bele, melyik RT megoldás pontosan hogyan működik, de pl. a Witcher 3 teljes RT-módja nekem elég komplett/meggyőző (korrekt tükröződések, megvilágítás, árnyékok), és teljesen rendben van rajta az RDNA2 teljesítménye is, saját tapasztalat alapján körbefutja RT-vel pl. a 3060-at.
Arra célzok, mennyi létjogosultsága van így csinálni pl. egy játékban, amikor máshogy is meggyőzőnek tűnő eredményeket lehet felmutatni, ami a Radeon kártyákon is jól fut? Nem tudom, csak felvetés.
#46136 Petykemano : "a programozható eljárás abban segít, hogy ne legyen olyan nagy VRAM igénye az eljárásnak"
Ami miatt hatékonyabban gyorsítótárazható is lesz egyből a BVH struktúra."Ebből ugyanúgy profitálhat majd AMD és NVidia kártya is."
Szerintem nem. Mivel Nv-n egyből ugrik a kötött fixfunkciós egységek használhatósága ekkor. Tehát ott vagy az eredeti nagy adatstruktúrával dolgozol a fixfunkciós egységekkel és az eredeti DXR-el, vagy kellene valami alternatív API, ami máshogy használja a hardvert, feltéve, hogy ez egyáltalán lehetséges, és kéne support a játék oldaláról is mindehhez.
Én arra számítok, az AMD mód jól fog futni, míg az Nv-re jönni fog egy hagyományos DXR alapú mód, ami meg megy, ahogy bírja. Csodára nem számítok én sem, de nem tartom elképzelhetetlennek, hogy pont fordított legyen az erősorrend, mint amit megszoktunk.
-
HSM
félisten
Az RX 5700-ról már évekkel ezelőtt is leírtam, hogy én RTX2060 Super-t vennék helyette, és nem egészen értem, hogy gondolták azon az áron RT nélkül [link] .
"A portal az a jaték ami arra világít rá ha ki lenne használva a hardver akkor mit tudna az Ada mennyire lehetne megterhelni."
Mi támasztja alá, hogy ez így van (a hardver képességeit mutatja be) és nem arról van szó, hogy mesterségesen limitekbe futtatják a konkurens hardvereket?
Talán még emlékszel erre: "This model may well be the most complex representation of a concrete traffic barrier ever used in any video game, movie, or any other computer graphics-related enterprise." [link]
Nem állítom, hogy ez ismétlődött meg, csupán azt szeretném felvetni, hogy a látottakból messzemenő következtetések levonása igen mély analízist kívánna meg, ami szerintem mindkettőnk témába vágó kompetenciáját messze meghaladja.#46129 gainwardgs : Érdekes lesz a Snowdrop2 is az AMD RT megoldásával.
[link] -
HSM
félisten
"4080-nak árának sajnos pont az AMD árazása miatt van alapja."
A 4080 előbb jött ki, mint a 7900-as versenytársak...
Az Nv jelölte ki az irányt árakban, az AMD 'csak' beállt a sorba."Portal RTX-ni"
Jópofa techdemó lett. De biztos vagyok benne, hogy a Radeonok programozható bejárását kihasználva produkálni lehetne a fordítottját is, ahol az RTX-eket látnánk izzadni.
Abu85 az AMD találgatósban elég jól leírta pár napja, mi a baj ezzel a megközelítéssel, ami a Portal-t lehetővé tette: [link] [link] ."DLSS"
2023-ban tolhatod kamu dupla FPS-el, vagy homályos képpel. Próbáltam, kihagynám.
#46123 Raymond: Mi baj van a reffel? Ok, gyárilag kicsit túlhűt, ~1750rpm ~60 fokkal [link] , de szerintem a minőség is rendben van, és a méretezés is. Igényesebb, mint néhány 4070Ti... Ha meg tuning kell, vagy szélsőségesen halk működés, akkor remélhetőleg nem azon a 70-100€-n fog múlni, hogy vegyen az ember egy TUF-ot vagy Nitro-t [link] .
-
HSM
félisten
Én inkább venném a 7900XT-t, mint pl. használt 3090-et nem sokkal alacsonyabb összegért. Kicsit lehetne olcsóbb, de a mostani kínálatban én egész jó ajánlatnak találom. Ellenben a 12GB-al elrondított 4070Ti-al vagy a tudásához képest egekbe árazott 4080-al...
Nyilván nem lesz olyan erős ár/teljesítményben, mint a készletkisöprős áron adott elődje, de legalább egy komplett csomagot kapsz a mostanság divatos árazáshoz képest egész vállalható összegért. -
HSM
félisten
válasz
Raymond
#46116
üzenetére
Szerintem egész jó vétel 900€ körül a 7900XT is, illetve az előző generáció is, ha még valaki kifogott akciósan 650€-ért 6800XT-t és annyira nem kell neki durva RT tempó.
A 6700XT-el az lehet a baj, hogy RT-hez már eléggé el tud fogyni jópár címben, a 6800XT-vel viszont az is opció.
4070Ti nagyon szépen néz ki papíron, de ennyi pénzért szvsz ne legyen már ennyire kicentizve egy kártya VRAM-ja 900€-ért...

-
HSM
félisten
"írta aztán HU, mielőtt elkezdődne a zöld gyíkemberek üldözése"
Olvastam. Illetve be is linkeltem időbélyeggel a videót az említett részen, ahol el is mondja részletesen...
Nem a gyíkemberek, hanem az esetleges irreállisan magas FPS-es beszámolók kiszűrése végett említettem. -
HSM
félisten
válasz
Yutani
#46100
üzenetére
A Hardware Unboxed-ék is mást mértek, ott sem vészes a Radeonok teljesítménye.
Az egyik teszt helyszínen a 3080 elég csúnyán padlót is fogott az elfogyó 10GB VRAM-ja okán... [link]
A 8GB-os modellek (3070, 3070Ti, 3060Ti) elég nagy bajban voltak már 1080P-n is. Külön érdekes, hogy a 8GB-os 6650XT jobban bírta a strapát.Az is rendkívül érdekes, hogy a végén mesél arról, hogy a 4000-es RTX-eken magától bekapcsolódott a "Frame Generation" (DLSS3), mégpedig úgy, hogy kiszürkítve maradt a menüben [link] !
-
HSM
félisten
válasz
Dtomka
#46072
üzenetére
"Manapság a tápgyártók miért készítenek 800-1200w -os tápot ha nem léteznének olyan perifériák melyeknek kell az "energia"."
Létezik. Pl. CPU elmehet 350W-ig: "... a Core i9-12900KS-sel ellentétben valóban lesz értelme, ... hogy akár 15 százaléknyi plusz performansz is nyerhető így, ... ebben a módban a maximális fogyasztás ténylegesen 350 watt környékére ugrik ..." [link] .
VGA-ból is léteznek 400W feletti étvágyúak, pl. RTX4090-nek bő 400W, OC 7900XTX-nek akár 450W, 3090Ti-nak 500W felett is lehet a fogyasztása. Ezekhez már alsó hangon sem árt egy minőségi 750W-os táp, ha esetleg még rákötnél ezt-azt, vagy még tuningolnád ezeket, akkor máris értelmet nyer egy 850-1000W táp is.#46073 b.: "Vannak félelmeim."
Sajnos nekem is. Épp amit írsz, pl. tanulnak vele.
Elég káros, amikor óriási meggyőződéssel állít butaságokat valós állítások közé keverve, ráadásul "emberi nyelvezeten". Az esetleges rossz szándékú manipulációk lehetőségét nem is említve....
Persze, ugyanez a veszély fennáll a hagyományos internet/keresők esetében is, de sokkal jobban ellenőrizhető a forrás, mint az Ai-chat esetén. -
HSM
félisten
válasz
Csupingo
#46010
üzenetére
Játéktól/OC-tól nem láttunk leégett VRM-eket vagy megsült memóriákat? Dehogynem...

Nem védeni akarom a bányászokat, ott is van, aki nem korrekt, de gamerből is. Tanulság: megbízható, korrekt eladótól érdemes vásárolni, minőségi, garis kártyát, ami bírja a hajtást. Én pl. bányásztól vettem az RX580 Nitro-m jópár éve, semmi baja nem volt, évekig használtam utána. Persze, korrekt volt, mondta, hogy nincs meg az eredeti BIOS-a, csak az erősen alulfeszelt bányához átírt, így tölöttem le egyet netről. Soha semmi bajom nem volt vele. B-tervnek meg volt még rajta sok év gari. Viszont gamertől nyúltam már bele széthajtott VGA-ba.... -
HSM
félisten
válasz
bozont
#46007
üzenetére
"Mondjuk nem lepődtem meg, valami ilyesmire számítottam (bányászkártyák voltak)"
Ha már behivatkozod, szerintem úgy lenne korrekt, ha a szaki véleményét emelted volna ki, ami pedig a szakszerűtlen tárolás volt, nem a bányászat.
#46008 Gyuri27: "Azt se gondolom, hogy a bânyászat jót tesz a vgaknal."
Ahogy a játék sem.
Főleg, ha kifogod valami hozzánemértő amatőr OC-bajnok szellőzésnélküli csupaRGB házában ócska tápról szénnétuningolt kártyáját... Ugyanez létezik bányában is persze.
A legjobbat az teszi a kártyának egyébként, ha ki sem veszed a dobozából.
-
HSM
félisten
válasz
Petykemano
#45961
üzenetére
"akkor tessék nem ennyire spórolni a waferral"
Első olvasatra maximálisan egyetértettem ezzel a gondolatoddal. Aztán jobban belegondolva, hogy vajon miért nem ezt lépték, az jutott eszembe, hogy ha ezt a GPU-t tényleg nagy tömegekben akarják adni, akkor azért a gyártókapacitások végessége miatt lehet, hogy mégis érdemes lehet józan keretek között spórolni a mérettel. Hiába nem lenne lényegesen drágább, ha mondjuk lényegesen kevesebbet tudnának belőle legyártani, ami az OEM-ek (laptopok, előre összeszerelt gépek) piacán elég komoly versenyhátrány lehet, gondolva arra, hogy akár komoly megrendelésektől eshetnek el, ha nem képesek nagyobb rendeléseket időre leszállítani. Ahogy láthattuk a korábbi 4000/5000-es Ryzen CPU-k esetén, hiába voltak ilyen notebookok, elég nehéz volt őket évekig beszerezni, gyakran hónapokig kellett várni, mire leszállították a megrendelt gépet, mivel nem volt kellő mennyiségben elérhető a CPU. -
HSM
félisten
válasz
Petykemano
#45952
üzenetére
"miért jutnak mindig arra a következtetésre ... miért nem hozza ki azt a számológép, hogy ha beleállnak a versengésbe, akkor az a nagyobb volumen miatt ... eredményez nagyobb hasznot"
Mi van akkor, ha nem foglaltak le ehhez elég kapacitást? A 7900XTX pl. elvileg elég foghíjas készletek tekintetében, ami arra utal, hogy a kereslet/kínálat többé kevésbé egyensúlyban van a mostani árakon.... Az is érthető, hogy ha nem sikerült tökéletesen az első revízió, akkor nem fognak a szükséges minimumnál többet legyártani belőle, és inkább a jól sikerült Zen4-ből készítenek többet.#45953 b. : "arról volt szó az AMD lényegesen olcsóbban gyárt a Chiplet miatt"
No, de mihez képest? A 4090-hez képest egészen biztosan, a 4080-hoz képest talán, a 4070 Ti-hez képest egészen biztosan nem.#45956 b.: "A 4090 és a 4080 sem teljes értékű, de azonos GPU ra épül .Szerintem túl nagy különbség nincs köztük gyártást nézve."
4090: AD102, 608 mm², 384 bit
4080: AD103, 379 mm², 256 bit
Gyártási költségben ez igen jelentős.....
"Jó példa erre a 900 dolláros 3090 Ti"
Nem jó példa a készletkisöprős akciós ár.
A 2000$-os MSRP inkább iránymutató. -
HSM
félisten
válasz
Devid_81
#45943
üzenetére
Ott pedig majd a vásárlás előtt lötyögtetheted az 1000$-os kártya dobozát, vajon hallasz-e benne elég folyadékot a vapor-chamberből?

Aztán lehet reménykedni, hogy hátha nem gondolták komolyan a 100W-os videólejátszós fogyasztást és csak coming soon™ az elvárható működés.![;]](//cdn.rios.hu/dl/s/v1.gif)
-
HSM
félisten
válasz
Yutani
#45934
üzenetére
"Ilyen problémás rajtja talán nem volt egy szériának sem"
Hahaha... Hamar elfelejtetted, mennyire pocsék driveres háttérrel nyitott az RDNA1.
Konkrétan eltelt majd vagy egy év, mire használható lett az RX 5700....#45936 Devid_81: "konkretan az RTX 4090 az egyetlen ertelmes VGA"
Az is jól indult az elfüstölt tápcsatlakozókkal és ezzel [link] .
Én komolyan hétről hétre egyre jobban becsülöm a kis Navi21-em, amióta bejött az új generáció...
-
HSM
félisten
Én ezen a képen azt nem értem, hogy nem úgy volt, hogy valami speciális hővezető lesz rajtuk?
A tesztekben is más anyagúnak tűnik, lásd pl [link] . A hűtő aljának esetleges megmunkálási minőségét is említi, az övé sem volt tökéletes. Egyébként úgy tudom, ezeknél a vapor-chamberes hűtőknél ez ismert jelenség, azért is szoktak hozzá speciális pasztát vagy grafit padot használni, ami jobban tolerálja az egyenetlenségeket. -
HSM
félisten
válasz
Petykemano
#45900
üzenetére
"Ez megvalósulhat úgy is..."
Természetesen. A lényeg, hogy a magok elég gyorsan, kis késleltetéssel tudjanak adatot cserélni egymás között.
Anandék szoktak ilyen méréseket csinálni, legyen itt szemléltetni 5950X vs. 3950X vs. 12900K vs. 13900K: [link] [link] .
Játékoknál sok az összefüggő adat, sok az adatcsere, ezért háklisabb erre, mint pl. egy renderelés, ahol sokkal jobban függetleníthetőek a részfeladatok. -
HSM
félisten
válasz
paprobert
#45898
üzenetére
Nekem a konzisztenciával volt a kisebb bajom CF-nél. A nagyobb az input lag volt, ugyanúgy késett a kép 60FPS-el, mint ahogy 30-al, nem jó úgy játszani. Kb olyan élmény volt, mintha egy befőttesgumival próbálnám rángatni a karaktert....
A CF is ideális tartományban ezt hozta, magas lag, valamivel simább képi élménnyel.
A CF-et is ezért vetettem el annak idején, amiért itt is feleslegesnek tűnik. 55-60 FPS ha már megvan, akkor duplázás nélkül is jó az élmény, főleg egy megfelelő sync-képes monitorral (enyém 48-144Hz között működik, jobbak legalább hasonlót tudnak már). 20-40-ről lenne jó duplázni, de ott meg ismét nem jó, mert egekben a lag.... Akkor jó most ez valamire?
Az FSR-t is sokan dícsérik, nálam kb. 10 másodperc sok is volt belőle... Aki ezt bírja nézni natív helyett, egészségére.

DLSS-t nem néztem még, most épp polcon van az RTX3060-am. -
HSM
félisten
válasz
Gyuri27
#45895
üzenetére
Egy hardveres korlátot nem tudsz szoftveresen javítani.
Azt tudták javítani, hogy ne fusson bele feleslegesen sokszor a korlátba. De attól még a korlát ott van. Elég, ha megnézed a 3300X (1ccx, 4 mag), a 3600(X) (2ccx, 6mag) és a sima 5600 (1ccx 6 mag) erőviszonyát játékokban. A 3300X ott van, ahol a 3600 (fele L3-al, kétharmad annyi maggal!), míg az 5600 porba alázza mindkettőt, ami nem a 10% IPC javulástól van, hanem mert egy CCX lett mind a 6 mag....
[link]
De viccből ide lehetne venni az 5600 ellen a 12 magos, 4 CCX-es 3900X-et is, ami szintén a 3300X/3600(X) szintjét szokta hozni, néha akár alulmúlva a 3300X-et is, messze lemaradva akár csak az 5600-tól is.#45896 paprobert : Sajnos én még mindig azt gondolom, ilyen rossz esetben ez csak játék a számokkal. A jövőbe senki nem lát, így komoly mellékhatások nélkül nem tűnik reálisnak CPU nélkül nem létező képkockákat kiköpdösni.
A CF/SLI jelenséget látom én ebben visszaköszönni, végül ott is rájöttek az emberek, hogy nem ugyanaz a natív 60 FPS, mint a többkártyás rendszerek AFR-es 60FPS-e. -
HSM
félisten
válasz
Petykemano
#45893
üzenetére
A 2017-es Ryzenen nem sok értelme volt a sok magnak játékokra, mert CCX-ekre darabolva a magok fele csak dísznek volt jó a legtöbb játékban.
Most is ugyanez látszik, az 5800X3D szinte mindig előrébb végez, mint pl. az 5900X. Persze, nem lehetetlen, hogy idővel ez változzon, de azért van bennem nagy adag szkeptikusság ezzel kapcsolatban."ott a DLSS3, ami megvéd a CPU limittől"
A probléma, hogy nem véd meg, a linkelt videóból is tisztán látható, hogy az input lag még nőtt is, nemhogy nem csökkent a DLSS3-tól. Lehet, a darabosság élményén javít, de a karakter irányításának az élménye ekkora késéssel nehezen tudom elképzelni, hogy kellemes legyen."Felmerült bennem még az a kérdés is, hogy vajon a CPU terhelése AMD kártyával is ilyen magas?"
Tegnap kipróbáltam a játékot egy RX 6800XT-vel. WQHD maxon, kimaxolt RT-vel volt kb. 20-30 FPS-em FSR meg hasonló marhaságok nélkül, CPU-limitnek nyoma sem volt az 5600-as Ryzenemmel.
Hasonló számokat láttam amúgy másoktól is RTX3070-ekkel, szóval a szokásos RT-tempót hozta a Radeon.
A képi világ számomra nagyon meggyőző volt, szívesen hagynám bekapcsolva az RT-t is, látszik a hatása, bár nem biztos, hogy ennyi FPS-el akarom majd kínozni magam.
Egyébként a tesztben arra jutottak, nem az tűnik a bajnak, hogy erős CPU kellene alá, hanem hogy kevés magra összpontosul a terhelés, és valami más baj is van, mert ugyanazt az RT nélküli képvilágot a DX11 mód lényegesen magasabb FPS-el hozza. Ebből az látszik, inkább a kódbázison lenne még tennivaló a motorban.
-
HSM
félisten
válasz
Yutani
#45881
üzenetére
Ha egy kicsit kritikusabbak vagyunk, nem nehéz belátni, hogy alapvetően a csiptervezők a hőmérő szenzorokat mindig a hotspotok közelébe tervezték, egyszerűen azért, mert akkor látták el a feladatukat (csip megvédése a leolvadástól).
Persze, értem én a dumát, hogy a mai 'nagyonmodern' GPU-k már tizedpontosan megmondják szenzor nélkül is, mennyire meleg a csip tízezer különböző pontján, de ennek semmi jelentősége abból a szempontból, hogy korábban is lehetett már hotspotokat látni, legfeljebb nem láttad ennyire pontosan, mikor olvad le a GPU a legmelegebb pontján, mert nem biztos, hogy az éppen aktuális hotspoton volt a kevés szenzor egyike.Btw, ugyanez a közfelháborodás volt, amikor bejöttek az X58-as procik, és közelebb került a mérés a hotspotokhoz a korábbi Core2-esekhez képest, és hirtelen mindenki ki volt borulva, hogy 60 helyett 80 fok lett a szokásos műterheléses ideális hőfok-plafon. Nem a GPU-k lettek melegebbek, csak jobban belelátni, és megfelelő technikai dokumentációk nélkül ez sokakat megijeszt.
-
HSM
félisten
válasz
Yutani
#45879
üzenetére
Nem így hívták, de éppen ugyanez volt a feladata. Több ponton mérve a GPU, ahogy most is, mert különböző terhelésekre különböző részei terhelődtek jobban. Ha jól emlékszem volt egy szenzor a shader tömbön, egy a videó motoron, és egy a memóriavezérlőn a GPU szélén.
Most a hotspottal annyi a különbség, hogy nem 3 külön-külön monitorozható szenzorod van, hanem csak azt látod, ami a legmagasabb értéket adta a szenzorok közül és elnevezték hotspotnak... -
HSM
félisten
Erről a domború GPU-jú 3080/3090-ek jutnak eszembe, meg az AIB kártyák, amik a legsilányabb hővezető padokat használták a forrófejű GDDR6X-re. Kész üzletág épült fel ezen kártyák utólagos használhatóvá tételére, hogy ne throttlingoljon a 100+ fokon izzó memória miatt, mai napig megtalálhatóak pl. itt is az aprón az ilyen szolgáltatásokat kínáló hirdetések.
Én egyébként nem tartom problémának ezt a fajta carbon hővezető anyagot, számomra inkább előny, mivel saját tapasztalataim alapján egy jó minőségű nem marad el egy jó pasztától, sőt. A felületi egyenetlenségeket elméletileg még jobban tolerálja, mint a paszta, és ahogy említi az idézeted, nem romlik semmit idővel a teljesítménye.
Nekem egyébként nagyon tetszenek ezek a referencia hűtők, ahogy a 6800XT/6900XT hűtője is igen szimpatikus volt. Különösen jónak tartom az irányt, hogy nem 40 centi hosszú és 20 centi széles óriások, amikhez kb. már speciális házat kell venni, hanem józan, szűk 3 slot magas méretek, de abból igényesen megkonstruálva, hagyományos, bevált tápcsatlakozókkal.
A magyarázata, hogy a referencia mellett érvelek egy nem referencia (XFX Merc 319) 6800XT-vel az adatlapomon, hogy ezt sikerült a szimpatikus példányok listájáról beszerezni.
Eléggé ki is lett centizve a 34 centis hossza miatt, pedig nem pici a házam. -
HSM
félisten
No, valami ilyesmi arányt simán el tudnék fogadni, amit itt fejtegettek.
A driverre gondoltam én is, kíváncsi vagyok, hoz-e majd javulást.#45863 Raymond : A Turing-nál nem lep meg, korábban többször volt róla szó, hogy vannak azért szűk keresztmetszetei RT-vel, aminek látszottak azért jelei is. Persze, a Radeonokon is, de azért nem ilyen meredeken.
-
HSM
félisten
válasz
KillerKollar
#45775
üzenetére
"a maga a csatlakozó sz@r teória azért gyanús nekem picit"
Nem véletlen a mérnöki gyakorlatban a túlbiztosítás, és a régi 6/8 tűs tápcsatlakozó nem véletlen volt kb. kétszeresen túlbiztosítva. Ez az új 450-600W-ra címkézett valami már ránézésre is kérdéseket vet fel, egyszerűen az elektromosságot nem érdekli a vékonyítási trend...
(Ezt az általam linkelt videóban részletesen kifejtik.)
Persze, ettől még lehet bármi, pl. pár szerencsétlenül sikerült gyártású csatlakozó is, de amíg nem derül ki megnyugtató módon probléma pontos forrása, addig én inkább óvatosságra inteném az érintetteket.
-
HSM
félisten
válasz
KillerKollar
#45773
üzenetére
Teljes árat fizettél a 4090-ért, cserébe kaptál egy 'lespórolt' tápcsatlakozó megoldást.
Elég jól összefoglalja: [link]
Te, mint vásárló szerintem két dolgot tehetsz. Egyfelől masszívan korlátozod az áramfelvételt, kevésbé akarjon megsülni/leolvadni/tüzet csinálni. Másfelől reménykedhetsz, hogy idővel előjönnek a gyártók egy megbízható, elfogadható megoldással. -
HSM
félisten
válasz
KillerKollar
#45770
üzenetére
-50% power limit? Ha már a csatlakozóba nem sikerült kellő biztonsági tartalékot tervezni....
-
HSM
félisten
válasz
nubreed
#45247
üzenetére
Egyébként meg tudod szerencsére csinálni. Lehúzod a fogyasztás limit csúszkát, és máris van egy takarékos(abbra) hangolt kártyád, a többit (megfelelő fesz, órajel) elintézi a GPU.
Főleg a zöld kártyákon elég jól működik, RDNA2-n kell hozzá egy MorePowerTool, de ott sem lehetetlen a feladat. -
HSM
félisten
válasz
Yutani
#45223
üzenetére
A HDMI-t akkor úgy tűnik elnéztem, elnézést érte.

A VP9 viszont nagy ferdítés. Valóban voltak egy darabig driver verziók, amiben próbáltak tákolni hozzá valami hibrid YT gyorsítást, de Polaris (RX580 8GB) tulajként első kézből tapasztalhattam, hogy ez sosem működött az elvárható, makulátlan minőségben (sokat segített, de nem volt tökéletes), majd el is távolították a driverből!
[link] [link] A DXVA adatok között ha jól emlékszem, meg sem jelent soha a VP9 képesség. -
HSM
félisten
válasz
Petykemano
#45219
üzenetére
A gépépítők részéről szvsz az is a preferencia része lehetett, hogy Nv-nél szigorúbb minőségbiztosítás van tipikusan, mint az AMD-nél, ahol azért jobban szabadon van engedve a gyártópartnerek keze. Így sajnos én is így tapasztaltam, hogy a piros kártyáknál jobban meg kell nézni, mit vesz az ember, hogy utána ne legyenek problémák....
Illetve az RX 470/570 esetén más probléma is volt, nevezetesen a pirosak versenyzőjéből több lényeges technológia támogatása hiányzott, amit a konkurens biztosított, ilyen a VP9 lejátszás hardveres dekódolása illetve a HDMI2 támogatása. Tehát a jobb per/$ mutató becsapós lehet, hiszen hiába volt gyorsabb pl. a 480 a 1050Ti-nél, ha nem hajtotta meg a nappaliban a 4K TV-t...
-
HSM
félisten
válasz
Petykemano
#45129
üzenetére
Így igaz, mivel a perf/watt görbe vége már általában erősen exponenciális alapvető fizikai összefüggések okán.
Pl. a Ryzen 5 3600-asom mértem [link] , ott a gyári feszes 3600Mhz alapórajel üresjárathoz képest +44W-ból hoz 1442 CB pontot, míg a lapomban sajnos kicsit "gyárilag" felpiszkált limites PB beállítás üresjárathoz képest 88W-ból hozott 1610 pontot, azaz itt +11% tempó lett pontosan dupla (CPU) fogyasztásból.
A gyári PB-jával nem is használom soha, mert nézni rossz, amit úgy produkál.
Egyébként az 5950X-ben nekem ez nagyon nagyon tetszett, hogy a rengeteg maghoz képest viszonylag szolid (140W) fogyasztásból hozott brutális teljesítményt, tulajdonképpen így eléggé hatékony tartományban működtetve a sok szilíciumot, amit beleraktak. Jól látszik, hogy így mennyivel hatékonyabban dolgozik, mint amikor egyetlen CCD-re (kevesebb szilícium) jut ugyanakkora fogyasztási keret (5800X) [link] . A konkurencia is fényévekre van ettől [link] , hiába a hangzatos elnevezésű e-magok.Normális élettartamú, gondosan megtervezett eszközeink is lehetnének. De nem abban van a nagy pénz sajnos, és ma a legtöbben arra hajtanak, akár kínálati, akár keresleti oldalról...
Nagyon OFF...Az autóknál szerintem a baj, hogy ahogyan a legtöbben használják teljesen fenntarthatatlan, tonnákat kell cipelni óriási távokra, rendszeresen, gyorsan, tömegek által használva.
Erre szerintem az elektromos sem megfelelő megoldás. Remélem hamarabb kap észbe az emberiség, és talál ki valami megoldást, minthogy egy perzselő tűzgolyót csináljon a bolygónkból, de ez már egy másik topik témája.... A "hódítsuk meg a Marsot" mint alternatíva nekem nem jön be. -
HSM
félisten
válasz
KAMELOT
#45121
üzenetére
Szerintem addig volt jó, míg egy erős CPU kijött legfeljebb 100-150W-ból, egy GPU 200-250W-ból.
Főleg, amikor egy pár wattos mobiltelefon is már relatív csodát tesz ahhoz képest, mire voltak képesek 10 évvel ezelőtt. Vagy másik példa, a 23W-os Ryzen 4650U-s notebookom remekül lehet StarCraft2-zni szép grafikával, IGP-vel. Arra célzok, a technológia adott lenne, hogy remek perf/watt arányú termékeink legyenek, de valahogy az emberek többségét mintha nem ez mozgatná meg.#45122 Devid_81 : A 6800XT is egyébként piszok mód bírja az alulfeszt, és meg is hálálja.
Bár itt az AMD-nek is jár egy füles, hogy miért kell ehhez harmadik féltől származó szoftverrel a registry mélyét bújni (MorePowerTool). Bár azért itt van némi szándék legalább a WattMan-ból, hogy tudsz választani előre paraméterezett profilokból is. -
HSM
félisten
válasz
Devid_81
#45115
üzenetére
Nekem sem tetszik ez a trend.
Ugyanakkor elvileg minden drágul, és már így is volt elég felháborodás a generációk drágulása révén. Ha még a jó perf/watt mutató miatt túl is kéne tervezni a GPU-t, nem biztos, hogy megfizetnék.Hiába volt pl. remek perf/watt aránya a 6800-as Radeonnak [link] , nem azt olvastam a fórumokban, hogy milyen takarékos, hanem hogy hogyan lehet még húzni rajta (azaz a porba dönteni a gyárilag remek perf/watt mutatóját).
-
HSM
félisten
válasz
Petykemano
#44927
üzenetére
Nem vagyok meglepve... Volt róla cikk is, hogy ez a GPU "papíron" harciasabb lehet, mint a "gyakorlatban": "... Nem véletlen, hogy az AMD, az ARM, az Intel és az NVIDIA a közelébe sem megy az ennyire széles feldolgozótömböknek. Ugyan sok-sok TFLOPS-ot tudnának általuk a papírra írni, de a gyakorlatban rémálom lenne a hatékony működtetésük a fejlesztők szemszögéből.
A teljesítményt tekintve ez az egész annyit jelent, hogy az ultramobil eszközökhöz tervezett tesztprogramok (BaseMark GPU, 3DMark Ice Storm Unlimited, GFXBench 5.0) egészen optimálisak az Apple hardverének etetésére, mivel nem használnak olyan komplex (compute) shadereket, amiket egy modern, újgenerációs konzolokról portolt PC-s játék. Ezáltal az erőforrások allokációja kedvezőbb, ami pont jó az efféle extrém széles dizájnnak. A gond ott kezdődik, ha egy komolyabb játék kerül be a képletbe. Ilyenkor az történik, hogy egyre komplexebb shaderekkel kell dolgoznia a hardvernek, ezek regiszter-, illetve LDS-nyomása egyre erőteljesebb, vagyis drámaian csökken annak az esélye, hogy egy multiprocesszor be tud tölteni annyi azonos szemcsézettségű szálcsoportot, amivel a memória-elérés késleltetését az esetek többségében át lehetne lapolni. Itt már a papírra vetett TFLOPS-ok nem számítanak, mivel adatra fog várakozni a hardver, vagyis konkrétan nem számol semmit, amíg az adat meg nem érkezik.
Mindez azonban így sem számít az Apple-nek. Az M1, M1 Pro és M1 Max IGP-jének ott lehet csak ebből problémája, amit a cupertinóiak egyáltalán nem tartanak célpiacnak. Egyszerűen ott a saját áruházuk, amelybe biztosan ehhez a dizájnhoz optimalizált alkalmazások kerülnek, a többi áruház pedig olyan mindegy, majd vesz hozzájuk az illető egy PC-t. Ez a stratégia pedig általánosan kifizetődhet, mert pont ott gyorsak a saját fejlesztésű ARM-os rendszerchipek, ami az Apple számára fontos." [link] -
HSM
félisten
válasz
Devid_81
#44948
üzenetére
A bányába csak egy része kell a GPU-nak, úgy értettem...
A CU és ütemező lehet maradt a standrad RDNA2-s, azzal már mehet a bánya.Illetve lehet olyan jogi megkötés is, hogy a GPU nem mehet bizonyos piacokra, míg máshova igen. Nyilván titkosak a részletek, de miért ne.

-
HSM
félisten
válasz
Petykemano
#44914
üzenetére
-
HSM
félisten
"Szerintem es a vilag IT mediaja szerint a 200$ es a 250$ egy kategoria"
[link]
"A polcrol fogyas mint erv es az hogy milyen GPU van a huto alatt szerintem badarsag"
Érdekes mód elég sok bosszús hozzászólást olvastam az utóbbi évben a VGA-k bolti árazását és elérhetőségét illetőleg. Csak halkan jegyzem meg, hogy ez erősen összefügg a kereslet-kínálat alakulásával, márpedig a kínálati oldalra igencsak hatással van, mekkora volumenben és mennyi pénzért gyártható egy adott termék."kb annyival dragabban a 3050 mint amivel tobbet er."
Amennyivel többet ér(ne) neked. Sajnos nem tudom érthetőbben leírni, hogy nem mindenki azért vesz VGA-t, hogy a legújabb címeket maxon nyomja vele. Ne érts félre, én is drágállom a 6500-at, de abból még könnyen lehet olcsóbb termék, esetleg XT nélküli verzió, ha kellően felfut a gyártása, a 3050 8GB-nál ezt nehezebben tudom elképzelni a jelenlegi megvalósításával. Persze, ha valaki most "jó áron" ki tud fogni egy 3050-et, a jelenlegi naponta változó piaci környezetben úgy tűnik nem vesz rossz ár/értékű kártyát, ezt aláírom, de az is kétségtelen, hogy jóval több (és nem kevés!) pénzt fog a kasszánál hagyni érte.
-
HSM
félisten
"most a 3050 már nem jó mikor egy kategóriában vannak"
Egyfelől 200 vs 250$, másfelől a vak is látja, hogy nem egy súlycsoport a két csip, gondolok az előállítási költségre is. Önmagában furcsa számomra egy 276 mm²-es csippel szerelt kártyát egy 107 mm²-eshez hasonlítani, ami tranzisztorszámban is kevesebb, mint a fele."ennyire lett agyonherélve erről senki nem tehet csak a tervezője"
Ennek annyiból van igen komoly jelentősége, hogy az ilyen irreális méretű/költségű GPU-t használó termékek gyorsan el szoktak fogyni a polcokról, amint elfogyott a "selejt" GPU hozzájuk...
Míg a 6500XT vélhetőleg bőven nyereségesen gyártható ebben az árszegmensben tömegesen."Nem mindegy milyen GPU van agyonvagdosva?vevőt ez érdekli?"
Kéne érdekelje... Lásd előző pont."a 250 dolláros MSRP nincs rendben egy 8 GB ramos 40-50 % kal gyorsabb videókártyáért?"
Ne forgasd ki, amit írtam. A 3050 ára ahhoz képest sok szvsz, hogy 330$ a jóval erősebb, 12GB ramos 3060 MSRP-je."Itt most a drágább az olcsóbb hosszú távon."
Attól függ, mire akarod használni.
#44839 keIdor :
A 6500-ast felül, a 3050-est alul címkézték. 
-
HSM
félisten
Belépőbe minek 8GB?
A 3050-nél esetleg, de az igazából nem is belépő, hanem egy agyig vagdosott alsó-középkategóriás 3060 selejt kiszórás, amire ráhúztak egy szvsz túlzottan nem is kedvező 250$-os MSRP-t. A 6500 ennél alapból jóval olcsóbb is, annál elvileg 200$ az MSRP, de tény, hogy ennél jóval drágább a 6600, ami hasonló kaliber lenne, mint a 3050/3060. 
Egyébként a 6500 viszont tényleg relatív "olcsó", raktárról vihetőt látok most 275€-ért, ami elég kedvezőnek tűnik az ugyanott raktáron sem lévő, legolcsóbban 380-450€-s 3050-ek mellett (egy ismertebb német webshop árait néztem). Szerintem teljesen rendben lett az a 6500-as kártya, csak a helyén kellene kezelni, mint relatív olcsó, kis fogyasztású belépő kártyát, és nem a drágább, valójában más kategóriában játszó 3050-hez méricskélni. Egymással inkább a 3050/6600/3060/6600XT-t kellene nézegetni szvsz, esetleg a régi 2060/2070-eket.
"RTX 2060 40+pár FPS-t hoz aktivált RT vel 1080P"
Lehet, a 2070-et is FHD és 60FPS mellé írták minimumnak.
-
HSM
félisten
Gondolom, nem ok nélkül írtak a játék RT-s minimum igényéhez egy 8GB-os RTX2070-et. Ez arra utal, hogy valószínűleg már a 6GB-os 2060 sem lenne valami jó alá, így a 4GB-os 6500XT-től nem is lehet sokat várni. Szvsz hasonló botrányos eredményt bármelyik GPU-ból ki lehet hozni, ha a VRAM-ba bele nem férő beállításon hajtjuk.
-
HSM
félisten
válasz
GeryFlash
#44806
üzenetére
Majd a notebookokban "reálisabb" 28-35W kategóriában leszek kíváncsi, mit fognak ezek nyújtani. Szvsz könnyen fordulhat a kocka.
Illetve az IGP mellett is komoly előny a tempó mellett a kiforrott driver, nincs még ez a meccs lejátszva.
Azért a 12900HK esetén 115W rövid TDP limit szvsz nagyon nem notebookba való [link] , vagy ha ennyire nem érdekes a fogyasztás, akkor a "mobil" 5950X szvsz mindent visz [link] .
-
HSM
félisten
válasz
Petykemano
#44785
üzenetére
"A gyártók elkönyvelnék, hogy a gaming piacnak vége."
#44788 Devid_81 : Az 50-es széria mindig is notebook/HTPC/OEM piacokra volt szánva. Játszani mindig is a 6-os széria volt szánva, azzal most sincs óriási probléma. A pillanatnyi árát leszámítva, persze.
Ex-580-8GB tulajként én pl. igen örülnék mondjuk egy normális árú RX 6700 XT-nek.
De egy 6600 is már korrekt cseretermék [link] lehetne. -
HSM
félisten
"Ez nagyona konkurenciakra jellemzo es ott elítélt trukk volt sajnos."
Ezt a részt nem akartam túlzottan feszegetni, de nekem sem tetszenek ezek a finoman fogalmazva is félrevezetőnek tűnő marketing-megoldások. Az M1-nél is ráncoltam a szemöldököm, ennél is és persze és a kékeknél is érdekes volt az akár 55W-ig elengedett Alder-Celeron.
"a legjobb CPU szerintem"
Osztom a véleményed, nálam is a listán van ha majd fejlesztek, ahogy a 6800U is.
Jelenleg egy hatmagos 15W Renoir-om van, az is elég jó, egy 4650U.Ami egyébként még TDP vonalról érdekes, hogy annak ellenére, hogy a beállítható cTDP egyértelműen és szignifikánsan nőtt az elődökhöz képest (10W helyett 15W a minimum, az óriási lépés egy ultramobil gépnél, akkuról szoktam 10W-os limittel használni a Renoir-om is) az AMD mégis komoly energiahatékonysági fejlődésről beszélt, ami számomra így nehezen értelmezhető. "A fő fejlesztési irányt egyébként egyértelműen az energiahatékonyság jelentette, és emiatt a vállalat úgy számol, hogy az ultramobil Rembrandt SoC APU-val szerelt notebookok akár 24 órás üzemidőt is el tudnak érni." [link]
Mondjuk ha jól értem, ezt videónézéssel mérték, dinamikus fényerejű kijelzővel: "Based on testing by AMD as of 12/14/2021. Battery life evaluated with hours of continuous 1080p local video playback using the h.264 video codec. Video codec acceleration (...) is subject to and not operable without inclusion/installation of compatible media players. System configuration: AMD reference motherboard(s), Ryzen™ 7 5800U @ 15W and 2x8GB LPDDR4, Ryzen™ 7 6800U @ 28W and 2x8GB LPDDR5, 1080p eDP PSR display with Varibright at 150 nits, Samsung 980 Pro 1TB SSD, WLAN enabled and disconnected, Windows 11 22000.282, BIOS 103BRC1 (5800U) and 090RC6INT (6800U). Video file: 1920x1080, 23.976 FPS, h.264. – RMB-15" [link]
Szóval tulajdonképpen a CPU magok itt nem csináltak semmit, és vélhetőleg az új memória takarékosságából, esetleg az RDNA média blokkjának hatékonyabb működéséből jöhet az előny. Szóval túl sokat nem tudtunk ebből meg.
-
HSM
félisten
válasz
Petykemano
#44749
üzenetére
Ami érdekes, a korábbi U-modellek (pl. 4800U, 5800U) cTDP-je 10-25W, addig a Rembrandté (6800U) viszont 15-28W, ami arra utal, hogy némileg magasabb keretből érzi jól magát.
10-15W amúgy nagyon kevés, nem véletlen van ezekből 35W-os verzió is. Azok inkább teljesítménycentrikusak, de bőven jó tempót hoznak a 15W-osok is, de nyilván áldozatot kell hozni, főleg ha egyszerre lenne szükség a CPU-ra és GPU-ra is.
-
HSM
félisten
válasz
Devid_81
#44737
üzenetére
"
"
Olyan negatív vagy, az 5 magos Celeron csak 55W-ig turbózhat.

Egyébként U kategóriában max 2P és 8E core, izgalmas lesz ezeket összeereszteni az AMD 8 hagyományos magú megoldásaival, pl. 5800U. Mondjuk nem hinném, hogy utóbbinak ettől túl sok félnivalója lenne.
És ráadásul tőlük is jön az új Rembrandt széria, ami rárak egy lapáttal, pl. 6800U. 
És ezt éppen egy mobil hatmagos U-kategóriás Renoir-ról írom, aminek 25W a rövid turbója, és igencsak nem lassú, szóval lehetne ezt józanabb keretekből is. -
HSM
félisten
válasz
Petykemano
#44727
üzenetére
"az Intel melyik ársávban mit kínál, hanem az, hogy mire van kapacitása"
A kapacitáshiánytól én nem aggódnék. Az Intel egy könnyen és nem túl drágán gyártható dedikált, E-cores mentes lapkát tervezett alá. Az egy chipletes Ryzenek ehhez képest macerásabban gyárthatóak, hiszen két, különböző helyen gyártott lapkát kell összerakni.
Szerintem egyértelmű, hogy 6 magon ez az Alder nagyon erős, viszont 12 magtól nekem a Ryzen 5000-es kínálat tűnik erősnek, az Alder ott az E-magokkal számomra kevésbé vonzó. -
HSM
félisten
válasz
Petykemano
#44702
üzenetére
"miners are hardly normal customers given that GPUs are basically money printers"
Ezzel az amúgy kissé pejoratív hangzatú kijelentéssel csupán az a bajom, hogy egyáltalán nem számol a krypto piac kiszámíthatatlanságával. Ma úgy tűnik "money printer", de ha holnap beszakad az árfolyam (vagy épp elszáll a "nehézség"), akkor ott van a nyakadon a 2,5-3X-os áron megvett, akkor már hirtelen eladhatatlan VGA és még némi ajándék áramszámla esetleg terembérleti díj is mellé.
És ha valamit nem jól könyveltél, még az adóhatóság kopogtatására is számíthatsz.
-
HSM
félisten
válasz
Raggie
#44683
üzenetére
"meg ami az első nagy hullám alatti tényleges áruhiány alatt volt"
Az első áruhiányi hullám alatt kb. márciusban 350K körül lehetett venni aprón RX 6800XT-t. Most 500 alatt nem találsz sima RX 6800-ast sem. De szinte ugyanezt írhattam volna az RTX3070-re is, nagyságrendileg hasonló számokkal."Most is magasak a HA-s árak, de még mindig alacsonyabbak, mint amit a hazai boltok írnak ki."
Persze, hogy olcsóbbak, egy kupac pénzt már azon 'megspórolnak', hogy tipikusan a forrás ország lényegesen alacsonyabb áfájával értékesítik tovább, amit egy hivatalos bolt nem tehet meg.... Több tízezer forintnyi a difi már csak ebből kifolyólag. -
HSM
félisten
válasz
Raggie
#44668
üzenetére
"már nem ilyen scalper árak vannak. Legalábbis pl HA-n."
Melyik HA-n?
Én az itteni HA-n továbbra is fél millióért látom a legolcsóbb 6800-ast, de 6600XT-t kapok már 240-ért is. 240-ért, fele ennyiért is sok lenne...
#44669 Gyuri27 : "De a piac egésszére nézve átok."
Pont ez a baj a kapitalizmussal. A történelem azt mutatja, hogy ez prímán a tőke központosodásához, ami pedig a társadalmi különbségek elmélyüléséhez vezet. Látjuk, tapasztaljuk. Arra kíváncsi leszek, most ez hova fog vezetni, de nem vagyok optimista.
-
HSM
félisten
válasz
Petykemano
#44666
üzenetére
-
HSM
félisten
válasz
Devid_81
#44659
üzenetére
10GB LHR... Az LHR-mentes eredeti verziótól még mindig fényévekre van, az nem 50-et tudott, hanem rendesen padozva 90-et is. Sokkal lényegesebb, hogy az a +2GB VRAM és extra sávszél igen jól jöhet játékokban majd.
#44661 Petykemano : "ha valaki megveszi, akkor a helyére máris lehet venni egy újabbat, egy hatékonyabbat"
Ha végignézzük a realitást, akkor azt látjuk, hogy jelenleg a leghatékonyabb kártyák, amik 7 és 8nm-en gyártódtak. Ezeket nem tudod hatékonyabbra cserélni, sőt, az LHR még rontott is ezen az új gyártásúaknál. Az aprón is azt látni, hogy lassan a 200 000-es "álomhatárt" karcolják a használt, sokéves 8GB-os RX580-ak is, ami nem éppen arra utal, hogy tömegesen hullanának ki a bányákból, pedig nem éppen erősek hatékonyságban a modernebb megoldásokhoz képest.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Samsung Galaxy S25 Ultra Titanium Silverblue 6.9 120 Hz Dynamic AMOLED, 200 MP kamera, S Pen,
- Apple iPhone 11 Pro Max / 256GB / Kártyafüggetlen /12Hó Garancia / Akku:84%
- Új, Aktiválatlan iPhone 17 Pro (256 GB) (rendelhető)
- Telefon felvásárlás!! iPhone 12 Mini/iPhone 12/iPhone 12 Pro/iPhone 12 Pro Max
- Törött, Hibás iPhone felvásárlás!!
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Ezek egyébként a legaljasabb bugok, amik csak bizonyos csillag-együttállásokkor jönnek elő.... QA legyen a talpán, aki az ilyenek megfogja.

Elfelezni a fogyasztást azért vélhetőleg jócskán szerényebb tempó mellett lehetne.

Abból a szempontból értem, hogy ezek a legkisebb TCO2, és legnagyobb teljesítmény, de így úgy tűnik, mintha ezek minden további nélkül összehasonlíthatóak lennének... 



