Új hozzászólás Aktív témák
-
HSM
félisten
Csak a lényege nem ment át a mondanivalómnak...
A lényeg pedig az, hogyha INSTABIL a CPU/Memória rendszer, teljesen mindegy mi miatt, annak lehet a következménye konzisztensen a grafikus driver kifagyása nagyobb számítási terheléseknél.
Márpedig nagyon gyakran lehetett látni már régebben is látványosan szénné hajtott, nagy valószínűséggel nem teljesen stabil rendszereket a panaszkodóknál... -
HSM
félisten
Ha ugyanez az AMD driverével történt volna, akkor most mindenki ujjal mutogatna rá, hogy nem tudnak drivert írni...

Nem győztem írogatni évekkel ezelőtt, hogy a grafikus driver kifagyása ugyanúgy lehet instabil CPU, rendszer vagy tuning következménye is, mint a rossz drájveré.
-
HSM
félisten
válasz
Alogonomus
#47644
üzenetére
Na, mert az AMD-nél nem volt erős az AM5 elején a foglalat olvasztós story...
Egyszerűen gyárilag a határig vannak feszegetve a mai CPU-k a nagy versenyben, erre rátesznek egy lapáttal az alaplap gyártók, akiknek az az érdekük, hogy még egy hajszállal gyorsabbak legyenek a másiknál, és már meg is van a probléma.... -
HSM
félisten
válasz
Alogonomus
#47609
üzenetére
Ügyesen zsonglőrködsz a "garantált" és "bármilyen" szavakkal.
Ilyen feltételekkel nyilvánvalóan igazad van, minden más, józanabb esetben lásd, amit írtam.
Részemről a vitát lezártam. -
HSM
félisten
válasz
Alogonomus
#47604
üzenetére
Egy dolog kísérletezni valamivel, és egy nagyon másik dolog, amikor van egy a gyakorlatban is jól működő, financiálisan is életképes, sorozatgyártás-képes megoldásod.

Jó lenne, ha röviden és tömören átmenne, a nagyobb cache gyakorlatilag azon tud bukni, hogy vagy nem tudod kellően gyorsra megcsinálni, vagy nem lesz gazdaságos, vagy nem lesz gyártható. Az órajel emelésének nem ez a korlátja, főleg, hogy akármilyen órajelen járathatod külön az L3-at, ha akarod.
Annak idején a Broadwell is kapott egy 128MB-os L4-es verziót, ami az L4 és eDRAM megoldások miatt csigalassú volt cache léptékben, de még így is jelentősen gyorsított az őt alkalmazó 5775C CPU-n bizonyos alkalmazásokban. [link]
Vagy PH: [link] : "Az eredmény kissé meglepett minket, hisz a 128 MB-os L4 gyorsítótárral felvértezett Broadwell, azaz az i7-5775C mindent vitt. Ennek oka egyértelműen az eDRAM-ban keresendő, melyet valamilyen okból nagyon kedvelt a DiRT Rally."
Mégsem terjedt el a megoldás, lásd az első mondatom. Ez is csak kísérletezni lett jó.
-
HSM
félisten
válasz
Alogonomus
#47601
üzenetére
Amit írsz egyszerűen nem így működik.
Ami kevés és gyors kell legyen, az az L1, L2 a jelenlegi felépítés mellett. Az L3 régóta azért van, mert lassabb, de az nagy. Megnézheted az AMD-nél is, az X3D CCD-s L3 +4 órajel késleltetéssel működik (ez a háromszoros méret ára), amit a nagyobb találati arány bőségesen kompenzál (9ns szemben 11-12-vel: [link] ).Intelnél egyszerűen arról van szó, hogy ők nem ebben az irányban kezdtek el fejleszteni, így jelenleg nincs válaszuk/megoldásuk erre a kihívásra. Mert egy ilyen technológiát az ember nem csak úgy rábiggyeszt a meglévő CPU tetejére....

Kb ugyanúgy, ahogy a Zen2-nél bejött chipletes, 16-magos otthoni megoldásra sem volt válaszuk, amiknek a magjai egyszerre voltak gyorsak és takarékosak is, úgyhogy jobb híján levették a polcról, ami már ott volt, és így született a P+E magos CPU....

Minden más már csak a marketing.
-
HSM
félisten
válasz
Alogonomus
#47597
üzenetére
"a magas frekvencia minél hatékonyabb kihasználásához"
Ehhez éppen kritikus a megfelelő mennyiségű és sebességű cache (is). -
HSM
félisten
válasz
proci985
#47594
üzenetére
Igen, az eredeti teszt is játék-fókuszú volt.
De fenntartom az eredeti állításom, miszerint igazából bármilyen felhasználásnál nem várható nagy különbség 24, 33 és 36MB L3 között, különösen nem, ha gyors DDR5 memória-alrendszer van mellette.És mivel a 7950X3D-n a játékok (jól beállítva a CPU-t, lásd: [link] ) az X3D-s CCD-t használják, így gyakorlatilag egy picivel emelt órajelű 7800X3D a végeredmény játékokban, ahogy írod is.
Rendkívül érdekesek egyébként a TPU eredményei, ahol azt kapcsolgatták, melyik CCD-n fusson a játék a 7950X3D-n: [link] .
Annak sajnos semmi értelme, hogy mindkét CCD-t használja a játék, már a Zen2 idején világosan látszott (magam is teszteltem, tapasztaltam a saját 3600-asomon) hogy a CCD-közti kommunikáció eléggé elrontja a skálázódást a késleltetésre hagyományosan érzékeny játékokban. Főleg, hogy a mai játékok közül kevés képes 8 erős magon felül is skálázódni. Ezen nyilván lehetne processzor specifikusan optimalizálni, de nem lenne sok értelme, amikor 6-8 erős mag elérhető olcsón, egyben, és elég is.A cache egyébként szerintem nem igazán igényel célzott optimalizációt, a nagyobb méret "magától" is jól működik, ha egyébként a kód jó és akkora adathalmazon dolgozik, ami nem fér bele a kisebb L3 méretbe.
-
HSM
félisten
válasz
Petykemano
#47592
üzenetére
Hasonlóan emlékszem én is a 5600X és 5600G fronton.
Szerintem érdemes megnézni, mit mértek a 7950X3D-vel skálázódást a 7700X-hez képest: [link] .
Szerintem szépen látszik, hogy hiába háromszor akkora az L3, a sebességelőny bár jelentős, de nem földbe döngölős így sem. Megfigyelhető az is, hogy a gyorsabb memóriákkal szűkül az X3D előnye (ahogy utaltam rá). Sőt, néhány esetben a gyors ramokkal ott volt a 7700X is a lassú ramos 7950X3D nyakán.
-
HSM
félisten
válasz
proci985
#47586
üzenetére
800W már elég durva, az már fűtőtestnek is elmegy.

#47589 Petykemano : Érdekes teszt. De szerintem a konklúzió nem megalapozott. Egyfelől nagyon gyors, DDR5 7200-as memóriákat használt, ami csökkenti a cache jelentőségét. Másfelől cache memóriáknál nem nagyon van jelentősége néhány MB különbségeknek. Főleg 33MB és 36MB csak nagyon határesetben okoz különbséget, de a 24MB is ugyanazon nagyságrend. Ryzeneknél, amik jobban támaszkodnak az L3-ra, sincs egetverő különbség a 16MB-os és 32MB-os modellek között azonos órajelen, pedig az nagyobb különbség és a memória alrendszerük is lassabb valamivel. Cache léptékben nézve ami jelentős különbség, az az AMD-féle 3D-cache, ami háromszoros méretű L3-at eredményez (32MB szemben 96-al). Az már jelentősen képes növelni a találati arányt, ezáltal tehermentesíteni/gyorsítani a memória elérés sebességét játékokban. Valószínűleg a Ryzeneken sem lenne semmi jelentős előrelépés, ha létezne egy mondjuk 36MB L3-as modell, amit megmérhettek volna.

Tehát a mért értékekből szerintem határozottan nem következik, hogy az Intel nem gyorsulna egy mondjuk hasonlóan 64MB-os extra L3-szelettől. -
-
HSM
félisten
válasz
proci985
#47582
üzenetére
Persze, nyilván egy jó víz az ideálisabb, főleg 150W felett, ezt nem vitatom. Csak azt szerettem volna hozzátenni, hogy vannak azért olyan léghűtők is a piacon, amik kényelmesen és halkan elbírnak még 150W-al, vagy akár kicsit többel is, különösebb melegedés nélkül, megfelelő szellőzésű házban.
-
HSM
félisten
válasz
proci985
#47580
üzenetére
Azok többsége csak 4 hőcsöves, az elég nagy difi.
Amire én gondoltam, Thermalright Ultra 120EX REV.4, Alpenföhn Matterhorn, hasonlók. Én utóbbit használok a mai napig, a régi X58 rendszerem alatt vidáman hűtött kb. 200W-ot is: [link] . Most a Ryzen 5600 alatt nyilván jéghideg, azt passzívan is elvitte [link] ....
-
HSM
félisten
válasz
Petykemano
#47578
üzenetére
Mikor melyik áll érdekükben. Ha egyik sem megy, akkor jön valami kitérő, pl. +50% Ai vagy hasonló.

#47577 proci985: Egy jó minőségű, legalább 6 hőcsöves, 12 centis ventilátorokhoz tervezett egytornyos léghűtő jól szellőző házban 150W-ot kényelmesen meghűt klíma nélkül is...
Elvileg egyébként az Intel dokumentáció erre ajánlja a PL1 limitet, hogy legyen úgy beállítva, amit még bír a hűtő tartósan.
Mindenki kedvére testreszabhatja a működést a lehetőségei és igényei függvényében. -
HSM
félisten
válasz
Petykemano
#47567
üzenetére
Nem hiszem, hogy olyan jól állnának a konkurenciához képest, hogy ez beleférne.
Főleg most, amikor ez így működik már amióta ez a Turbo rendszer be lett vezetve a Sandy Bridge óta.Sokkal inkább ott a gond szvsz, hogy a beszámolók alapján brutális számban lehetnek most azok a CPU-k, amik nem bírják ezt, nyilván emiatt sok a garanciális probléma, és a negatív média visszhang sem tesz jót az eladásoknak, különösen, hogy a legdrágább, leggyorsabb otthoni flagship modellekről van szó.
-
HSM
félisten
válasz
proci985
#47563
üzenetére
Ráadásul az egyenletes eloszlás nagyon jóindulatú egyszerűsítés, mivel a hő jelentős része a magokon koncentrálódik, a méretben szintén jelentős IGP és cache-ek nem kifejezetten nagy fogyasztók.
Nem lepődnék meg azon sem, ha ilyen teljesítmények mellett szobahőmérsékleten már maga a foglalat is olvadóbiztosítékként funkcionálna. Illetve hűthetetlenség miatt a CPU is (thermal) throttlingba kezdhet 100 fokon, és akkor mindegy is a beállított limit.

-
HSM
félisten
válasz
Busterftw
#47558
üzenetére
Évtizedes távlatban ez megy, csak egy XMP profil mellé is néha olyan feszek mennek a procinak, hogy hű...
Illetve elég régóta nincsenek figyelembe véve sem a fogyasztási limitek (jó lesz a maximum 4096W) illetve az sem, hogy ha minden mag aktív, akkor jópár típusnak csökkentenie kellene az órajelét...
Néha egész komoly utánajárást igényelt, ha az ember csupán a biztonságos gyári feszeken és paramétereken akarta hajtani a CPU-ját....
-
HSM
félisten
"Optimalizáció egyértelműen nem jó"
Ez sok játékban megfigyelhető, sokszor szándékosan így csinálják, hogy maradjon kapacitás a processzorban a háttérfeladatoknak is. Amikor egy CPU-n elkezded a virtuális szálat is terhelni, az mindig a másik szál kárára történik, és onnantól kiszámíthatatlanabb a futás, ami egy "real-time" működésű játéknál nem feltétlen szerencsés. -
HSM
félisten
válasz
Busterftw
#47163
üzenetére
Az Nv implementációja ugyan miért késett volna? Az AMD ennyit vacakolt vele, de nem azért, mert szabványosan csinálták, hanem elsősorban ott úszott el a dolog, hogy megvárták a szabványt követő sorozatgyártott scalereket. Ha az Nv szabványosan oldja meg a kapcsolatot a saját 300 dolláros scalerével akkor nem hinném, hogy bármi jelentősebb csúszást okozott volna. Alapvetően teljesen ugyanazt a működési elvet csinálják, csak nem szabványosan. Ez így minimális igazítás a szoftveren, se több, se kevesebb.
-
HSM
félisten
válasz
Busterftw
#47161
üzenetére
"Nincs fix, jobb minoseg, nincs a monitor teljes tartomanyaban mukodo VRR, nincs 144Hz support. Ezeket az AMD meg +2 evvel kesobb hozta, ami mar 4 ev."
Miért ne lett volna? Ugyanúgy működhetett volna a scaler szabványos módon, az összes jósággal együtt, kb ugyanabban az időben. Akarat kérdése lett volna az egész.A többire.... Sajnálom, hogy ennyire nem érted.
Én feladom ezen a ponton. -
HSM
félisten
válasz
Busterftw
#47159
üzenetére
"nem akadalyozta az AMD-t "
Nem az AMD-t akadályozta, hanem Pistikét, aki monitort vett, hogy később az AMD kártyájával is használhassa, így később Pistike nem vett AMD kártyát. Nem olyan bonyolult ez.
Nem azt mondtam, hogy nem volt innovatív a G-sync modul, azt állítottam, hogy nem az innováció tette szükségessé, hogy a szabványtól (ami már fél évvel korábban végleges formában készen volt, tehát VESA tagként az Nv ennél lényegesen korábban is már tudhatott róla!) eltérő, inkompatibilis módon valósítsák meg. A fix minőségű, G-sync logós scalarral (ez volt valójában az innováció) nyugodtan megjelenhettek volna szabványt is támogató módon, akkor lett volna verseny, mert Pistike döntésén múlt volna, milyen monitort milyen kártyával párosít.
-
HSM
félisten
válasz
Busterftw
#47157
üzenetére
"Magyarazd meg konkretan, a G-Sync miben korlatozta a versenyt?"
Aki Nv kártyát vett, az csak hozzá való monitort vehetett. És fordítva is, aki már megvette a drága, jó minőségű monitort, utána kénytelen volt Nv kártyán maradni, mert más kártyán egy kulcsfontosságú képességet vesztett volna el.
És itt szó nincs innovációról, meg egyéb marhaságokról, mivel a kis 300 dolláros scaler működését ugyanúgy felprogramozhatták volna szabvány szerint is, főleg hogy a rajta lévő Altera Arria V GX FPGA modul elméletileg DP1.2a támogatású [link] . -
HSM
félisten
válasz
Busterftw
#47154
üzenetére
"szabványosítás és az innováció/verseny nem fér össze"
Pedig összefér, megfelelően koordinálva. Sőt, csakis úgy férnek meg jól egymás mellett. Pl. koordinálás nélkül az innováció monopolhelyzetbe csaphat át, lásd pl. vendor lock-in.Természetesen a szabványosítás lassítja valamennyire az új (jobb?) termékek piacra kerülését, ezt nem is vitattam.
Ugyanakkor számtalan súlyos valós probléma kezd már most is a féktelen innováció jóvoltából kibontakozni, aki nem barlangban él, annak szerintem nem kell magyarázni.
"Ez konkrétan miben nyilvánult meg?"
Tényleg magyaráznom kellene, miért korlátozza a versenyt a vendor lock-in?
-
HSM
félisten
válasz
keIdor
#47145
üzenetére
"Most már a legtöbb monitor eleve tudja mindkettőt. Ez előnyére változott"
Tévedés. A mostaniak csak az adaptive sync-et tudják, ami a szabvány. Csak erre nagy kegyesen az Nv ráhúzta a G-sync compatible matricát.
(G-sync, FreeSync a gyártók VGA oldali implementációinak a fantázianeve.)#47146 b.: " fogalmad sem volt mikor lesz erre válasz"
A Vesa szabvány előbb volt, mint a G-sync, akkor hogy is van ez? Persze, a szabványos scalerek (amik nem 300 dolláros felárral oldották meg a problémát) miatt valóban sok idő telt el, mire a szabvány is utolérte őket."Nem megy most sem a freesync rajt"
De, mennek a freesync-es monitorok rajta, mivel azok a Vesa adaptive syncjét használják DP-on. Persze, volt pár típus, ami HDMI-n az AMD saját szabadalmát használják, az valóban nem működik Nv-n.#47147 Busterftw : Van más is, pl. kompatibilitás, verseny.
Jó dolog az "innovációval" dobálózni, de veszélyes, ha ezzel csomagolod be a valójában versenykorlátozó gyakorlatokat.#47148 keIdor : Én akkoriban is AMD kártyákat használtam. De olvastam a fórumon is morgolódást, hogy volt, aki szeretett volna AMD kártyát, de a monitorán nem akarta elveszteni a sync képességet.
Az Nv-nek most eléggé bejött, hogy olcsó az 5nm, hogy nem viszik már úgy a csipeket. Ha nem ilyen lenne a gazdaság sokkal nagyobb előnye lenne az RDNA3-nak a chipletezésből.
#47149 keIdor : FrameGenjük fog jönni hamarosan az FSR3-al. Meglátjuk, milyen lesz. Az mindenképp jó pont, hogy menni fog az előző generáción, így remélhetőleg ki fogom tudni próbálni a 6800XT-men.
-
HSM
félisten
válasz
Busterftw
#47143
üzenetére
"Ha az Apple is szabvanyozik, akkor nem lenne a piacon az usereknek ez a kenyelmi funkcio elobb."
Gondolom, kellett nekik, mint egy szelet kenyér...
Egyébként vélhetőleg lényegesen kevesebb elektronikus hulladék keletkezett volna, ha hamarabb beállnak ők is az USB-C mögé."Nem tudom milyen fejfajasrol beszelsz."
Mondjuk arról, hogy kettévágták a piacot, vagy megvetted a méregdrága G-syncet, vagy nem volt synced. A szabványos adaptive sync monitorokat meg nem kezelték a kártyáik évekig. Ha pedig megvetted a méregdrága G-sync monitort, utána már csak Nv kártyával működött, mivel nem volt szabványos.
A minőség biztosítására normális helyeken tanúsítványokat alkalmaznak, pl. HDR600 a VESA-tól [link] , nem pedig vendor lock-in-t.
-
HSM
félisten
"például az hogy 2 évvel elöbb mutatták be"
Kb. igen. Ugyanakkor a már-már szokásos szabványtiprás mellett, ugyanis a DP1.2a már 2013 januárban hozzáadta a szabványos megoldást (adaptive sync), de az Nv-nek nagyon fontos volt fél évre rá egy saját, zárt, inkompatibilis megoldással megtrollkodni a piacot. Véletlenül sem a szabványt implementálták a moduljukkal...."már leglább 144 Hz működést, magas HDR fényerőt, minimum válaszidőt, meg hasonló jóságokat írt elő"
Elolvastad, amiket írtam? Azonos kategóriát kéne nézni. Ugyanúgy léteztek prémium Freesync megoldások is. Azok ugyanúgy tudták a HDR-t, fényerőt, 144Hz-et, stb. Az első G-sync monitor is gyakorlatilag úgy készült, hogy szereld ki egy a már létező ASUS VG248QE típusból a gyári scalert [link] ....
Nézhetnénk úgy is, a Freesync lehetővé tette, hogy olcsó monitorok is hasznos plusz szolgáltatással bővüljenek gazdaságosan, lásd az említett olcsó 48-75Hz darabok. Ezek árából a G-sync modul sem jött volna ki, annak pedig magában még csak képe sincs.
-
HSM
félisten
válasz
keIdor
#47137
üzenetére
"Egyetértek, G-Sync ment már 30Hz/30fps felett is, FreeSync sok termék esetén meg csak 48-120Hz/fps tartomány."
Ez Freesync-nél is ezer éve adott, LFC néven, gyakorlatilag akárhány FPS-től működik a szinkron, ha elég nagy tartományt tud a monitor. Ma már külön tier, Freesync Premium néven futnak ezek. (Nem változott semmi, csak lett egy szigorúbb feltételekhez kötött matrica a megfelelő termékekre [link] .) A sajátom is ilyen, 48-144Hz-ig tud a panel, de mivel aktív az LFC, így vajsima 25-30FPS-el is, nyilván amennyire sima tud lenni 25-30FPS.
Nyilván nem a legolcsóbb freesync monitorok tudását érdemes összehasonlítani a G-syncesekkel, hanem hasonló képességű panellel felszerelteket.A G-sync modul előnye szvsz kizárólag az volt, hogy az overdrive-ot tudták vele frekvenciafüggően változtatni, ami sokáig biztosan hiányzott a Freesync megoldásokból. De ez a feature szvsz sehogy sem ér meg egy 300 dolláros modult, főleg szabvány kompatibilitás nélkül.
-
HSM
félisten
válasz
FLATRONW
#47124
üzenetére
Összedugják a fejüket, hogy milyen adatokból, a futószalag melyik pontján kéne egy ilyen technológiának szerepelenie, és milyen kimenetet kell adnia a játéknak. Onnantól kezdve a belső működés már mindenki magánügye lehetne. A DLSS is maradhatna a saját technológiájuk, az FSR is maradhatna nyílt.
A játékfejlesztői wrapperek és a streamline is ezt próbálja, de ez utólag már foltozgatás, ezt előre kellett volna jó alapokra építeni, ami mindegyik érintett igényeinek megfelel."Az a baj, hogy közös szabvány esetén nem igazán tudnának egymással versenyezni."
Miért ne tudnának? Mennyire terheli a hardvert, milyen a képminőség, temporális stabilitás? Bőven van hol versenyezni.#47125 b.: Ezért kéne összeülni, megegyezni.
#47126 FLATRONW : Miért ne lehetne? Régen ilyen volt pl. az anizotróp szűrés. Szabvány volt, de bizonyos VGA-kon jobb minőségben dolgozott. Pl. a HD6800-6900 széria ezen javított az előző generációs Radeonokhoz képest [link] .
#47129 Busterftw : Nem tudom, mit akarsz bizonyítani a listáddal. Talán azt, hogy évek óta van szabvány és innováció is? Miközben ezt tudom írni egy USB-C-s dokkolóról, USB-A-s perifériákkal?

#47133 Busterftw : A scaler ugyanúgy működhetett volna szabványos alapokon, sok fejfájást megspórolva az érintetteknek. De inkább a lock-in-t preferálták.
-
HSM
félisten
válasz
Busterftw
#47117
üzenetére
"Ha az Nvidia kozos interfacen egyezkedett volna a konkurnciaval, akkor nem lenne most RT-ben es AI felskalazoban elonyben."
Pedig RT-re ott van a közös interfész (DXR/Vulcan), ahogy egyébként Ai-ra is (DirectML), és mindkettőben előnyben vannak."Nem tudom mirol beszelsz"
Arról, hogy az FSR3 FÉK FRÉM generátora működni fog az előző generációs kártyáikon, így majd nyugodtan kipróbálhatom ha majd megjelent az RX 6800XT-men.
Míg, akik a nagy innováció hajtotta gyártó konkurens RTX3080-asát vették, azok vehetnek új kártyát a DLSS3-hoz, mert abban még nincs megfelelően innovatív OPTIKFLÓ AKKELERÁTOR.
-
HSM
félisten
válasz
Busterftw
#47108
üzenetére
"ha kezdetektől fogva közös szabványon keresztül kellene ennek piacra jutnia, akkor most vastagon szopnának az Ada userek."
Hibás az érvelésed. Ha előre megegyeznek egy jó interfészben, akkor teljesen mindegy, mikor készül el az AMD megvalósítása."Ehelyett az Nvidia üti a vasat, innovál és kijött vele, mert kész volt."
Akarod mondani, mert kellett valami duma, miért is vegyenek az emberek TENZOR kóros RTX VGA-t?
Most persze megint vehetnek új RTX4000-et mert abban OPTIKFLÓ AKKELERÁTOR is van FÉK FRÉM generálni.
De legalább dübörög az innováció.

-
HSM
félisten
válasz
Busterftw
#47102
üzenetére
"ha valamibe mindenki úgy nyúlhat bele és változathatja ahogy jónak látja, abból hogy akarsz szabványt"
A szabvány az interfésznek kell, hogyan kell pl. etetni adattal egy ilyen technológiát, és annak hogyan kell adott adatokkal működnie. Innentől mindenki szállíthatná a saját megoldását alá, és csak egyszer kellene a fejlesztőnek szívni a beépítéssel, karbantartással.
Ha egy ilyen open source megoldásba a fejlesztő belenyúlna, onnantól az ő felelőssége lenne, hogy továbbra is megfeleljen a szabványos interfésznek a működés.
"Ez pont az innovációt ölné meg, hiszen nem lenne verseny."
Miért ölné meg? A versenyt éppen a zárt technológiák és licenszfeltételek ölik meg.
Lásd USB-C. Bár vannak kifogásaim vele, de be kell lássam, pokoli kényelmes és környezetbarát, hogy egyetlen komolyabb USB-C töltővel/dokkolóval minden USB-C eszközt tudok itthon tölteni. Szemben a korábbi gyakorlattal, hogy ahány kütyü, annyiféle töltő hozzá. A verseny is köszöni szépen, jól van, USB-C-s telefon/tablet/notebook/powerbank és töltő/dokkoló oldalról is. Sőt, notebook téren még javult is a verseny, mivel pl. dokkolóból már nem csak az adott gyártó sokszor típusspecifikus dokkolóját (vagy töltőjét) tudod megvenni, hanem ha vettél egy általános USB-C dokkolót az minden épkézláb dokkolható USB-C-s notebookhoz jó lesz.
-
HSM
félisten
válasz
Raymond
#47087
üzenetére
Van valami, amit nem vettem észre az összehasonlításnál [link] ?
Witcher 3 next gennel teszteltem én is.
Tudom, temporálisan valamivel stabilabb a DLSS, ha valaki erre kényes annak ez pozitívum lehet..#47086 FLATRONW : Az véletlenül sem opció, hogy esetleg leüljenek egy asztalhoz a nagy innováció közepette és találjanak egy közös megoldást? Ami mondjuk nem hoz licensz ügyileg sem potenciálisan lehetetlen helyzetbe bizonyos fejlesztőket?
Ha már ennyire fontos annak a bizonyos minőségre rendkívül érzékeny rétegnek a kicsit kevésbé rossz minőségű skálázójuk?
-
HSM
félisten
válasz
FLATRONW
#47080
üzenetére
Először is, senkitől nem akarok elvenni semmit...
Másfelől elég érdekes az álláspontod, miszerint azt írod az FSR-re hogy "az tényleg egy hulladék megoldás", ugyanakkor azt várod, hogy a konkurencia megoldása meg jó legyen?
Ugyan mitől lenne jobb, ugyanezt csinálja.
Én a saját szememmel láttam, melyik mit tud, a nagy szakadék ott van, amikor nem natívban indítod, az FSR/DLSS között viszont már nagyítóval kell keresni a különbségeket...
Egyébként a szabvány sem azt jelenti, hogy csak egyformán sz@r megoldása lehet mindenkinek...
#47081 Busterftw : Úgy, hogy két különböző, független dolgot jelentenek.
#47084 FLATRONW : Én 1080P-n és 1440P-n próbáltam őket. De 1080P-n már alapból nagyon kevés a pixel, onnan hova csökkented már?
-
HSM
félisten
"Te egyetlen oldalról szemléled"
Szoftverfejlesztőként és felhasználóként ebből a két szempontból nézem a dolgok alakulását. Számomra irreleváns, melyik cég logója van valamire rárakva."Ráadásul nem értetted meg amit írtam"
Ó, dehogynem. Neked nem esett le, (ezek szerint még mindig nem), hogy miért tökéletesen irreleváns, mi lesz a technológia jövője a mai játékok szempontjából, amik a jelenlegi verziót használják.Aki a nyilvános verziót most letölti és beépíti, az használhatja később is, hiszen a licensz lehetővé tette ezt. Egyébként ez nem GPL, hanem egy egyedi licenszkonstrukció.
"Ki nem sz@rja le hogy a fejlesztőnek ez mivel jár ? "
Szomorú, hogy nem látod az összefüggést. Ha a fejlesztő ideje arra megy el, hogy ugyanazt a funkciót háromszor is megcsinálja, majd karbantartsa, akkor éppen ennyivel kevesebb ideje marad pl. jobb minőségű kódot írnia más, hasznosabb aspektusokból.
Ha nagyon le akarom egyszerűsíteni, ha te bemész a boltba 1500Ft-al a zsebedben, akkor ha van kis eszed nem 3 csomag felvágottat fogsz venni belőle vacsorára, hanem csak egyet, és akkor marad kenyérre is mellé. Egy játék fejlesztésénél ugyanígy van egy keret, amit be kell osztani a különféle feladatokra.
-
HSM
félisten
válasz
keIdor
#47074
üzenetére
Tensor core az kb. annyit tesz, mátrix szorzás. Az RDNA3 már direkten gyorsítja is a feldolgozását [link] , több részlet: [link] .
Idézet az Ada white paperjéből: "Tensor Cores are specialized high performance compute cores that are tailored for the matrix multiply and accumulate math operations that are used in AI and HPC applications. " [link]Nyilván régebbi architektúrákon kevésbé gyorsítana, mivel a dedikált kihasználatlan hardver helyett a feldolgozás egy (elvileg nem túl nagy) része az általános feldolgozókon futna, és RDNA előtti vasakon az adatformátum támogatása sem lenne feltétlen ideális.
-
HSM
félisten
"Az AMD eljárása, szellemi terméke, pont ugyan úgy ki vagy szolgáltatva a döntéseiknek a jövőben és a jelenben és az általuk nyújtott minőségnek és szolgáltatásnak."
Ezek szerint azt sem tudod, mit jelent az, hogy open source?
Nem is baj, csak akkor nem kellene butaságokat állítani, mintha tudnád....
A lényeg itt az, hogy mivel szabadon elérhető, beépíthető és módosítható a forráskód, így a fejlesztő teljes szabadsággal alakíthat rajta, illetve teljes mértékben a kontrollja alatt marad a működés, amibe az AMD-nek, mint az eredeti kód szerzőjének semmiféle beleszólása, vagy ráhatása nincs, és nem is lehet. Világosan le van írva a néhány soros licenszben: [link] .
Ahol te, mint fejlesztő totálisan ki vagy szolgáltatva, az éppen a DLSS, mivel akár kívülről a driver is cserélgetheti a futó kódot az alkalmazásod lába alatt, és egy jópár, a többszáz soros DLSS licenszből fakadó kötelezettséget is kapsz a nyakadba, mert ugye ennek a használata licensz köteles is!
Pl. jogot adsz az Nv-nek, hogy a te appoddal reklámozzák magukat.
Képzeld el ezt mondjuk egy AMD-exkluzív címnél, és csodálkoztok, hogy ebből nem kérnek...

Le van világosan írva, bár nem olyan szép elegáns, rövid szöveg, mint az FSR-é: [link] .A versenyt alapvetően jó dolognak tartom, nyilván, ugyanakkor ennek a szabványok betartásával kellene megvalósulnia. A végfelhasználónak is ez lenne az érdeke, nem az, hogy a zárt, gyártóspecifikus technológiával egy hajszállal kevésbé rossz képminőséget kap.

Minél több ilyen különutas, ráadásul zárt megoldás kap teret a szabványok kárára, a piacnak annál rosszabb. Ezek éppen a versenyt korlátozzák. Az RT, amit felhoztál azért is jó példa, mert bár az Nv képességeire lett szabva az API, de legalább lett szabvány. Így pedig lett verseny és a fejlesztőknek sem kell kétszer dolgoznia vele.#47072 keIdor : Tény, vannak nagyon rossz TAA implementációk, plusz a DLSS része lehet élesítés is. De ilyenkor nem feltétlen a DLSS-t kellene követelni, hanem egy szép TAA implementációt, esetleg (lehetőleg szabványos
) élesítő szűrő beépítését.Ez egyébként nagyon tetszik a készülő FSR3-ban, hogy lehet kapcsolgatni a funkciókat, ha jól értettem. Felskálázás legyen vagy csak natív AA + élesítés, legyen-e fake frame generátor.
Persze, a natív AA-t már tudta az FSR2 is (opcionálisan), vagy a DLSS DLAA néven. -
HSM
félisten
"Azért vagy annak a híve mert nem szereted magát az eljárást használni és mert te megkapod a kártyádhoz elérhető legjobb minőséget."
Óriási tévedés. Volt egy 12GB-os OC RTX3060-asom is és mikor némi tesztelés után eldöntöttem, hogy a RX6800XT-m tartom meg akkor FHD-n RT-vel, Quality DLSS-el nagyságrendileg hasonlóan gyors volt, mint a 6800XT natívban. 5 számjegyű összeg maradt volna a zsebemben, ha a DLSS (számomra) élvezhető képet adott volna a natívval összehasonlítva. De nem adott, így a lényegesen olcsóbb 3060 ment az apróra.
Lásd részletesebben: [link] .Kabarénak tartom, hogy ekkora ügyre van ez felfújva itt, amikor a DLSS(2) is rosszabb a natívnál, és csak minimálisan jobb a gyártófüggetlenül is remekül működő FSR2-nél.

A párszor több, minőségre vágyó RTX kártya tulajnak pedig üzenem, létezik natív renderelés is, csillámporos felskálázás nélkül is.
"Mindhárom eljárásnak ott kellene lennie egy játékban"
Óriási tévedés. Egy problémára jó esetben egy, gyártófüggetlen eljárásnak lenne helye minden játékban. Minden további alapvetően erőforrás pazarlás. -
HSM
félisten
válasz
huskydog17
#47060
üzenetére
Gondolod, hogy a játékfejlesztők tapsolnak örömükben, hogy háromszor is dolgozhatnak ugyanazzal a marhasággal?
-
HSM
félisten
válasz
Busterftw
#47055
üzenetére
Nem erről beszéltem, hanem hogy a DLSS-t nem lehet bekapcsolni bármelyik más gyártó termékén. Tehát a fejlesztőnek többletmunka, ami pedig értelmetlen és rossz a játékosok szempontjából. Igazából ez az, ami igazán értelmetlen, nem az, amikor a DLSS nincs beépítve, hanem helyette egyetlen, olyan megoldás, ami minden kártyán működik.
#47056 huskydog17 : Én a korábbi vitában arra jutottam, hogy egyrészt nem tudunk semmi biztosat, másfelől hogy én biztos nem építeném be a játékomba a DLSS-t azokkal a licensz feltételekkel, amiket az Nv előír. Főleg viccesek lennének azok, amik szponzorált címek, én sem szponzorálnék olyan játékot, ami a konkurencia logójával indul, és az egyebek.

-
HSM
félisten
válasz
huskydog17
#47051
üzenetére
"Ezt úgy írtam, hogy az exkluzivitás értelmetlen és rossz a játékosoknak."
Ugyanúgy, ahogy a DLSS exkluzivitása is...A natív felbontáshoz szerintem ma már elvárható egy jó minőségű TAA megoldás.
-
HSM
félisten
válasz
huskydog17
#47049
üzenetére
Ezt most úgy írtad, mintha képtelenség lenne natív felbontáson, skálázás nélkül játszani...
Főleg növényzet elég gyatrán tud kinézni bármilyen skálázóval a natívhoz képest... -
HSM
félisten
válasz
Petykemano
#47044
üzenetére
Szerintem mindkét generáció rendben lenne, kivéve az árakat...
-
HSM
félisten
Elolvastam.
Jó 'móka' lesz. De a gyártó dolga lett volna erre idejében, megfelelően felkészülni.
A felhasználóhoz kerülő eszközök alapvetően sosem tekinthetőek megbízhatónak... Talán csak a kifejezetten erre kifejlesztett céleszközök kivételek, de aminek a feltöréséről szó van, az látványosan nem ez a kategória... De nem vagyok meglepve, ismerve a gyártót és a vezetőjük módszereit...
Biztos ezen is lehetett spórolni pár dollárt... ![;]](//cdn.rios.hu/dl/s/v1.gif)
-
HSM
félisten
válasz
Valdez
#46911
üzenetére
Nálam a BFV-nél az RT működéséhez a 6800XT-mre egy több, mint 2 éves drivert kell felrakjak...
Érdekes mód azzal tökéletes, újabbakkal meg eltűnnek kompletten az RT effektek. Igen, ezer éve is küldtem már róla több ticketet is, eddig semmi változás... 
Más is belefutott: [link] . Jó lenne, ha nem lennének ilyenek... -
HSM
félisten
válasz
Busterftw
#46873
üzenetére
"Illetve az Nvidia direkt kihozott crypto only cuccot, ami nyilván sokat nem ért, de legalább próbálkoztak."
Mivel próbálkoztak? Elárulom, több hasznot termelni maguknak a GF-okon tiltással, majd szállítva emelt áron a "megoldást" a saját tiltásukra, amit ráadásul nem lehetett gémereknek olcsón eladni később (hint: mégtöbb gamer eladás).
-
HSM
félisten
válasz
huskydog17
#46844
üzenetére
"Sőt szerintem számítógépet se használj, mert bármilyen fájlt meg lehet fertőzni."
Remélem megvan a különbség, amikor valaki megbízható forrásból származó DLL fájlokat használ szemben az innen/onnan letöltött, vagy moddolt forrásokról.
"Én azt hittem eladásokból él, de akkor lehet tévedtem."
Óriásit. A kiadó él az eladásokból, a fejlesztő pedig a fejlesztésből."Az upscaling nem zárja ki a jó képminőséget ahogy te írod."
Kinek mi a jó képminőség ugyebár. Nekem a 1440P monitoromon a natív 1440P. Próbáltam az FSR2 és DLSS2-t is, egyik sem győzött meg."A gyakorlat az ellenkezőjét mutatja."
Látványosan nem sikerült érvet is raknod az állításod mellé...."játékokban brand cég logó van a stáblista végén, ahol több logó is van? A többi nem zavar?"
Nem is értem, hogyan jutottál ilyen marhaságra, mint végkövetkeztetés.
Nem az a kérdés, engem mi zavar, hanem az, hogy a különböző jogi megkötések esetlegesen mit lehetetleníthetnek el."A nagyobb black box érdekes módon nem zavar téged"
Az a játék, amit megvásároltam.
"a kisebb black box, ami szintén egy szellemi végtermék, amit a készítők a játékélmény növelésére használnak"
Az aztán a játékélmény növelése, hogy rosszabb minőségű képet bámulhatsz.
-
HSM
félisten
Megint összekevered a szezont a fazonnal... Licensz helyett linkelsz egy developer guide-ot...
A Streamline egy keret, ezekszerint csináltak egy opensource keretet, amit én is javasoltam, ez nagyon hasznos.
A probléma, hogy ettől még a DLSS ugyanúgy licensz köteles marad, csak a keretnek nincs külön license, azaz a Streamline-nak.
Lásd, itt a hivatalos fejlesztői oldal: [link] , itt a "NVIDIA DLSS End User License Agreement" néven megtalálod a licenszt, amit linkeltem Githubról korábban. -
HSM
félisten
"ha van AAA játék, ahol nincs ott a logó és van benne DLSS, akkor biztosan nem kötelező"
Semmi nem akadályozza meg a kiadót, hogy megpróbáljon magának az általánostól kedvezőbb licenszfeltételeket kialkudni a jogtuladonostól, és hogy akár kapjon is, ha a zöldeknek is megfelel az ajánlat. Így ennek bizonyító ereje nincs arra nézve, általánosan kötelező-e avagy sem. Fontos azonban észrevenni, hogy ebben az esetben a jogtulajdonos (zöldek) vannak alapvetően döntési helyzetben, és nyilván NDA alatt lesz, a megállapodás, vagy annak esetleges kizáró tényezői és feltételei is, hiszen ezek alapvetően üzleti titkok. -
HSM
félisten
válasz
Raymond
#46794
üzenetére
Szerintem a jogászkodós részt ismét az Nv nyerte.
Ők nem tiltanak semmit, mossák kezeiket, csak csendben a licenszfeltételekkel ellehetetlenítik magukat a konkurencia szponzorálta címekben. Ügyes, ahogy általában.
Nem kell az AMD-nek tiltania ehhez így már semmi konkrétat. -
HSM
félisten
válasz
Raymond
#46792
üzenetére
A szponzori szerződések általában tiltják a konkurencia reklámozását. Így viszont indirekten az Nv zárja ki magát ezekből a szoftverekből a licenszfeltételei miatt.
Ilyenkor ki tilt mit? 22-es csapdája.FSR-nél nincs kötelező reklám, meg semmi, így azt tényleg "könnyű" belerakni a zöldek szponzorált címeibe is akár.
-
HSM
félisten
válasz
Raymond
#46788
üzenetére
"Nem tiltjuk, mindenki azt epit be amit akar."
De azért a logó kötelező a splash screen-en....
Tehát nem tiltjuk, de némi reklám kötelező a beépítésért. Mint tettem rá utalást, szponzori esetekben ez elég hülyén jön ki."NVIDIA Trademark Placement in Applications with the DLSS SDK or NGX SDK. For applications that incorporate the DLSS SDK or NGX SDK or portions thereof, you must attribute the use of the applicable SDK and include the NVIDIA Marks on splash screens, in the about box of the application (if present), and in credits for game applications."
Plusz az Nv is felhasználhatja a címedet marketingre: "You hereby grant to NVIDIA the right to create and display self-promotional demo materials using the Assets, and after release of the application to the public to distribute, sub-license, and use the Assets to promote and market the NVIDIA RTX SDKs."
[link]
Arra célzok csak, hogy nem olyan egyszerű és magától értetődő a szituáció, mint ahogyan az Nv-s válasz sejteti... -
HSM
félisten
válasz
Raymond
#46783
üzenetére
"AMD szponzoralt cimekben nem enged beepiteni mas felskalazo algoritmust mint az FSR"
Lehet, felszínesen követtem az eseményeket, de ez bizonyítást úgy emlékszem nem nyert végül.
Egyébként kicsit hülyén is venné ki a DLSS licensz alapján kötelező Nv logó a splash képernyőn az AMD-s mellett, nem?
Én ha szponzorálnék egy címet biztosan nem örülnék neki."Az FSR nem ugyanaz a minoseg"
Nem is írtam mást. Ugyanakkor szvsz vitán felüli, hogy jó a minősége, és amit állítottam, hogy hardverfüggetlenül ugyanazt a minőséget hozza. Pl. a DLSS hozza a legrosszabb minőséget más hardveren (semmilyent
), az XeSS is rosszabb, ha nem a gyártó hardverén fut. Az FSR-nél nincsenek ilyenek. -
HSM
félisten
"Az SDK szabadon hozzáférhető ,a legújabb is Githubon."
Én is láttam Githubon az SDK-t, DLL-t. Ahogy a licenszfeltételeit is.
"szerinted tehát sokkal jobb ha nincs abszolút,mint hogy beletegyék a modderek"
Szerintem az lenne a jó, ha lenne erre egy gyártófüggetlen megoldás, ami mögé a gyártók igény szerint tehetnék a saját megoldásukat. Így a szoftverfejlesztőknek is egyszer kellene dolgozni, és minden gyártó belerakhatná a saját tudása szerint legjobb megoldást."Arról van szó, hogy a felskálázást aki használja annak mi a jobb."
Szóval ragaszkodunk a rossz képminőségből a legjobbhoz. Logikus. Én itt kiszálltam a vitából, mert kész kabaré.
-
HSM
félisten
"A szoftverfejlesztés hatalmas terület ne húzz már rá mindent egy kaptafára."
Úgy látom, még mindig nem esett le, hogy úgy tűnik, jobban ismerem a területet, mint te...
"Azaz ha van FSR 2.0 semeddig nem tart beépíteni a DLSS-t"
Úgy látom, az sem ment át, hogy nem elég csak beépíteni."belehekkelt DLSS támogatása lelkes rajongók által"
A lelkes rajongók utána supportálják is, ha gond lenne vele? Költői kérdés volt...
A black box nem azért rossz, mert nehéz beépíteni, hanem mert nehéz karbantartani, mivel nem látsz bele a működésébe, és nem tudsz módosítani rajta, ha szükséges lenne."...hogy nektek, radeon kártya tulajdonsoknak jobb legyen."
Nekem, mint aktív Radeon Rx 6800XT, és nem olyan rég még RTX 3060 12GB tulaj is az volt a jó, amikor egyik felskálázást sem kapcsoltam be, mert látványosan romlott a képminőség egy minőségi natívhoz képest. Nekem fontos a jó képminőség, így inkább játszom kicsit alacsonyabb, de felskálázás nélküli felbontáson. A 1440P-s monitoromon ugyanúgy fut skálázás nélkül is pl. natív centered 1188P is, kicsit kisebb, de legalább éles. Majd veszek erősebb kártyát, ha ennél több kompromisszumra lenne szükség.
Ezért sem értem ezt az ölre menő viszonyulást, a jó képminőség a natív, innentől nem gondolom akkora jelentőségűnek, hogy egy fél hajszálnyival kevésbé rossz a DLSS képe a natívhoz képest, mint az FSR2-nek. Nevetséges az egész. -
HSM
félisten
"Ne a fejlesztők szempontjából érveljünk már mert azt nem látjuk, te sem"
Ezt ugyan miből gondolod?
Azt látom, hogy itt sokaknak fogalmuk sincs, hogyan néz ki egy szoftverfejlesztési projekt, de én nem tartozom ezek közé."de a felhasználóknak ez jobb szerinted?"
A felhasználónak szerintem az a jó, ha jó játékok készülnek és verseny van a GPU-piacon. Ahhoz pedig az vezet, ha gyártófüggetlen megoldások vannak, és egy problémára elég egy megoldás, és nem kell 3-félét is pátyolgatni. -
-
HSM
félisten
válasz
huskydog17
#46728
üzenetére
"??? Hogy jön ide ez a téma, mi alapján gondolod ezt? Mindegy is, mert egyrészt nonszensz, másrészt irreleváns ez a gondolat, ugyanis a DLSS az NV saját terméke, nyilván ők azért készítették ilyen felhasználóbarátra és modulárisra, mert nincs jogi akadálya."
Jó volna, ha utánanéznél előtte, van jópár jogi vonatkozása. Lásd: [link] .
Ami meg a biztonságot illeti: [link] . Ennél könnyebben nem is nyithat valaki hátsó ajtót a gépére, mintsem egy nem megbízható/ellenőrizhető forrásból származó DLL-el...
"Ha nem akarsz forráskóddal szöszmötölni (márpedig a legtöbb játékfejlesztő nagy valószínűséggel nem akar)"
Miből gondolod, hogy nem akar? A játékfejlesztő a forráskódból él.
Komolyabb projektekben a fejlesztők éppen a fekete-dobozokat nem preferálják. Azzal nincs előrébb a fejlesztő, hogy akkor sem tud belenyúlni a működésbe (a DLL-be), ha szükség lenne rá."Arról van szó, hogy ha a felhasználó upscaling-et szeretne használni"
Te érveltél itt a minőségről. Erre én azt mondom, aki minőségre vágyik, engedje el az upscaling-et. Ha nem elég most a 4090, akkor ez van, attól nem lesz minőségibb az upscaling, hogy kevés a VGA a megcélzott beállításokhoz. Ha pedig a minőség mégsem annyira fontos, az FSR-el is bőven vállalható képminőség érhető el."a DLSS-t nagyon egyszerű beépíteni, egy tapasztalt játékkészítő pár perc alatt is be tudja építeni, az pedig nem lehet nagy költség"
Nemcsak beépíteni kell, hanem utána esetlegesen karbantartani a játék részeként, plusz a jogi szöveg értelmében pl. a betöltő képernyőn is logót elhelyezni és tájékoztatni az Nv-t a használatról."Még egyszer érdemes zárójelben megjegyezni, hogy a játék amivel játszol szintén egy black box. Azzal nincs problémád?"
Nincs. A játék egy végtermék, amit használsz. Valamint abból nem is készülhet általában újabb játék.
#46727 Busterftw : 2080Ti körül szokott lenni RT-ben a 6800XT...
-
HSM
félisten
válasz
-FreaK-
#46721
üzenetére
Én ha megnézek egy 4K tesztet, azt látom, hgy alig van különbség. Megnézek egy 720P-t, esetleg 1080P CPU tesztet 4090-el egyből látom, hol van még tartalék és mennyi.
Úgy is mondhatnám, ha tudom, mit tud a proci 720P-n Ultra-n, és tudom, mit tud a VGA a kiszemelt felbontáson, szintén Ultra-n, abból ki tudom sakkozni, mit fog tudni a rendszer, viszont ha mindent a célfelbontáson néznék, akkor a vegyes limit nagyon moshatna.... -
HSM
félisten
válasz
huskydog17
#46706
üzenetére
"akkor saját maga (tehát a felhasználó, a játékos) kicserélheti kedve szerint bármelyik verzióra"
Itt azért felmerülnek problémák, akár jogi, akár biztonsági szempontból."...ezzel a DLSS teljesen automatikusan lefrissíti magát, a fejlesztőnek nem kell vele foglalkozni. Ez a fejlesztőnek és a játékosnak is jó."
Nyilván látták, hogy a kézi DLL cserélgetés problémás, megoldották, bár azért nem az igazi, hogy csak fejlesztői jóváhagyással működik. Persze, hogy ez mennyire jó, azzal lehetne vitatkozni."a fejlesztők túlnyomó többsége a büdös életben nem fog nekiállni átírni az FSR forráskódját"
Miért kéne átírják?
A nyílt forráskód nem csak az átírás lehetőségéről szól, hanem fontos a könnyebb hibakezelés, és hogy nincsenek külső DLL-ek sem."A felhasználóknak inkább a "feketedoboz" kell, mert egyszerűen jobb minőséget ad."
Ahelyett, hogy vennének egy normális videókártyát, amihez nem kellenek ilyen szuboptimális megoldások, és elbírja natívan.... Ha már fontos a minőség, ugyebár.
"ha egy játékban kizárólag FSR-t teszik elérhetővé, ezzel csak a játékossal (vásárlóval) szúrnak ki"
Egy kiadónak minden technológia beépítése plusz költség, amit utána karban is kell tartani. Persze, kiszúrásból is kimaradhat, de azért más szempontból ez is egy őrület, hogy ugyanarra a feladatra rakjanak bele 3-féle megoldást is. Aztán meg csodálkozunk, hogy a mai játékok tele vannak feature-ökkel, aztán a fele nem működik kiadáskor....
Említetted az Nv piaci részesedését, itt azért hozzátenném, hogy a DLSS-hez RTX kártya kell, ami nyilvánvalóan lényegesenen kevesebb, mint a teljes piaci részesedésük. Én ezt is hátránynak látom, a black box jelleg mellett.#46709 b. : A gond, hogy akkorát nem ugrottak, mint a felhasználói igények... Legyen magas felbontás, pl. 4K az 4X annyi számolnivaló pixel, mint a FHD-n, legyen magas frissítés, sokan tolják 144Hz vagy gyorsabb megjelenítőn, legyen realtime RT, régen egyetlen sugárkövetett képkockára perceket vártál....
#46711 gejala: Lehet azért, mert közben 60%-al drágább is lett.
-
HSM
félisten
válasz
Petykemano
#46696
üzenetére
A dedikált gyorsítós dolog szerintem mellébeszélés. Valahol megnézték, és nem sokat használt a DLSS sem. Persze így lehet mondani, hogy nem csak dísznek rakták bele a tensor magokat....
Ami a többit illeti, én úgy látom, más a fókusz. A DLSS egyértelmű jó képminőségre és RTX-exkluzívitásra ment, az FSR viszont inkább arra lett célozva, hogy a lehető legkevesebb erőforrást vegye el a GPU-ból, miközben jó eredményt ér el (konzolok) és bármin fut. Az XeSS általános módja lényegesen több erőforrást használ el, és ezáltal az is ma már sokak szerint jobb minőséget ad, mint az FSR, de ilyenkor már nem is biztos, hogy megéri használni. Valahol olvastam erről egy alapos tesztet, de nem emlékszem már hol. Ez is jó kiindulási alap, bár régebbi: [link] .
-
HSM
félisten
válasz
huskydog17
#46694
üzenetére
"DLSS out of the box jobb minőséget ad és ráadásul felhasználóbarátabb"
Én nem nevezném felhasználóbarátnak, hogy kizárólag Nv kártyákon működik."...a DLSS esetében nem kell foglalkozniuk a frissítéssel"
Miért ne kellene? Ugyanúgy igazítaniuk kell verzióváltáskor, illetve ellenőrizni a minőségét. Lásd pl. legutóbb ez a frissítés egész biztosan fejlesztői igazítást igényelt: [link] ."míg FSR esetében minden felelősség a játékfejlesztőké"
Sok fejlesztő nem szereti a feketedoboz jellegű külső csomagokat. Nincs rá hatásuk, nem látnak bele a működésébe, így ha problémát okoz, akkor nekik is nehezebb helyrehozni. -
HSM
félisten
-
HSM
félisten
Nem-nem.
Nem az EXPO profil, hanem az AMD ajánlás, hogy a lapok a profillal a memória feszültségén hajtsák a SoC-t.Ahogy b. is linkelte: "This is not stored in EXPO but this information is a recommendation from AMD and all motherboard vendors inherit this recommendation. Now the probability of CPU failure is saved with any kit that runs at 6400 frequency. VSOC is always 1.4 which is a lot."
-
HSM
félisten
válasz
Devid_81
#46478
üzenetére
A SoC lett elvileg túlfeszelve, ami üzemzavart okozott. Elvileg az volt az AMD ajánlása, hogy a dram feszén menjen EXPO profilnál, és pl. az 1.4V-os kitek megsütötték a SoC-t, amitől az nem védte meg a CPU-t a leégéstől. Nem is értettem korábban az AM5 topikban ezeket az 1.3V feletti SoC feszeket, most már látszik, hogy 1.2V körül is elmennek, és elvileg nem is ajánlott 1.25V fölé menni. A kérdés, ez hogyhogy csak most derül ki, több, mint fél évvel a launch után....

-
HSM
félisten
válasz
MasterDeeJay
#46449
üzenetére
X99-nél emlékeim szerint általános gond volt, hogy a rendkívül torkos CPU-k mellé rendkívül kevés hely maradt a lapokon VRM-nek a négycsatornás memória kialakítás miatt hely szűkében, így az erősebb túlhajtásra hajlamosak volt ez-az elpukkanni...
Az általad említett keresés csak pletykákat dobott ki nekem, semmi megerősített széria-problémát.
-
HSM
félisten
válasz
Busterftw
#46398
üzenetére
"duplaszeles busz es hasonlok teljesen irrelevansok"
Nagyon is, hogy relevánsak. Ezek amiket írtam határozzák meg az előállítási költséget, így végeredményben ebből lehet sejteni, mennyire van lehúzva a vásárló....
Nem véletlen húzza a száját a mostani árazásokon kb. minden jóérzésű techportál.A 3070-hez képesti gyorsulás örvendetes, a gond, hogy közben az ár 500$ helyett bő 800$ lett vagy ha úgy tetszik, 60%-al magasabb...
-
HSM
félisten
válasz
Busterftw
#46393
üzenetére
Pici VRM, pici RAM, pici GPU, ezek régebben szintén a 60-as széria jellemzői voltak. Ami itt nem jött át, az a korábbi 60-as széria ára. Eközben annyiért adják, mint a korábbi generáció duplaszéles buszával és duplaakkora GPU-jával komolyabb VRM-jével szerelt azonos memóriafajtájú és memóriaméretű modelljét.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Windows 11
- Építő/felújító topik
- E-roller topik
- Nem akármilyen módon ugrik rá a memóriapánikra a Valve
- Milyen egeret válasszak?
- Milyen monitort vegyek?
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- A fociról könnyedén, egy baráti társaságban
- Xbox tulajok OFF topicja
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- További aktív témák...
- Apple iPhone 11 Pro Max / 256GB / Kártyafüggetlen /12Hó Garancia / Akku:84%
- Bomba Ár! Fujitsu LifeBook S760 - i5-520M I 4GB I 160GB I DVDRW I 13,3" HD I HDMI I W10 I Garancia!
- Telefon felvásárlás!! iPhone 12 Mini/iPhone 12/iPhone 12 Pro/iPhone 12 Pro Max
- Dell Latitude 5440 14" Touchscreen i5-1235U 16GB 512GB 1 év garancia
- JBL STAGE 2 9634
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: ATW Internet Kft.
Város: Budapest








