Új hozzászólás Aktív témák
-
Busterftw
nagyúr
A modult ők gyártják és adják el a monitor/TV gyártóknak, a chipet (FPGA) nyilván nem, azt veszik.
Pl Igor's Lab megnézett egy G-Sync Ultimate monitort HDR 1000-el, ott egy Intel Altera Arria A10X volt.A modul sem fel évtizedes hiszen azóta frissült, volt belőle v2 majd a HDR miatt kellett újabb modul.
Wikin az eredeti hardver specifikáció teljesen más mint a cikkben lévő G-Sync Ultimate modul. -
Abu85
HÁZIGAZDA
válasz
Busterftw #236 üzenetére
Arról a váltásról, hogy már nem gyártják a saját lapkájukat. A legutóbbi verzió bemutatása óta eltelt 5 év, és azóta minden évben javítottak a saját lapkáikon a monitorgyártók. Nyilván nehéz lenne őket meggyőzni arról, hogy egy fél évtizede kiadott, sokkal drágábban gyártható terméket használjanak. Emiatt az NV már specifikál egy tear, és oda hitelesíti a partnerek lapkáit. Ennek két előnye van. Egyrészt nem kell gyártaniuk semmit, másrészt a hitelesítés ugyanakkora költség, tehát több pénzük lesz belőle, miközben a gyártók már használhatják is a modern fejlesztéseiket, nem kell ragaszkodniuk egy fél évtizedes holmihoz.
Ez nem azért van, hogy szar legyen a G-Sync nagyobb tierek, hanem azért, hogy jobb legyen, és nyilván egy múlt évben tervezett lapka jobb, mint az NV-nek a 2018-as fejlesztése, vagy a korábbi 2013-as. Viszont hitelesíteni kell, hogy megfelelő-e a specifikációknak.
-
Busterftw
nagyúr
Nem tudom milyen váltásról beszélsz, amit bemásoltam az a hivatalos Nvidia honlapján van, jelenlegi infó.
Ott az Nvidia azt hozta be (2019 eleje), hogy a Compatible plecsnit Nvidia processor nélkül maguk tesztelik és adják olyan monitoroknak, ami alap VRR élményt nyújt problémák nélkül (flicker, black screen stb).
A HDR miatt pedig jött egy újabb tier, de G-Sync/G-Sync Ultimate-nál Nvidia processor van.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #234 üzenetére
[link] - itt volt régebbről a váltás.
Ilyenkor hozta be azt az NVIDIA, hogy miket fogad el úgynevezett G-Sync processzorként. Ez azért volt nagyon fontos, mert korábban úgy utaltak erre, hogy latest G-Sync processzor, de mivel azt már nem gyártják, így szimplán van egy specifikáció, hogy a lapkáknak minek kell megfelelnie, és azt lehitelesítik NVIDIA G-Sync processzorként. Ezért nyilván fizetni kell. Viszont ezek a hardverek már nem a saját tervezésű processzoraik, hanem más gyártja, és kapnak egy hitelesítést a funkciók szerint. A régi klasszikus G-Sync processzorok már nincsenek ott ezekben az újabb monitorokban. Ennek a legfőbb oka az, hogy az eltelt időben már több nagyságrenddel olcsóbban is legyárthatók a megegyező képességek, de az NVIDIA nem tervezett belőlük újat. Így terveznek helyette a 3rd party cégek, ha érdekeltek ebben, aztán fizethetnek egy hitelesítést.
Ilyen formában az öszes G-Sync szint egy tesztkörnyezetet takar csak, amelyen belül különböző képességeknek kell megfelelni. De az NVIDIA már hardvert nem ad bele, hanem 3rd party vagy közvetlenül gyártói lapkákat hitelesít le, hogy jók-e a szinthez, vagy nem. Ez a megoldás egyszerűen sokkal olcsóbb. Valós hátránya sincs egyébként, mert igazából semmit olyat nem tudott az NVIDIA saját hardvere, amit más gyártó lapkájával ne tudnának megoldani. Már csak azért sem, mert amióta kifejlesztették az utolsó saját lapkát, azóta eltelt fél évtized.
-
Busterftw
nagyúr
Az Nvidia honlapján nem ez szerepel.
A G-Sync és G-Sync Ultimate monitorokban Nvidia scaler van.G-SYNC Ultimate
Features the top NVIDIA G-SYNC processors to deliver the very best gaming experience, including lifelike HDR, stunning contrast, cinematic color, and ultra-low latency gameplay.G-SYNC
Features a NVIDIA G-SYNC processor to deliver an amazing experience with no tearing, stuttering, or input lag. Enthusiasts and pro-level gamers can count on full variable refresh rate (VRR) range and variable overdrive for pristine image and outstanding gameplay.G-SYNC Compatible
Doesn’t use NVIDIA processors, but have been validated by NVIDIA to give you a good, basic variable refresh rate (VRR) experience for tear-free, stutter-free gaming. -
Abu85
HÁZIGAZDA
válasz
Busterftw #231 üzenetére
Már valóban nincs eredeti G-Sync modulos monitor. Az NVIDIA 2019 eleje óta nem követeli meg.
Mind az RDNA 2-ben, és a Turing, Ampere, illetve Ada architektúrában ugyanott vannak az RT magok: a textúrázó mellett. Ebből a szempontból egyik architektúra sem különbözik. Az RDNA 3-ba is ugyanott lesznek, illetve az Intel Arc-ban is ugyanott vannak.
A különbség az AMD és az NV megoldása között nem ez, hanem az, hogy az NV a bejárást fixfunkciósra tervezte, míg az AMD programozhatóra. -
Busterftw
nagyúr
Süllyesztőbe?
Él és virul, sőt érkezett új HDR tier a G-Sync Ultimate.
Bármikor vehetsz dedikált scaleres G-Sync monitort vagy TV-t.PuMbA
Azért nem teljesen ugyanaz a kettő :
"the RT Cores are dedicated separate hardware cores that have a singular function, while the Ray Accelerators are a part of the standard Compute Unit structure in the RDNA 2 architecture." -
Busterftw
nagyúr
Csak ugye azt is kell nézni, hogy "mennyi" RT fut.
Lásd a Portal RTX:
"Unlike with Quake II RTX, Portal with RTX implements fully ray-traced lighting, which means every light-source across the game is ray traced, and isn't a point-light that casts a stencil shadow. "A Quake II is RT-t használ és ugyanúgy érvelhetnénk hogy " gyorsabb" mint a Portal RTX, csak ugye pontosan azért, mert "kevesebb" RT van használva.
Ha a Fortnite-ban is úgy lenne használva az RT mint Portalnál, valószínűleg el sem indulna.
-
Kansas
addikt
válasz
Dr. Akula #223 üzenetére
Nem igazán.
Hardveres: fix funkciós RT egységek által számolt.
Szoftveres: shader kódban futó, általános célú CUDA/shader magokon számoltNVidia tud DXR-kompatibilis RT-t szoftveresen is, GTX GPU-kon pl. CUDA magokon... nem valami gyors, nyilván.
-
Abu85
HÁZIGAZDA
És ebbe az összehasonlításba nem fért bele megmutatni, hogy miképpen paraméterezte a két eljárást? Ez kb. pár kép, vagy 10 másodperc a videóból.
A Lumen és az RTXGI is két olyan eljárás, amelyek működése állítható. Van egy default működése mindkettőnek, de pozitív-negatív irányba lehet húzni mindkettőt, amitől lassulnak és gyorsulnak, illetve nő a minőség és csökken.
Az Ubisoftot nem értem, hogy miért keverjük ide. Ők teljesen mást csinálnak, mint az Epic. A Lumen azért különleges, mert van szoftveres és hardveres módja is, annak előnyeivel és hátrányaival. Az Ubi megoldásának csak hardveres módja lesz.
#222 b. : Láttam a videót. A beállításokat nem látom benne.
-
jah hát persze csak a szokásos adu ász. Mit is tudja ő, igazából csak erre tartanak fent egy renderelő stúdiót Kanadában ,és ebből él, meg összeütött egy kis összehasonlítást 4 K ban. jah nem, ez a szakértés amit itt te mondtál.
idézet tőled : "messze jobb minőségű" ! köszi elhisszük!
na további jó szórakozást nem ér ennyit ez az oldal már sajnos, lehet tovább etetni a rajongóida az Ubisofttal meg a Lumennel. -
Abu85
HÁZIGAZDA
És ez a szakértő elfelejtette leírni, hogy miképpen paraméterezte a Lument, mert van rá azért nem kevés beállítás. Például milyen tracing módot használt, mennyi volt a reflection capture felbontása? A GI paraméterezésnél mit állított be ezekre: Lumen Scene Lighting Quality, Lumen Scene Detail, Lumen Scene View Distance, Final Gather Quality, Max Trace Distance, Quality? Nem tudni? Ó de kár! De azért micsoda szakértés volt.
Nem az Epic nem azért használja az RTXGI-t, mert erős hardverek nélkül nem futna, ugyanis, ha a Lument felhúzod maxra, akkor az is megfektet mindent, hiszen kb. 100x többet számol, mint default, és persze a képminősége is sokkal jobb lesz, ugyanúgy az RTXGI-t is le lehet paraméterezni a defaultról, hogy gyorsan fusson, csak szar lesz a minősége. A gond az, hogy az RTXGI csak DXR-t használ, és a DXR-rel az UE5-nek egy rakás képessége egyszerűen nem kompatibilis. Tehát vagy az UE5 képességeit használják, vagy a DXR-t cserélik le olyan alternatívára, amivel használhatók a motor újításai.
-
Nem a levegőből jön a sebesség. [link]
Ilyen az a mikor egy szakértő elemzi a két eljárást.
Az RTXGI pontosabb és finomabb, valósághűbb míg a Lumen gyorsabb, de messze nem jobb minőségű.
Itt a fenti összehasonlítás videó formában. [link]
Az RTXGI-t erős hardverek nélkül nem lehet futtatni, ezért nem használja ezt Epic egy általános, konzolokra fejlesztett motorban, ilyen egyszerű, nem azért mert a Lumennek jobb a minősége. -
Abu85
HÁZIGAZDA
Miért ne működne a Lumen a mozgó objektumokon? Nincs ilyen limitációja.
A Lumen GI-nak pár limitációja van csak. Például nem üzemképes statikus megvilágítás mellett, amire mondjuk Lumen mellett nincs is nagyon szükség. Nem kompatibilis a forward leképezővel, de manapság mindenki a deferredet használja. Vizet pedig támogat, csak az úgynevezett Single Layer Water Shading Modelt nem. Ezt amúgy később támogatni fogja. És itt nem a Lumennel van a gond, hanem a Single Layer Water Shading Modellel, mert más scene based GI megoldás sem kompatibilis vele.
Ha az lenne a legjobb, akkor azt használná az Epic, de sajnos messze van a minősége és a sebessége a Lumentől.
-
Hogy lenne jobb minőségű egy olyan eljárás ami nem képes dinamikusan mozgó tárgyakon működni, bőreffektust kezelni, vagy nem képes csontvázakon és vízen aktiválódni, korlátozottan képes csak raytracing effektekre szoftveres működéssel?
Max a sebességet elfogadom a DXR ebben hiányos, nem tud versenyezni egy hibrid eljárással sokkal gyorsabba Lumen.
Jelenleg a legjobb eljárás az RTXGI Nvidia kártyán a többi meg csak vitát generálna köztünk tehát ki is szálltam nem érdekel hogy folysz bele megint abba milyen szar az Nvidia eljárása szerinted. -
Abu85
HÁZIGAZDA
Az Epic pont azért használja a DXR helyett a saját compute shaderes RT eljárását, mert sokkal gyorsabb, mint amit a DXR-ből ki tudnak hozni.
Igen. Például pont a Lumen vs. RTXGI a probléma. A Lumen nem csak jobb minőségű, de lényegesen gyorsabban fut azzal, hogy nem nyúl hozzá a DXR-hez. Az Epic számára nem lenne értelme lassabb és gyengébb minőségű eljárásra váltani.
-
Minden szabványos eljárás fut RT gyorsítók nélkül is, csak a sebessége nem mindegy. Ezért nem lehet aktiválni egyes eljárásokat szoftveres gyorsítás esetén Unreal 5 ben, mert értelmetlen lenne 3 FPS-sel futtatni.
Ezért ad lehetőséget pl RTXGI és hasonló gyártóspecifikus beépülő modulok használatára meg hoznak pl saját eljárásokat a saját motorjukhoz. -
PuMbA
titán
Igen, a Lumen egyik lényege, hogy a konzolokban lévő RTX 2070 / RX5700XT sebességű VGA-val lehessen elég jó minőségű RT 60fps vagy kiváló minőségű RT 30fps-sel. Ez benne is van az eddig linkelt doksiban:
"Lumen's Global Illumination and Reflections primary shipping target is to support large, open worlds running at 60 frames per second (FPS) on next-generation consoles. The engine's High scalability level contains settings for Lumen targeting 60 FPS.
Lumen's secondary focus is on clean indoor lighting at 30 FPS on next-generation consoles. The engine's Epic scalability level produces around 8 milliseconds (ms) on next-generation consoles for global illumination and reflections at 1080p internal resolution, relying on Temporal Super Resolution to output at quality approaching native 4K."
-
Kansas
addikt
"3 VGA -t kell majd itthon tartanom, mert mikor melyiken fut valami jól/rosszul"
Most ugye hülyéskedsz? Semmi értelme 3 kártyát tartani otthon, se most, se később, se korábban nem volt.
Akkor már inkább 2 kártya árából vegyél egy erősebbet, mindegy hogy melyik gyártótól(na jó, Inteltől azért nem esélyes hogy egyhamar kapsz), a harmadik árát spórold meg és máris sokkal magasabb teljesítményt kaptál, mintha 3 kártyát tartanál, és pénzed is több maradt... -
Kansas
addikt
Azzal nem mi vagyunk beljebb, hanem a játékfejlesztők. Nagyon sok játéknak kéne használnia az UE5 motort ahhoz, hogy mi is beljebb legyünk... esetleg abban lehet reménykedni, hogy a Mantle mintájára ez a szoftveres RT is bekerül majd szabványos API-ba, vagy legalább DirectX-be. Az mondjuk valóban nem lenne rossz...
-
Kansas
addikt
Nincs itt semmi meglepetés, a hardveresen gyorsított metódus mindig is gyorsabb lesz arra amire ki van találva, de ha bármit máshogy akarsz csinálni, akkor szoftveres módszer mindig sokkal rugalmasabb megoldás. És könnyen lehet, hogy a módosított metódusra nézve gyorsabb is.
-
PuMbA
titán
Én mégis maradok az eredeti kijelentésemnél, mert minden jel arra mutat, hogy a HW ray tracing lesz kevésbé használva az eddig leírt okok miatt [link]:
"Lumen also comes with hardware ray-tracing, but most developers will be sticking to the former, as it’s 50% slower than the SW implementation even with dedicated hardware such as RT cores. Furthermore, you can’t have overlapping meshes with hardware ray-tracing or masked meshes either, as they greatly slow down the ray traversal process. Software Ray tracing basically merges all the interlapping meshes into a single distance field as explained above."
-
Raymond
titán
Ebbol a jatekban nem latsz semmit. Ez olyan ne menj a kolbaszgyarba tema. Az elteresek egy masik metodussal vannak javitva es ha az nem eleg akkor a fallback minoseget feljebb tolhatod amig eleg lesz. De mondom, ha ezzel problemad van akkor a szoftveres RT-t teljesen kukazhatod mert az meg pontatlanabb.
-
Raymond
titán
A fallback mesh az nem "teljesen más geometrián"
Ugy irod mintha negyszog lenne a kepernyon az RT pedig egy haromszogbol szamolodna. A kulonbsegek minimalisak foleg a kepernyon lathato geometriai szelek pixel takarasa mellett. De ezt is megoldottak egyebkent, ott van doksiban amit linkeltel. Bonusz - ez meg mindig jobb minoseg mint amit a softveres RT-vel kapsz
-
Raymond
titán
"Ha ez a mód aktív, akkor a motornak egy rakás fő újítása fallbackre lesz rakva a sugárkövetéses pipeline-on. Például a Nanite is. A kettő együtt nem kompatibilis, és ezen egy darabig nem is tudnak változtatni."
Ha ezzel azt akarta mondani hogy hardveres RT mellett nem mukodik a Nanite akkor megint irt egy ordas marhasagot. Ha optimistabban allok hozza akkor a kiemelt reszt veszem csak es nem irta azt (igaz a "Például a Nanite is." mondat nem segit hogy az optimistabb iranyba nezzek) hanem csak azt amit itt mar egy ideje probalok elmagyarazani neked - csak az RT szamitaskohoz hasznalja a fallback mesh-t, a kepernyon ugyanugy a Nanite geometriat latod.De ahogy irtam ehhez legalabb valami alap tudas kell arrol hogyan mukodnek a jatekmotorok.
-
PuMbA
titán
"Az Unreal Engine 5 eleve egy extrém limitált motor DXR-rel (DirectX Raytracing). Ha ez a mód aktív, akkor a motornak egy rakás fő újítása fallbackre lesz rakva a sugárkövetéses pipeline-on. Például a Nanite is. A kettő együtt nem kompatibilis, és ezen egy darabig nem is tudnak változtatni. Egyébként ugyanez volt az Ubisoft problémája is. Ahogy növeli a geometria részletességét, úgy döglik le a DXR használhatósága. Tehát választani kell, hogy vagy sugárkövetés lesz, vagy részletes geometria. Aztán választottak egy harmadikat, hogy legyen mindkettő, és akkor túllépnek a DXR korlátjain egy alternatív API interoppal."
-
Raymond
titán
Semmit nem ertesz sajnos
Az idezett mondat nem az jelenti hogy a Nanite nem mukodik bekapcsolt hardveres RT mellett, de ahhoz hogy ezt megertsd legalabb valami alap tudas kene arrol hogyan mukodik az UE es a jatekmotorok alltalaban.
Az a mondat csak annyit jelent hogy a fallback mesh van az RT szamitasokhoz hasznalva, nem azt hogy a Ninite nem mukodik es hogy hardveres RT mellett a fallback mesh az amit a kepernyon latsz
-
PuMbA
titán
Én szerintem mindent értek. Fallback mesh = nem Nanite. A Lumen doksiban tisztán látszik, hogy a fallback mesh mennyivel rosszabb minőségű. Ezt a szöveget keresd:
"For Static Meshes that have Nanite enabled, Hardware Ray Tracing can only operate on the Fallback Mesh. "
Alatta pedig ott egy képi összehasonlítás: Full detail Triangle Mesh és Nanite Generated Fallback Mesh között.
-
Busterftw
nagyúr
-
Pont ellenkezőleg. [link]
hardveres RT- t használó effekteknél amik lényegesen jobb minőséget képviselnek a hálók nagymértékű átfedését kell elkerülni, mert összetettebb és komplexebb. Le is írja hogy ezt akár automatikusan is meg lehet tenni az 5.1 ben.
Vannak bizonyos effektek amiket csak hardveres gyorsítással lehet aktiválni akár függetlenül is egymástól. [link]
Tehát a szoftveres RT lényegesen limitáltabb már a felhasználható RT effektek lehetőségeiben is.. -
Kansas
addikt
válasz
Trailblazer #176 üzenetére
Nem, nem váltottak volna... tudod, van a mérnököknek pár sajátos foglalatosságuk, mint a méretezés és a szükségletekhez illesztés.
Lehet hogy meglepőt mondok, de a 96 bit széles GDDR6 memóriabusz "picit" nagyobb sávszélességet tud, mint a 96 bit széles GDDR5 memóriabusz, mert míg egy transzfer ugyanúgy 96 bit mennyiséget tesz ki, de a GDDR6 tud kb. 15e MT/s-t(GDDR6X 21-22e-t is), a GDDR5 pedig ennek a felét-harmadát, de az se mindegy, milyen cache-alrendszer van mellé rakva(lásd pl. "Infinity Cache"), ezáltal maga az architektúra mennyire bottleneckes a VRAM sávszéllesség kapcsán.
És ha olyan GPU-t terveznek, aminek szüksége van/ki tud használni nagyobb sávszélességet, akkor azt terveznek hozzá, plusz nyilván a termékpaletta szegmentálása is belejátszik.A lényeg: nyilván 96 bit széles buszt nem a csúcskategóriába szokás tenni, hanem inkább a budgetbe, de ezzel együtt sem mond sokat önmagában a kártya teljesítményéről a memóriabusz szélessége, sok más paraméter ismeretében lehet érdemben megbecsülni azt, de a legjobb mindenképp megjelenés után kimérni.
-
PuMbA
titán
Átolvastam, de ahogy az előző hozzászólásomban az utolsó 2 idézetben olvasható, hardveres RT esetén már nem tudsz egy részletes, nagy világot megcsinálni, mert összesz*rja magát még egy 4090 is. Oké, hogy az írásból úgy tűnik, hogy jobban limitált a szoftveres, de a hardveres még jobban limitált, mert a szoftveres az legalább fut és használható, ha egy 40 négyzetkilométeres terület van a játékban
Én ezt veszem ki a szövegből. Komoly hardveres RT csak kis komplexitású jelenet esetén használható, ahogy ez jelenleg is van a játékokban, mint limitáció.
-
PuMbA
titán
Persze, hogy a hardveres RT jobb minőség, csak sokkal lassabb
A Lumen lényege, hogy a szoftveres RT a legtöbb esetben gyorsan, jó minőséget ad és csak a részletes, színtiszta tükör-szerű tükröződéseknél ad a hardveres RT lényegesen jobb minőségű eredményt. Az Unreal Engine 5 játékoknak PS5-ön és Xbox Series X-en jól kell futniuk, amikben RX6700XT körüli VGA van, tehát ebből a teljesítményből kell a legtöbbet kihozni.
"Software Ray Tracing is the only performant option in scenes with many overlapping instances, while Hardware Ray Tracing is the only way to achieve high quality mirror reflections on surfaces."
"While Hardware Ray Tracing provides the highest quality of the two ray tracing methods, it also has the highest setup cost in large scenes causing tracing to become expensive with many overlapping meshes."
"WARNING
In order for scenes to be compatible with Hardware Ray Tracing, mesh overlap must be kept to a minimum." -
PuMbA
titán
"Tud épp a Lumen hardveres RT-t is egyébként"
Jaja, csakhogy több limitáció lép életbe hardveres RT esetén az Unreal Engine 5.1 Lumen dokumentációt saját magam által is elolvasva, szóval úgy áll, hogy szoftveres lesz a fő irány. Abu is ezt írta nem rég, amikor kérdeztem tőle.
-
Kansas
addikt
Tud épp a Lumen hardveres RT-t is egyébként... A kérdés az, a szoftveres megoldás milyen sebességgel fut a hardveres RT képességet nem tartalmazó kártyákon(pl. GTX1080Ti, RX5700XT)... ha élvezhetetlenül, akkor nem vagyunk vele sokkal beljebb, mint ha hardverest használna.
-
Kansas
addikt
válasz
Trailblazer #171 üzenetére
A jó hírem az neked, hogy egy VGA nem a memóriabusz szélességétől lesz gyors vagy lassú, az se rémlik, hogy az RT-nek különösebben nagy extra RAM sávszélesség(nem busz-szélesség!!!) igénye lenne...
De nyugodtan cáfolj meg, ha van erre utaló hiteles infód. -
PuMbA
titán
válasz
Trailblazer #171 üzenetére
Az a jó hír, hogy az RT a mai szintnél már csak gyorsabban fog futni, lassabban nem. Pár napja kijött a Fortnite frissítés, ami váltott Unreal Engine 5.1-re és ezzel debütált a Lumen technológia szoftveres RT-je, ami shadereken fut (Shader Model 5.0 a minimum) és nem az RT egységeket használja. Jól szuperál a hardverek szélesebb skáláján. Ezzel a motorral fejlesztik a Stalker 2-t, az új Tomb Raider-t, az új Witcher-t.
-
PuMbA
titán
Értelek. Szerencsére az RT dolgokat külön-külön lehet állítani, azaz például csak a reflekciókat ki lehet kapcsolni, szóval nem kötelező mindent használni, ha valakinek valami nem tetszik. A többit, amitől meg szebb lesz a grafika bent lehet hagyni
Ki lehet emelni a negatív dolgokat, de ugyanúgy vannak pozitív dolgai is az RT-nek, már most és ezeket azért használják is az emberek. Azt hiszem, hogy azért nőtt 80%-ról 90%-osra az NVIDIA VGA részesedése, mert az embereket azért csak érdekli ez a dolog.
-
Kansas
addikt
Azért az erősen véleményes, hogy az RT szebb grafikát eredményez-e... pl Control-ban attól hogy minden csillog mint a Salamon töke, se szebb, se realisztikusabb nem lesz a látvány, de RT techdemónak szódával elmegy...
Illetve a grafikus butítás amit jelenleg ahhoz kell véghez vinni, hogy élvezhető framerate-ed legyen RT mellett, szintén nem a szebb grafika irányába hat... az meg ízlés kérdése, hogy azt akarod magadnak hazudni, hogy dinamikus árnyékot/tükröződést/fényelést látsz, vagy azt, hogy adott felbontáson fut a játék és nem a felén/negyedén... arról nem is beszélve, hogy gyakran többet dob a látványon egy ízlésesen kivitelezett HDR, mint a még gyakran ízléstelenül kivitelezett RT, és az előbbi lényegesen kevesebb erőforrást igényel. -
Robitrix
senior tag
Amúgy egyértelműen. nem egyszerű kérdés. amikor elterjedt a szleng, hogy az 5 kilo 500 akkor még gyerek cipőben járt az SI rendszer, Így mondjuk egy kg legegyértelműbb váltó száma a 100 dekagram volt. Aztán jött az SI és a 1 kg 1000 gramm vagyis a kiló lehet 1000 is. Persze ha valaki azt mondja egy videó kártya 500 kiló akkor mindenki tudja, hogy 500 ezerről vn szó. Közben persze azért a párizsiból 20 dekát kérek 2 generáció SI után is nem 200 grammot. És ha azt mondom valakinek, hogy adjon 5 kilot már valamire, akkor mindenki 500-ra gondol...
Persze az is igaz, hogy akkoriban 40-50 éve nem repkedtek a sok százezres árak a hétköznapi életben. valamikor akkoriban jelent meg az 500 forintos bankjegy addig mindenki marékból számolta a piros papir 100-asokkal mindent. Minden esetre tényleg vegyes a kép.
-
Robitrix
senior tag
Ebben egyet is értünk. Igaziból attól, hogy szebben néz ki egy képen a csillogás, tükröződés, a vízfelszín vagy napfény beesése és az árnyékolás nem lesz jobb a játék. Eddig is megoldották az ilyesmit RT nélkül is max kevésbbé volt szép. Attól, hogy néhány részlet valamivel jobban néz ki szerintem nem éri meg a teljesítmény esés és a magasabb hardver ár....
-
Gibo
senior tag
a 4090 hiányhoz szerintem az is hozzátartozik, hogy a 4090 használható semi-professzionális szinten munkához is, ellenben a 4080-al ami sokkal inkább a játékosok piacát célozza...
-
Chaser
legenda
válasz
S_x96x_S #154 üzenetére
ha felnézel alzára akkor is látod
persze usánkában az kisebb pénz mint itt, de nyilván ott méginkább a 4090-et vennék a "népek"bteebi
nincs scalper ha nincs rá ok...
az nv zsákost játszott, a 4090-et az veszi akinek van pénze lóvéra
de mivel "csak" 400 usd-vel olcsóbb a 4080 azt is azok vennék, ha nem vennének inkább 4090-et - mert ilyen ársávnál már nem annyira mérvadó pár száz $ -
az eredmény : 4090 elfogy, 4080 meg van
nem kellene indokolatlanul magas áron tolni a 4080-at, ennyi
a 4090 érthető mert abszolút top, de a 4080 nem annyival marad el amennyivel olcsóbb -
S_x96x_S
addikt
állítólag nem az RTX 4080 a skalperek kedvence ..
"Scalpers returning their #Nvidia RTX 4080s they couldn't sell on eBay is a big issue for retailers...
It's so big that Newegg just removed the refund option for many 4080s!!!
Sorry scalpers, you need to keep that stupid 4080!🤣
"
via MLIDaz élet kegyetlen
lassan vége a kiszámítható skalper létnek ... -
Kansas
addikt
válasz
Dr. Akula #149 üzenetére
Hát, nem a te szalmabábodon, az biztos...
Ha nem akarsz vagy nem tudsz az aktuális érvemmel vitázni, akkor ne koptasd a drága billentyűzeted feleslegesen...Sehol nem állítottam olyant hogy nem kerül AAA játékokba RT, azt állítottam, hogy nagyon kisebbségben vannak az RT-s játékok az RT nélküliekhez képest, és még vagy 2 VGA generáció kell, hogy az újonnan megjelenő játékok többségében legyen valamilyen szintű RT opció(szerintem még akkor se lesz fullos RT a többségükben).
Aki most az RT miatt vesz GeForce kártyát az esélyesen addigra le fogja cserélni a most vettet, az addig eltelt időben pedig nem feltétlenül fogja annyira kihasználni az RT-erőtöbbletet, mint az egyszeri Radeon-vásárló a raszteres teljesítmény-többletet(pl. 6700XT sok helyen - sajnos nem feltétlenül hazánkban - RTX3060 árban van, 3070-közeli raszteres teljesítménnyel).De ja, te nyugodtan akadj le azon, hogy a Fortnite AAA vagy nem, meg hogy a WP mekkora szaktekintély gamingben...
-
Dr. Akula
félisten
Volt ott gamer365.hu is, lehet hogy ők is értenek hozzá. Lehet hogy darabszámra nem a legtöbb játékban van RT, de a legújabb, legnagyobb nevekben igen. Azzal amivel most játszanak az emberek. Ezzel ez ma már egy élő technológia, nem csak demó, és aki ilyen VGA-kat vesz, az azért szeretne a pénzéért valamit kapni, például ezt. Tehát VGA vásárlásnál szempont hogy tudja-e vagy ki kell kapcsolni. Amúgy az AMD eddig úgy volt, hogy kb. 1 generáció a lemaradása (még mindig RT), tehát várhatóan a mostani gen fogja tudni azt amit az Nvidiánál az előző. Tehát a jobb AMD kártyákon elérhető lesz nagyjából a 3090-es RT szintje. Viszont aki többet akar, annak marad az Nvidia.
-
Kansas
addikt
válasz
Dr. Akula #145 üzenetére
IT/gaming kapcsán? Itt a fórumon minden második ember nagyobb szaktekintély náluk...
Egyébként meg az általam használt AAA meghatározást nem én találtam ki, a Planet Taxis Grőb Attilától vettem át, neki azért kicsit több köze van AAA meg indie játékfejlesztéshez mint akár a WP-nak...Az AAA kategória ez alapján nem attól függ, mekkora név, hanem attól, mekkora játék...
De igazából ez szinte lényegtelen is, mert még a Fortnite és társainak ide számolásával együtt is még mindig elenyésző kisebbségét teszi ki az összes játéknak az RT-támogatott játékok részhalmaza. Akkor is, ha csak az AAA-kat nézzük, legyen bár a legtágabb, legmegengedőbb meghatározás szerint, egy RT-s játékra tucatnyi olyan jut, ami meg nem RT-s, és az arány az AAA definíciójának tágításával nem javul... -
bteebi
veterán
Ahhoz képest, mint amennyit terveztek/reméltek.
Ha pl. úgy terveztem, hogy le tudok gyártani belőle 1000 db-ot, és amellett lesz 2000 db 4080-as, de csak 500-at tudok legyártani, akkor az gáz. És lehet, hogy 3000 db-ot is el tudtam volna adni a 4090-esből, míg a 4080-asból csak pár 100-at vesznek meg.
-
Cassi
őstag
Majd ha megjelenik a 4070 Ti 12 GB majdnem 1000 dollárért, akkor mindenki rádöbben, milyen jó vétel valójában a 4080, és beindulnak az eladások.
-
bteebi
veterán
Érdekes kérdés, hogy valóban annyira rossz-e a 4090 kihozatal, vagy csak azért "így sikerül", hogy lehessen még drágábban árulni. De komolyan, ennyire dübörög a szekér, hogy sokaknak a szintén brutál drága, gyakorlatilag mindenre elég 4080-as már nem is kell??
-
Kansas
addikt
válasz
GeryFlash #138 üzenetére
Az nem az érv része, csak mellékes megjegyzés, de ha már szó volt a játékok népszerűségéről, mint az AAA besorolás alapja, hát nem gondolnám, hogy ne tartozhatna a tárgyhoz.
De értő olvasással azt is láthatnád, hogy amire válaszul ment, oda releváns...
"Stalker, Witcher, Metro... Ezek AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA kategóriások."
Ez nyilván személyes ízlés/preferencia-megjelölés volt, ha csak nem gondolod, hogy tényleg objektíve van "AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA" kategória is...További jó szalmabábozást!
-
Chaser
legenda
azt azért most kétlem, hogy a 4090-et raszter terén is hoznák
intel szerintem most annyit vár magától, hogy lássa egyáltalán van-e létjogosultsága a piacon, de szerintem ezt megugorják : )
és a megváltás sokkal odébb van náluk, mondjuk pénz is van fejlesztésre - valahol már mondtam, szerintem hosszabb távon szeretnének ők soc gyártók lenni konzolban, de ez majd kiderül -
mivel a piac szépen telítődött használt és új vga-val, kb egyedül a 4090 ami most húzóerő sajnos, de legalább lesz motiváció amd felé, 5090 ellen majd mit kell(ene) gurítaniuk
nem tudom a következő konzol gent mikorra terveziik, de amd-től nagyobb dobbantást én akkor látok reálisnak látva az rdna2-ps5/xsx kombót -
Kansas
addikt
Az AMD 7xxx széria jó lesz, de nem kifejezetten RT-terén, rossz pillanatban adták fel azt az úttrörő/early adopter hozzáállást ami miatt korábban sokat lettek kritizálva, az RT kapcsán ezt most megszívták, le vannak maradva egy generációnyit.
Ha ezt addigra behozzák, mire az RT amúgy igazándiból elterjed(szerintem még legalább egy de inkább 2 generáció, mire a 3080 teljesítménye lecsorog "népkártya" szintre), akkor nincs komoly baj, ha nem, akkor így jártak.
Az Intel még az AMD-hez képest is generációkkal le van maradva, megváltást, pláne gyorsat, nem nagyon kéne várni tőlük... -
Chaser
legenda
igen, ez van
a bánya nem tett jót ennek, egyik gyártónak sem volt érdeke törnie magát, vittek mindent a népek
nv azért meglepett a 4090-nel, tényleg jó kártya lett - pláne milyen jó lenne ha defaulton levitték volna az étvágyát 5-7% teljesítményvesztésért cserébe -
és 1000$ lenne - bilikéz' effekt :d -
kíváncsi leszek amd mit gurít, de sokat most nem várok
remélem intelnek bejön amit első körre elterveztek és megindul a "harc" -
Kansas
addikt
válasz
Dr. Akula #130 üzenetére
Igen, a Washington Post az authentikus tech/gamer média kiemelkedő képviselője és ekként extra hiteles amit írnak a témában... Jó hogy nem a Forbes-t vagy a HVG-t állítod ide etalon gyanánt
Persze a kiadók hype-növelés célzattal olyan játékokra is ráütik az AAA plecsnit, amik igazából nem illenek hozzá(pl. No Man's Sky, Death Stranding), én maradnék az eladási adatok helyett a befektetett pénz de még inkább technikai erőforrások és tartalommennyiség alapján kategorizálásra, mert nem minden népszerű játék AAA és nem minden AAA játék népszerű(ezt ilyenkor bukásnak is nevezik)
-
Kansas
addikt
Szerintem még mindig csak kezd kijönni a techdemó fázisból... jó lesz ez, csak kell kraft hozzá, viszont amíg általánosan nem erősödnek meg a gamer VGA-k, mármint az átlag-gamernek amíg nincs érdemben RT-képes kártyája(mondjuk én a 3080 szinttől kezdeném annak számítani), addig csak korlátozott úri huncutság lesz az RT, mert a kiadók nem akarnak úgy járni ahogy a CDPR járt a Cyberpunkkal, mert az erősen visszafogja az eladásokat.
Nem véletlen, hogy VR játákok is inkább techdemók egyelőre, pedig az a technológia is némelyest jövőbe mutató... csak akkora a hardverigénye, ami erősen akadályozza az elterjedését(az egyéb, ergonómiai és egészségügyi megfontolások mellett). -
Dr. Akula
félisten
Az AAA-nak nincs pontos definíciója, leginkább a "blockbuster" szó illik rá, az elnevezés a kötvénybesorolásokból ered, ahol az AAA a legtutibb, legkockázatmentesebb megtérülés.
Valorant, which is the company’s second AAA game. Ez a Fortnite "haverja", szintén free2p(l)ay lövölde, és egy Washington Postnak talán elhihetjük hogy AAA.
-
Chaser
legenda
válasz
Dr. Akula #127 üzenetére
nekem rt legjobban a quake2-nél tetszett, dobott rajta sokat - valamelyik új wolfit meg játszhatatlanná tette, legalábbis nekem, a szemem kifolyt kb -
szerintem ez a legérdemibb fejlesztés hosszú évek óta, csak sok idő és sok gen mire kiforrja magát hw-ben és támogatottságban
de ez borítékolhtó volt az elején is, akkor még csak techdemo volt a 2xxx-ekkel -
Kansas
addikt
válasz
Dr. Akula #127 üzenetére
Mondjuk (bár nincs hivatalos kanonizált definíció) egy cím nem attól lesz AAA mert mindenki azzal játszik, az AAA alapvetően méretet és kontentmennyiséget/minőséget jelöl, e-sport eleve nem jellemzően AAA. De pl. a CoD annak számít.
Kutyából nem lesz szalonna, Minecraftból nem lesz AAA... -
Dr. Akula
félisten
Most fog kapni a Witcher 3 egy nextgen updatet, ebben jön a raytrace. Gyanítom nem csökkenti a gépigényt.
Nyilván nem az RT-től lesz jó, de ha már van, miért kapcsolná ki az ember? Főleg aki azért költ sok pénzt a gépére, hogy na azt a minőséget kelljen néznie, amit konzolon harmadannyiból is megkap. Jó, neked nem tetszik a Stalker, nekem se a Fortnite, de én is elismerem hogy a Fortnite pl. egy AAAAAAAA cím, mert kb. mindenki más azzal játszik. Ugyanígy a Forza, Halo, stb, elég sokminden arról a listáról.
A kiló úgy tudom azért lett 100, mert 1 kg = 100 dekagram (amiben a felvágottat kérik a boltban), és hát valószínűleg nem atomfizikusok találták ezt ki. Az 1024 is csak véletlenül épp az 1000 közelébe esik, de ha meg mondjuk 1300 lenne a 2 akárhanyadik hatványa, akkor egyből nem akarná kilózni senki.
-
most komolyan ne csináljátok már ezt, hogy egy kb 70 éves nyelvi szlengből ami beépült a köztudatba a pénzre vonatkozóan , jelzőket aggatok és számítástechnikai és matematikai vonatkoztatásra lementek... a szleng az ilyen.
Fiam két hete nézett rám furcsán, mikor mondtam neki hogy ledobtam a szíjjat, az is már vagy 80 éves szleng amúgy. -
Kansas
addikt
válasz
Dr. Akula #111 üzenetére
A különbség az, hogy az 1024-re azért használjuk a kilo-t mert nagyon közel(2 hatványai közül a legközelebb) van az 1000-hez(ld. még 4K/5K/8K), a 100 viszont nagyságrendjében is különbözik, soha semmi köze nem volt a kilóhoz, maximum valami kivételesen matematika/fizika terén műveletlen emberek fejében, én bizony nem vágnék fel rá, ha ílyen értelemben használnám...
És itt nem arról van szó, hogy nyelv-/nyelvtannácit akarnánk játszani, de ami igénytelen az igénytelen...
Ugyanaz a kategória, mint hogy a WQHD se 2K, csak igénytelen marketingesek fejéből nem futotta többre és terjed... csak épp semmi köze a kettőnek egymáshoz. -
-
Kansas
addikt
válasz
Dr. Akula #118 üzenetére
Hááát, neked talán...
OK, a Witchert én is nagyon szeretem, de annak a 3. része is 7 éves játék(kb. a hűtőszekrényen is elfut, az ajánlott rendszerkövetelménye GTX770/R9 290). amit meg most bejelentettek, az a 15 éves első rész UE5 remake-je... de a #111-beli listádból ez az egyetlen, amivel 1-2 óránál többet játszottam. RT nélkül... ne reménykedj, nem fogja az RT se más játékká tenni, nem attól lesz jó.Stalker, Metro... pfff, soha nem fogott meg a szocreál apokalipszis..., igaz, engem a Cyberpunk se érdekel pedig volt idő, mikor még játszottam pen'n'paper verzióban...
-
Chaser
legenda
válasz
Alogonomus #83 üzenetére
mivel a ft értéktelenedett, így minden drágább sok évvel ezelőtti árakhoz képest
ez alól szokott kivétel lenne az it termék egy része, népkártya vga itthon zömében mindig 50-100e közötti kategória volt - bár szerintem kinn is -
azelőtt még 50e alatt is volt, de sokat változott a vga piac is
mikor legutóbb láttam itt cikkben 3060ti-hez használta a ph - jó árfolyammal HA épp lehetett kapni 160e ft volt az alja, de inkább 180e -
rt persze hiányos amd-ben, de nem mindenkinek számít és még csak most kezd elterjedni
hiába kerül be ilyen 3050-60-as kártyákba, az viccnek jó csak, még egy-két gen kell neki hogy lecsordogáljon értelmezhetőbb rt teljesítmény olcsóbb kártyákba is
minek kellene 400e ft-nak lenni? ha a 4080-ról van szó 300ft-os $-ral is 470e msrp jönne ki, annál meg már a 3xxx megjelenésekor is drágább volt a $
egyébként jah, 400e-ért jó ajánlat lenne a 4080 : ) -
Raymond
titán
válasz
Alogonomus #112 üzenetére
Nem kaptam meg semmit, linkeltel egy Abu hozzaszolast ami sokat nem ert es raadasul nem is arrol szol amit megprobalsz bemagyarazni.
-
Dr. Akula
félisten
Az RT már rég bekerült az AA játékokba. Olyanokba mint:
Battlefield
COD
Cyberpunk 2077
Doom Eternal Dying Light 2
Far Cry 6
Fortnite
Forza Horizon 5
Metro Exodus
Minecraft
stb.És jön olyanokba mint:
Elden Ring
Stalker 2 (ez majd nyilván megjelenéskor)
Skull & Bones (ez is)
Witcher 3Ha már szőrözünk, a kilónál nem kérdés hogy jelenthet-e 1024-et, mert nem jelenthet. 1000-et jelent. Az 1024-re használni pont olyan tájszólás mint a 100-ra.
-
Kansas
addikt
válasz
Dr. Akula #105 üzenetére
Azért gyanítom az a sok jövőbenéző NV vevő még cserél egyszer VGA-t mielőtt az RT akár csak az AAA játékokban többségbe kerül...de lehet hogy kétszer is... különösen az, aki 3090-ről vált most 4090-re...
Az minden esetre nagyon úgy néz ki, hogy a Turing-vásárló early adopterek többsége aligha RT-zett sokat a jövőbe mutató kártyájával mielőtt lecserélte... ha csak nem direkt beszerezte az összes RT-s techdemót hogy igazolja maga előtt a tízezreket amivel többet fizetett ugyanazért a teljesítményért... de tudtommal még mindig kb csak a Cyberpunk az egyetlen játék ami a teljes DXR feature-setet használja, nem csak 1-2-őt belőle(ha rosszul tudom, valaki csak kijavít).
-
A kiló szerintem mindenhol százat jelent szlengben pénzre fordítva. Ahol nem, az a kivétel nem pedig fordítva ahogy gondoljátok.
Mennyibe került ez a csoki? 5 kiló, az 500 forint.
Értelemszerűen ha drágább cuccról van szó( mennyibe került ez a 3080? 5 kiló, ráértik hogy 500 ( ezer). -
Raymond
titán
válasz
Alogonomus #81 üzenetére
LOL, tehat a JPR lebontja mi volt a Q3-ban a felosztas ahogy irtam neked es nem az amit te allitottal erre a te valaszod/erved egy Abu fele allitas?
Ket dolog:
1) ahogy a linken nezem Petykenek valaszolt es az is azt a Q3-at hozta fel es hogy hogy lehet hogy reszesedest vesztettek, tehat ugyanarrol a Q3-rol volt szo amirol itt beszelunk
2) megkerdem meg egyszer - milyen $100 alatti GT es GTX termekeket szalitott az NV Q3-ban vagy egye fene, nem Q3-ban hanem mondjuk 12 honapra visszamenoleg? Tehat konkret termeket es forrast hogy honnan van ez az adatod. -
Dr. Akula
félisten
Az a baj az AMD kártyákkal, hogy csak Raytracing nélkül hozzák az Nvidia szintjét, azzal meg nagyon le vannak maradva. Most meg mindenki arra gyúr, az a jövő, és hát annyival meg nem is olcsóbbak, hogy ezt a hiányosságot kompenzálja.
Jó forintárfolyamon 4 kilónak kéne legyen egy ilyen kártya, nem 7.
Elszállás előtt annyi volt.
-
Egon
nagyúr
válasz
rolee9309 #101 üzenetére
Igazából a '70-es, '80-as években volt divatos ez a szleng, egyszerű generation gap-ről van szó, nem kell túllihegni. Apám 1950-ben született, az ő generációja használta leginkább ezeket a kifejezéseket, a 2000-res évekre azért jelentősen kikoptak már a közbeszédből.
Ugyanakkor a lányom pl. azt se tudta, mi az a "zsarátnok" (egy keresztrejtvényben írták körül; amikor felolvasta a kérdés és rávágtam a választ, és rájött hogy kijön a karakterszám, úgy nézett rám mint egy félistenre...), és aki nem vidéken, gazdálkodó környezetben nőtt fel, fingja sincs mi az a szecskavágó - így tűnnek el szavak a közbeszédből (és nem biztos, hogy helyettük tök jó kifejezések kerülnek be: én pl. hülyét kapok a fiatalok által hsznált "flexel" szótól, főleg hogy milyen értelemben használják...
).
-
rolee9309
csendes tag
Jajj, mit indítottam be! Amúgy én sem hallottam még sohasem 100-as váltással (de ha 8 kiló, az is csak 800, ami még jobb is!). Életemben először tavaly hallottam a munkahelyemen, meglett 28 éves koromban, akkor is pislogtam, hogy ki az, aki havi 3 ezerért dolgozik.
Kinek mi, csak nekem furcsa, nem bánnám, ha egységesítve lenne, és a valós váltással lenne. Nem lennének ilyen félreértések.
Új hozzászólás Aktív témák
- GYÖNYÖRŰ iPhone 13 Pro 128GB Graphite -1 ÉV GARANCIA - Kártyafüggetlen, MS3082
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
- LG 27MR400 - 27" IPS LED - 1920x1080 FHD - 100hz 5ms - AMD FreeSync - Villódzásmentes
- Beszámítás! Apple iPad Pro 11 2024 1TB WiFi + Cellular tablet garanciával hibátlan működéssel
- Xbox Game Pass Ultimate kedvező áron, egyenesen a Microsoft-tól! - AUTOMATA BOLT
Állásajánlatok
Cég: FOTC
Város: Budapest