Új hozzászólás Aktív témák
-
válasz
GeryFlash
#40547
üzenetére
Mert nem egyetlen kártyáról van szó hanem egy komplett termékcsaládról teljesen új architektúrával ráadásul egy olyan gyártótól aki jelenleg a legnagyobb X86 gyártó és ezzel a rendszerrel teljesen össze kell dolgoznia az új terméknek mert nekik az az érdekük, hogy Intel mellé helyezd be ezt a GPU-t. Minden szegmensbe kell hozzá való drivert írni. professzionális és HPC szegmensben nem nagyon lehet hibázni driveres téren, ott nem annyiról szól, hogy kifagy a COD.
jelenleg ezek a várható kártyacsaládok szegmensenként amik között lesz átfedés.
Az első igazán játékra szánt kártyák az Xe LP .
iDG1LPDEV = “Intel(R) UHD Graphics, Gen12 LP DG1” “gfx-driver-ci-master-2624”
iDG2HP512 = “Intel(R) UHD Graphics, Gen12 HP DG2” “gfx-driver-ci-master-2624”
iDG2HP256 = “Intel(R) UHD Graphics, Gen12 HP DG2” “gfx-driver-ci-master-2624”
iDG2HP128 = “Intel(R) UHD Graphics, Gen12 HP DG2” “gfx-driver-ci-master-2624”Ennek értelmében a DG2-es megoldások 128, 256, illetve 512 stream egységet használnak majd. ( Ipon)

-
válasz
GeryFlash
#40543
üzenetére
" DG1-es típusjelzéssel ellátott termék, ami most bemutatkozott, igazából nem egy végleges videokártya, sokkal inkább egy fejlesztőknek és rendszerintegrátoroknak készített prototípus, amelynek segítségével fel lehet készíteni a szoftvereket és rendszereket az Xe architektúra köré épülő termékekre...
kifejezetten szoftverfejlesztőknek szánt prototípusról van szó, ami egészen biztosan különbözik valamelyest a végleges termékektől mind teljesítmény, mind pedig dizájn tekintetében."( Ipon)
-
válasz
GeryFlash
#40543
üzenetére
Szerintem túl sok és messzemenő következtetést vontál le egy tesztkártyáról. Egyértelműen kísérleti céllal adták ki, gondolom jön hozzá majd gaming szoftver meg frissítés. A kijövő IGP-s CPukkal való összedolgozást is tesztelik. Ha csak világszinten elmegy belőle 20.000 darab már nekik egyfajta képet ad különböző hardverekkel és operációs rendszerekkel összerakva a kártyáról, amiből majd levonják maguknak a következtetést. Nem tartom kizártnak, hogy majd bedobják csomagba pár kisebb energiatakarékosabb CPU mellé szinte ingyen.
-
-
nem
, de abban bízok, hogy erősen megtervezik ilyen hiba után a jövőt
2023 ra tippelte redditen is az úriember ezt a legós jövőt
Ezért érdekel főleg az Inteles bemutató, mert ez már az alapjait rakja le ha valóban működik az egy GPU több különálló egységből dolog.
Szerintem ez mérsékelheti az árakat és növelheti igazán a teljesítményt ,nem a hatalmas drága monolitikus GPU-k -
inkább a megoldásukra vagyok kíváncsi tényleg működik e egyben a több GPU-s rendszer ahogy ígérték ,nem is annyira a számítási teljesítmény izgat , Úgy gondlom ők valóban rendszer szinten fognak építkezni a VGA ra.
Várom mi sül ki belőle.
redditen a fórumon valaki már azt írogatta, hogy valami belsős tag megsúgta neki, hogy Intel 7 nm - vagy 5-n kijön a szabadon átalakítható MCM dizájnnal, azaz legózhat az ember hogy miből mit kíván majd a tokozáson belülre összeállítani, akár 2 GPU+ 2 CPU blokk vagy 3-1 arányban stb-
Az azért elég forradalmi lesz ha tényleg összehozzák. -
válasz
GodGamer5
#40480
üzenetére
de pontosan ezért írtam azt hogy szinte kizártnak tartom, hogy egy az egyben hozza a kiszivárgott specifikációkkal a 2060-t max Forzában vagy egyéb specifikus AMD címben. memóriabusz meg van csonkítva az órajel vissza van véve kb 25 % kal.
KB Vega 56- 1660Ti jó esetben, rossz esetben 1660. Ami nem rossz de fontos az árazás.
279$ az 1660Ti és 240$ az 1660 Super.
Akkor érdemes 300 dollárra árazni, ha valóban eléri a 2060-t, de mint írtam arra nem sok esélyt látok pár esettől eltekintve. -
válasz
GodGamer5
#40478
üzenetére
elfelejthetnétek ezt a modernebb dolgot már. A Turing sok szempontból modernebb és fejlettebb mint a Navi/ sokból pedig nem. Elég sok közös nevezőjük van. A Pascalból az 1080 Ti ezért gyorsabb sokszor dx 11 alatt és régebbi játékokban mint a 2080 Super mert a Turing is sokat kamatoztat a Dx 12 és a Vulkan API ból... maga a Raytracing is, amire a Turing marketingje épül DX 12. ficsőr
Itt egy részletes összevetés a két Archról és a 2070 Super / 5700 XT párosításról. [link]
Az 5600 XT pedig azonos GPU ra épül mint az 5700 de annak a leeső selejtje lesz nem véletlenül ilyen magas a TDP és alacsony az órajel, mert nagy energia szivárgású GPU és / vagy egyéb hibái is vannak. Az 5700 és a 2060 között kb 10-15% van az 5700 előnyére és az 1660 Ti kb 5-10 % kal lassabb mint a 2060 . Az előzetes tesztek szerint az 5600 XT a 2060 Mobil verzióval van pariban ami kb a dekstop 2060 - 20 % azaz kb 1660 Super/ Ti körül helyezhető el ami azért elég közel van a 2060 hoz jó esetben.
Persze majd meglátjuk. -
-
-
Figyuzz te már trolloztál eleget engem . Felesleges neked bármit magyaráznom ha bele akarsz látni olyat amit nem gondoltam mögé me' Nv troll vagyok.. Próbálj ettől a következtetésedtől elvonatkoztatni néha és úgy ránézni a hozzászólásaimra...
Azért nem említettem a Ps eladást mert az Xboxot érte el a Switch eladása nem a Playstationt. Nem a kettőt együtt, vagy külön a Playstationt ,kizárólag az xboxét a 2 régebben piacon lévő konzol közül.
Azt írtam hogy Nv is kiszedte magának a saját kis szeletét a konzol eladásokból attól függetlenül hogy a PC gaming a fő bevétele. De neki nem kellett ehhez külön architektet fejleszteni, hanem egy meglévő régi Tegra hardvert adtak el a Nintendonak, ezért valószínűleg tiszta nyereségként könyvelték el miközben a Switch mennyiségben ugyan annyi mint az Xbox one eladás azaz kb 25 % NV 75 % AMD eladott hardverben ebben a genben.nem tudom mennyi lesz a következő generációs kártya család.NV fogadkozik hogy olcsóbb, mint a Turing... meg azt sem tudom menyibe fog kerülni a következő generációs PS vagy Xbox de szerintem drágább lesz mint a mostani gen.
Szerencsésnek mondhatom magam mert van mindhárom konzolom és van egy játékra alkalmas PC-m és a következő genből is megveszem ha megtudom mindegyik konzolt és középkategóriás kártyát. Egyébként nyáron volt egy 5700 radeon kártyám is, azóta már jó a gépem
( vicc volt nyugi,de tényleg volt
) -
válasz
paprobert
#40438
üzenetére
Mondjuk azért a Switch kb annyi eladást produkált az Nvidiának fele annyi idő alatt,mint az Xbox One az összes verziójával az mellett elkelt jó pár millió shield is.
smerve Nvidiát még azt is elképzelhetőnek tartom hogy pénzt is jóval többet kerestek rajt, mint AMD.
De nem a hardver határozza meg továbbra sem szerintem egy konzol életképességét.
Ráadásul egy meg sem jelent konzolgenerációt magasztalunk rengeteg ismeretlennel ,aminek a kijöveteléig valószínűleg Nvidia a piacra dobja az Ampere generáció és ha tartják a szokásukat akkor a 3060 kb 2080 erősségű kártya lesz.....Mondjuk akkor azért kíváncsi lennék mi lenne ha az Orin soc visszaköszönne az Új Nintendo asztali konzolban

Kolbi_30 :
2080 is van a cikkben nem csak a 2080 Ti. -
válasz
Kolbi_30
#40433
üzenetére
Igazából ebben megint a hype a gond, mert a topikok tele vannak azzal, hogy majd 8 K ban tolják a játékokat 100 K ért milyen jó lesz . Aztán 2 év múlva már harangozzák be a Ps5 pro-t.
ezek a konzolok határozzák meg évekig a játékokat.Jensen egyébként nem szokott nagyon melléfogni ha érkező hardverekkel.Általában előre tudja melyik érkező VGA milyen teljesítményű lesz a konkurenciánál és patika mérlegen már előre legyártva jön a válasz rá, szóval lehet ennek hinni szerintem.
-
valószínűleg az XT jelölés itt csak azt jelenti, hogy nem OEM verzió, csak úgy mint az 5500 esetében...
Ez egy 1660S teljesítményű kártya lesz, mert nem véletlenül egy olyan bench került ki először, ami AMD cím elsősorban. Az 5700Xt valahol a 2080Ti környékén kever Dx 12 alatt ebben tesztben.-
valószínűleg átlagban nem lesz jobb mint az 1660 super kártyák. Ami probléma, azaz árazás, mert az 5500 8 Gb 199$ ezért szerintem valahol 240-250$ körül ér le. Közben Nvidia leviszi az 1660 super árát 199$ re.
Egyébként RTx 2060 ahogy írta Raymond is gyárott modell maradt. 299$ volt kuponozva nemrég. -
válasz
GodGamer5
#40384
üzenetére
érdemes megnézni azért a beállításokat.mert ugyanazokkal a beállításokkal a GTx 1080 hoz nincs Dx 12 mérés, dx 11 alatt pedig 150 FPS-t tud egy jóval gyengébb CPU val.

a GTx 1650 Super 107 FPs-t tud ez meg 113 t.
Az 1650 S 160$..
Kindulva az 5500Xt árából az 5600 220-240$ körül jön ami nem teszi nagyon jó vétellé . -
válasz
szmörlock007
#40327
üzenetére
-
válasz
Petykemano
#40321
üzenetére
Szerintem:
Az új Volta utód.
nVidia Ampere HPC
reliable info: GA100 chip with a 6144 Bit HBM2 interface, doubled Tensor cores per SM
reliable info: GA101 chip as half of GA100, so with a 3072 Bit HBM2 interface-16 Shader-Cluster (Streaming Multiprocessor, SM)
- 8 Texturen-Cluster (Texture Processing Cluster, TPC)
- 64 Shader-Einheiten (CUDA Cores, CU)
- 8192 Shader-Einheiten,
- 512 Texturen-Einheiten und
- 2048 Tensor-Cores enthalten PCI Express 4.0
- 6 HBM2 stack
- 7nm+ (EUV) Fertigung von TSMC Release irgendwann im Jahr 2020 -
[Nvidia's Jensen Huang named top-performing CEO of 2019 ]
megint 200 $ az Nvidia részvénye, bányászláz nélkül. [link] -
válasz
DudeHUN
#40191
üzenetére
Igen,de belépő kategóriás PC lelépte grafikai szintben, rá 2 évre jött a Pro verzió mindkét gépből, mert sokszor még a stabil FPS szám FHD alatti felbontásban is necces volt.
Ezzel csak azt akarom írni, hogy 4 K 60 FPS legyen megés közben 500 dollár alatti ár is? hát szerintem valami ebből a kettő dologból hiányozni fog. -
válasz
keIdor
#40183
üzenetére
Igen igazad lehet. egyébként én is azt mondtam a Ps topikban, hogy ha erős hardver lesz az nem lesz olcsó,de ott többen azt mondták hogy ha 500€ vagy az fölött lesz akkor bukta a konzol. szerintem 600 € de inkább az fölött 800 € környékén fog debütálni, ha valóban erős lesz és ilyen szuper gyors SSD lesz benne. legyen igazad és legyen gyors brutális, még ha drága is lesz.

Egyébként nekem az a tippem, hogy 2 féle verzió lesz belőle különböző teljesítménnyel és árral. -
válasz
keIdor
#40178
üzenetére
Pedig igaza van Cryteknek szerintem is. Más jellegű programozást használnak és más az egész rendszer felépítése ez tény, nem szabad egy az egyben összevetni semliyen módon PC vel .Az Biztos, hogy bika gép lesz,de attól, hogy benne lesz egy erős CPU rész még a GPU egységek is limitálhatna valamint a hűtést is meg kell oldania fogyasztással együtt.
Xboxnál szinte biztos, hogy Dx 12 vel dolgoznak mivel már egy platformként kezeli Microsoft a Win 10 és a Box platformot.
igazából ezek a párbeszédek lezajlottak már a a Ps3 és a Ps4 megérkezése előtt is. A CELL nél arról volt szó, hogy évekig nem lesz a közelében sem egy PC CPU . A ps4 megjövetelekor azt jósolták, hogy a low level API miatt a legerősebb csúcs kártyák is a kukába végzik. Aztán 750 Ti hozott hasonló eredményeket akkoriban.ÉN csak azt mondom, hogy nem szabad felülni a hype vonatra , mondom ezt PS4/ Switch És PC gamerként. Erősen rajta vannak a marketing csapatok ezen a dolgon.Ps5 nél meg szerintem amúgy is a címek adják el a gépet nem a hardver.
-
Erre azért emlékszünk páran szerintem. [link]
Szerintem felesleges ilyen nagy elvárásokat támasztani mert annál nagyobb a csalódás. 500-600 dolláros maximum áron van realitása egy konzolnak. Ennyiért nem fognak azért olyan nagyon nagy csodát beletenni, mert már az AMD sem olcsó procikat és VGA-t gyárt.Egyébként egy GTx 970 kb 5 éves és a mai napig tudja az 1080 P High 60 FPs-t a legtöbb játékban. 2021 ben is tudni fogja egy GTX 1070- 1660Ti- RTX 2060 szerintem.
-
válasz
keIdor
#40149
üzenetére
Sok pletyka van, konkrétumot senki nem tud. Bármilyen forgatókönyv elkepzelheto.
Volt szó 8nm rol is, meg vegyes GPU családról, 12 és 7 nm keveréssel, meg Turingbrefresrol is, ami simán elég lehet a Navi ellen akár, meg persze 7 nm is fent áll.Samsung es/vagy TSMC. Név is szerintem változni fog, Ampere is egy kérdőjel. Szóval semmi konkrétum.
-
válasz
KillerKollar
#40147
üzenetére
Sok mindent nem tudni az Ampereről, lehet a desktop vonal nem is az lesz nevezékben, hanem esetleg a Tesla új vonulata lesz .nagyjából a Turing RTX kártyák debütálása előtti pletykákból semmi nem lett igaz.
Persze örülnék, ha igazad lenne.
-
Huh jól néz ki ez az új dizájn
-
"If you don’t own a LG TV, but do own a display or TV that only supports Variable Refresh Rates via HDMI, you can try enabling HDMI VRR when the aforementioned driver is released. As these displays and TVs haven’t yet been through our comprehensive validation process, we can’t guarantee VRR will work, or work without issue."
na, érdemes próbálkozni

[link] -
válasz
Locutus
#40073
üzenetére
nem tudom,de tippre ez az LG-n is múlik, mert HDMI-n át még eddig nem volt Gsync compatible kijelző, sem firmware, és a TV ket kell frissíteni hozzá,(megkapja a 2019 es OLED felhozatal náluk) nem a kártyákat. Szóval lehetséges, hogy menni fog pascallal is is,de ez a HDMI-n át menő VRR tök újdonság minden szempontból a zöldeknél, dedikált hardver nélkül a kijelző oldalán.Ez szerintem azt jelenti, hogy hamarosan a monitoroknál is megjelenik ez a funkció, HDMI adaptive sync .
-
LoL?
[LG’s 2019 OLED TVs are getting Nvidia G-Sync support]
nesze neked Big Screen
-
[Back Stage” Ray Tracing Tech Demo]
Nagyon jól néz ki , végre egy ízléses demó ami megmutatja milyen természetes dolog tud lenni az RT. -
válasz
huskydog17
#40019
üzenetére
érthetetlen egyébként, hogy a QB alatt is már ez volt, hogy Dx11 alatt lehetett elérni használható sebességet még egy GTx 1070 kártyával is. AZ akkori konfigom ( 6800K + GTx 1070) is bereccent sokszor 40 FPS re.
Akkoriban volt fent nem hivatalos verzió virágboltban, gyorsabb volt mint a legális akár 20 % kal is.Az eredeti dobozos mellé le kellett töltenem ... WTF ? szerintem ezzel megint az lesz.

-
jól van Abu, tudjuk megmagyaráztad nem először,nem vártam mást hogy erre mit fogsz mondani azt meg megszoktam már hogy a másik oldalon a szar is aranyból van.
a kommentedet úgy olvastam először el, hogy az elsőt sort meg az utolsót a közte lévő 15 sort magamtól is be tudtam volna helyettesíteni mikor láttam ki szól hozzá."Az NV-nél ugye a számítási kapacitás nincs ingyen, hiába a reklámszerződés a funkcióra. Ha kifogy az erre szánt büdzsé, akkor ez van, otthagyják szarul a funkciót. Szóval az iszonyatosan sokat jelentene, ha a fejlesztőknek a Microsoft adna ingyen gépidőt."
Erről amit írtál megint az a véleményem hogy ez a te saját véleményed szokás szerint mindenféle bizonyíték nélkül. AZ hogy ki meddig akar tesztelni te rohadtul nem tudod, ki mennyi időt akar erre szánni azt sem tudod. lehet a kiadó sürgeti őket hogy szevasz a játékot meg kell jelentetni vagy nem akarnak rá több időt szánni. Rohadtul nem tudod hogy az Nvidia nem ad e nekik elég gépidőt tanulási folyamatra lehetőséget,. mint ahogy azt sem tudod , hogy a Microsoft féle neuronhálós tanításra mennyit fognak rászánni. szokásos csodaváró bulléshit amikor mindig más cégtől várod a jobb és remekebb megoldást csak ne a zööööödeké legyen az...
Szerinted Nvidiánál balfaszok ülnek és élvezik, hogy szar jön kia kezük alól, nekik nem érdekük, hogy a DLSS ne lehúzva legyen a cikkekben. lehet hogy éppen rohadtul nem tudnak azzal mit kezdeni náluk, hogy a fejlesztő cég nem akar erre több időt/ energát szánni és eltolni a kiadást, még ha fizetne nekik az nvidia akkor sem... -
válasz
huskydog17
#40009
üzenetére
pedig sokan dicsérik a DLSS-t a Controlban:[link]
-
-
[Jensen Huang interview: Why AI is the single most powerful force of our time]
vannak benne érdekes meglátások úgy gondolom. -
válasz
Yutani
#39978
üzenetére
minden GPU ban -ami régebbi abban is- a szilícium chip belsejében van a dióda. Ami itt más a Navinál állítólag, hogy a teljes GPU -t tudja monitorozni és itt arról vitatkozunk, hogy az AMD állítása szerint ez nem probléma, mert azért ír 110 fokot mert most már a teljes GPu-t lemonitorozza és szerintük eddig is volt ilyen hőmérséklet a régebbi /eddigi GPu ban. Ezért írtam, hogy ha szerintük ez csak azért van mert sokkal pontosabb a GPu hőmonitorozása, akkor ezek szerint a 70x fokos GPukban is többet mutat? mert szerintem nem.
-
válasz
Raggie
#39975
üzenetére
Én úgy tudom a GPU hátulján, a forrasztásoknál van a legnagyobb hőterhelés.
Abu85: leírtam a cikknél is: ezzel egyetlen egy gond van, hogy a Costum hűtős modellek 73-74 fokosak azt jelentené, hoyg azok a régebbi mérés módszerrel 60 fokosak lennének? nem fogom ezt elhinni, már bocs.
A másik hogy a te állításod pont azt eredményezné, hogy a régebbi modellek könnyebben futnak nagyobb órajelen...
-
-
ja igen erre valók a thermal kamera mérések, tehát nem, nem volt. Mikor kijött a Pascalnál a botrány az EVGA kártyáknál, hogy beszartak és küldték ki a ramokhoz a thermal padokat 106 és112 fokra melegedett a legforróbb pontja a kártyának és az nem aGPU volt, hanema VRM... és ott meg is haltak rendesen a kártyák, mint írták nem volt normális hőmérséklet.
Itta problémás melegedés pasztázás és thermal pad után,
Itt meg előtte:
-
válasz
Petykemano
#39946
üzenetére
Nem is AMD re értettem , hanem a media hypera.
Nvidia felől szerintem nem jó oroszlánnak rángatják a bajszát ezek a mediahuszárok,mert ők nem Intel. Ha komolyan veszik a pletykákat akkor képesek pár hónapon belül válaszolni,előre lépni, még mielött AMD valóban megjelentetné a kártyáját, és ezzel többet ártanak nekik mint használnak a hülyeség keltéssel és az ilyen hangzatos nvidia killer főcímekkel.Mondjuk mi biztos jól fogunk járni vele, ha jól sikerül esetleg a nagy Navi meg azzal is ha Nvidia minél előbb kihozza az új gent.
-
[AMD's reportedly working on a GPU they're calling "Nvidia Killer"]
megint kezdődik a hülyeség... Poor Volta..
-
válasz
Petykemano
#39915
üzenetére
Updatelték a hírt a linkelt hírben is. -
válasz
huskydog17
#39910
üzenetére
Köszi szépen !

-
válasz
huskydog17
#39905
üzenetére
csak pár szóban letudnád írni mit ír? sajnos nem megy a
német. -
válasz
Petykemano
#39900
üzenetére
+1...

-
válasz
Petykemano
#39891
üzenetére
nem nem. Első amúgy is kamu

-
[Az NVIDIA tőrbe csalásával büszkélkedik az AMD]
Csak nehogy fordítva süljön el az a tőr
mellé egy kis pozitívum: [Nvidia recreates the Apollo 11 landing with real-time ray tracing]
-
válasz
syberia
#39875
üzenetére
De a DLSS nem egy szimpla élesítési eljárás mint írtam is feljebb, mint ahogy az image sharpening sem skáláz felbontást a jelenlegi állás szerint, csak ha beépítik a játékba ezt a funkciót és kap rá támogatást,de azt még nem láttuk minőségileg mit fog tudni.
Abu biztos tudja melyik játék fogja megkapni ezt az eljárást majd amiben felskálázással együtt fog működni, mint a DLSS, de én inkább úgy gondolom a Windows( Microsoft ) eljárást fogják majd alkalmazni ahol állítható majd a skálázás mértéke.A jobb oldali kép alacsonyabb felbontásból van felskálázva( DLSS) és arra próbál törekedni, hogy elérje az eredeti minőséget( kevesebb sikerrel) de sebességnövekedéssel karöltve. Míg a baloldali azonos felbontáson ( natív ) készült és +kapott egy élesítő filtert ,de sebesség növekedés értelemszerűen ezért nincs. A különbség a minőségben látható a sebességben a DLSS viszont 20-40% kal kb gyorsabb, ami a képen nem látható és annak kb az a lényege, így próbálja ellensúlyozni az RT erőforrás igényét.
ISR egy remek dolog amúgy,de Mindkettőnek megvan a maga előnye. -
válasz
scarabeus86
#39871
üzenetére
megpróbálom előkeríteni az erről szóló infókat A lényege az hogy anno( nem manapság volt) voltak ütközések a TV kkel a színbeállítások miatt és azóta Nvidia és Intel korlátozottat engedélyezi elsődlegesen mert így nincs ütközés egyik TV típussal sem.( ők elsődleges PC csatlakozónak a DP portot tartják szerintem, míg a HDMI nél nem egyértelmű , hogy a csatlakozás monitorra történik.)
Ha véletlenül nem a PC hez dedikált HDMI csatlakozóba dugtad a VGA-t és a VGA kiküldte a teljes színtartományt a magasabb képfrisitéssel nem volt kép, főleg a régebbi típusoknál fordul ez elő. Samsungnál el van nevezve a PC HDMI port,de Philipsnél például nincs, ott neked kell kijelölni.
Sokan a mai napig nem dedikált HDMI portot használják a VGA hoz vagy nem nevezik át PC re és normal HDMI portként működik pedig a TV képes lenne PC módra is, ami típusonként változó előnyökkel járhat. -
válasz
Raymond
#39862
üzenetére
A tesztbol szedem.A Sharpening nem skalaz fel önmagától, és gyorsít önmagában csak ha be van építve a játék motorba, mint a DLSS, kell hozzá külön API és engine támogatás.
DLSS nek ez a lényege hogy felskalaz kisebb felbontásbol és így kb 20%FPS t nyersz. Itt nincs sebesség növekedés, itt kepminoseg javulás van azonos felbontason. Husky által betett linken is azt írják, hogy nem skalaz a fel a Sharpening felbontast, hanem textúrara dob magasabb felbontasu szűrőt ami a GPU-t alig terheli. RIS +Shader cache együtt hasonlo mint a DLSS, de itt a minőség gyenge mert nincs rá külön engine támogatás.
Ettől függetlenül a RIS nagyon jó cucc.
1050 TI-n is tesztelik.
-
válasz
huskydog17
#39859
üzenetére
Lol megy Nvidian is?

Továbbra sem világos, hogy miért a DLSS sel van össze mérve, hisz ez nem hoz plusz FPS-t, Csak ha a Shader cache le van véve 0.7re de ott meg kifejezetten látszik a butitas.
A srác aki ezt a módot csinálta azt írja nem használ felbontás felskalast az eljárás.
Egyebkent BF ben látványosan dolgozik a videók alapján. -
válasz
Raymond
#39853
üzenetére
Más a két eljárás célja a két cégnél,DLSS gondolom az RTX sebességén is próbál segíteni.
Kétségtelen, hogy minőségileg számomra is meggyőzőbb a Sharpening.smc:
Akkor lehet minőségi javulás talán, ha nem natív 4 K a textúra. Elég sok játék ilyen, azokban valószínűleg szebb eredményt fog adni a Sharpening.PuMbA :
Ez egy nagyon nagy plusz pont. Ezt egyébként nem tudtam róla. -
DLSS mást csinál, mint a Sharpening ,ezért nem értem a párhuzamot miért lenne ettől vége.
A DLSS hez a Shader Scale inkább húzható párhuzamba. A felbontás attól még 1440P, míg a DLSS nél a felbontás a végeredményben 4 K. Az egyik oldalról az 1440P képet javítod fel hogy megközelítsd a 4 K képminőséget a másik oldalon a 4 K képminőséget rontod le, hogy megkapd az 1440P sebességet. Kinek mi fontosabb. Az RT mellé az erőforrás igénye miatt DLSS jobban jön míg Radeon mellé RT hiányában egyértelműen jobban passzol a saját eljárásuk.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Formula-1
- Battlefield 6
- PlayStation 3
- Hogy is néznek ki a gépeink?
- Apple asztali gépek
- Letisztultságra vágysz? Itt az ASUS legújabb miditornya
- Arc Raiders
- Elon Musk billiomos lesz, ha kitör a gépek forradalma
- AMD CPU-k jövője - amit tudni vélünk
- Google Pixel 9a - a lapos munka
- További aktív témák...
- Samsung Galaxy A80 128GB, Kártyafüggetlen, 1 Év Garanciával
- Apple iPhone 12 Pro / 128GB / Kártyafüggetlen / 12Hó Garancia
- 0% THM 6 havi részlet beszámítás! 5060Ti/5070/5070Ti/5080/5090 videokártyák készletről KAMATMENTESEN
- 11 GB-os RTX 2080 TI - HP OEM - garanciával
- Önerő nélkül is elvihető! RÉSZLETRE .OPCIONÁLIS. Gamer szék noblechairs HERO Valódi Bőr Fekete
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: Laptopműhely Bt.
Város: Budapest

, de abban bízok, hogy erősen megtervezik ilyen hiba után a jövőt




német.

