Új hozzászólás Aktív témák
-
Tinya
csendes tag
Az Nvidia sokkal több Cuda core-t pakolt az új 3000-es videókártyáira mint hittük. Felkészültek volna arra az esetre, ha a programozhatóság mellett döntenek a fejlesztők?
-
Carlos Padre
veterán
-
Abu85
HÁZIGAZDA
Igazából PC-n a Ratchet & Clank aktuális verziója nagyon nehezen futna. Az adatmennyiség, amivel real time dolgozik, az nagyjából 100 GB. Ez PS5-ön könnyű, mert alapvetően a játék úgy működik, hogy a telepített program lesz maga a rendszermemória. A PS5 valós memóriájának egy kis része, konkrétan 2,5 GB lesz a CPU memóriája, a maradék, OS által nem használt terület pedig egy utolsó szintű, több GB-os cache-ként működik, ahova az SSD-ről streameli a rendszer az éppen szükséges tartalmat. Ezért tudnak olyat csinálni, hogy egyik pillanatról a másikra kicserélik a főhős körül a pályát, ugye a dimenzióváltás. Na most ezt PC-n is meg lehetne oldani, de szükség lenne arra, hogy az adat ott legyen a RAM-ban és a VRAM-ban, viszont nem elérhetők olyan memóriakapacitással rendelkező VGA-k, amelyek el tudnának bánni ekkora adatmennyiséggel. A dolog úgy lenne megoldható, hogy a gyors váltások valójában töltőképernyőt eredményeznének, így ha a gépben lenne mondjuk 64 GB-nyi rendszermemória, akkor onnan másolhatók lennének a szükséges adatok a VRAM-ba, és akkor futna PC-n is, de elképesztően megtörné a játék működését, mert ez egy játékmenetbe épített elem, minden dimenzióváltásnál a loading felirat, majd a várakozás megtörné az élményt.
Az az Unreal Engine 5-ös techdemó is hasonlóan működik. Az egész adatmennyiség, amit feldolgozó 150 GB fölötti. Működne ez PC-n is, mert a számítási kapacitás megvan, de hiányzik a memória VGA-król hozzá, így olyan pop-up "élmény" lenne az egész, mint anno volt a Rage. Ezen úgy segít az UE5 PC-n, hogy 128 GB rendszermemóriát használ, de még így is rengeteg a popup. Egy szimpla, 32 GB RAM-mal rendelkező PC-n 20 másodpercig is eltart, amíg feltextúrázza az aktuális környezetet a motor. Addig persze fut, tudsz benne járkálni, csak elmosódott minden felület, és mivel a mai VGA-k VRAM-ja eléggé limitált, gyakorlatilag rövid időn belül törölni kell a tárolt tartalmat, tehát az egész egy pop-up fesztivállá válik. De persze lefut, a Rage is működött pop-up mellett. Csak a játékosok nem voltak kibékülve, hogy várni kellett, amíg a textúrák megjelentek.
(#84) morgyi: Az, hogy az explicit API memóriamenedzsmentje nehéz, nem jelenti azt, hogy nem tetszik a fejlesztőknek, hiszen van egy nagy különbség a régi API-hoz képest. Ha esetleg nem működik a program, akkor tudnak rajta módosítani, míg régi API-val ez lehetetlen volt, a gyártókat kellett megkérni, hogy ha van esetleg idejük, akkor csináljanak már valamit, ha szerencséjük volt fél év alatt csináltak is.
---
Általánosan a DXR-re.
A DXR 1.0 nagyrészt a Microsoft és az NVIDIA megoldása volt, míg a DXR 1.1 már sokkal átfogóbb egyeztetés eredménye, így elég nagy kooperációval alakult ki. Az AMD megoldása egy harmadik alternatíva, és elérhető mindkét új konzolon. Alapvetően a Microsoft, a Sony és az AMD közös fejlesztése, ebbe a PC-s GAB tagok nem szóltak bele. Majd ezt is eléjük fogják rakni, és akkor erre készülhet egy szabvány.
-
K0vasz
aktív tag
válasz
Carlos Padre #87 üzenetére
nyilván nV kártyán is futna ugyanígy, ugyanilyen kinézet mellett. ez most olyan, mint amikor megjelent az Unreal Engine 5 techdemója PS5-re, és jöttek az emberek, hogy "hú, ilyet csak a PS5 tud!", aztán kiderült, hogy egy 2070S is képes ugyanerre a kunsztra
-
Kansas
addikt
Egész eddig azt hittem, olvastad a cikket... attól még, hogy a DXR szabvány, az egyes teljesen kompatibilis gyártói megvalósítások jelentősen eltérnek egymástól, szóval de, van olyan, hogy NV irány.
Hadd ne essek hasra az "AI felhasználás"-tól... azon kívül mire használják még, hogy megmondja előre, hol mennyit lehet butítani a grafikán, hogy a user ne nagyon vegye észre, így javítva aDXR aktiválásától brutálisan beeső fps-t?
-
De nincs ilyen hogy NV iránya. A DXR 1.0 egy Microsoft szabvány.... de nvidianak érdeke volt van hogy benne legyen a z RT kezdetetétől a fejlesztésben. Ha megnézed nem csak az RT - t hozta be korai verzióba, hanem az AI felhasználását.
Microsoft behozta a DXR 1.0 át és kért rá egy megoldást a gyártóktól.
Nvidia megoldotta ezt hardveres és szoftveres módon, fut egy pascalon is... Ezek a korlátai a DXR 1.0 nak. Intel AMD nem foglalkozott vele, érthető okokból.
Microsoft a DLSS -- is a Direct ML segítségével hozza be általános szabvanykent.
Ez ugyan olyan tapasztalat szerzés nekik, mint Micronak.
A konzolok RT megoldását és a Inline RT-t pedig együtt dolgozták ki a cégek. Amit AMD most mellekvaganyon csinál, hogy behozza a PS5 RT verzióját egy nem szabványos formában Windows 10 re.(PS5 nem directx alapú.) amelett hogy a többi játékban persze támogatja a dxr1. 1 megoldásait. Ez nem zárja azt ki, hogy nem építik ezt be késöbb a DXR alá szabvanyba. -
Kansas
addikt
Látjátok, nekem pont emiatt nem áll össze ez a kis összeesküvés-elmélet: a Microsoft konzol-gyártóként pontosan tudta, hogy nem az NV-től veszi a vasat, hanem az AMD-től, és arra a megoldásra lesz érdemes neki ráállnia hosszabb távon.
Nem tudom, kinek az ötlete volt, nem kizárt, hogy a Microsofté, és az NV bevállalta az early adopter/kísérleti egér szerepet(tudtommal nem bennfentes infó volt, hanem konkrétan együtt hozták össze), cserébe volt bő másfél éve, ami alatt lobogtathatott egy exkluzív feature-t, ami sok embernek eladta az RTX kártyákat agylövéses árakon.
Ennél jobban csak akkor jöhetett volna ki belőle, ha ez idő alatt nem derül ki, hogy másként csinálva jobb lehet és esetleg még érdemi támogatott játék mennyiséget is össze tudtak volna grindolni olyan játékokból, amivel az emberek nem csak techdemó jellege miatt játszanak(ugyebár Quake-nek úgy kellett az RT mint egy falat kenyér... Minecraft-nak dettó), szvsz egy kézen meg lehet számolni még mindig azokat az eddig megjelent játékokat, amikben igazából ér valamit, nem csak állóképen, nagyítóval...(#90) Carlos Padre : nem mondtam, hogy az NV találta ki. Az általad felvázolt képet nem tartom életszerűnek - nem hiszem, hogy az AMD önszántából adott másfél év szabad rablást az NVidia-nak, hogy legyen ideje a saját megoldását fejleszteni... ha az NV iránya bejött volna, most lehet hogy senkit nem érdekelne az AMD megoldása... így egyelőre csak a zöld szemellenzősek ágálnak ellene látatlanban, pedig az új konzolok eljövetelével egy NV proprietary RT további térnyerése kb. esélytelen...(lásd: Mantle, miután kijött a Vulkan és a DX12)
A "Most ott tartunk..." résztől kezdve kb. egyetértünk. -
Tinya
csendes tag
válasz
GeryFlash #91 üzenetére
Azt nem mondta, hogy az AMD ötlete volt. Az AMD-nek volt/van egy más módszere az RT-re, de a Microsoft az Nvidia megoldása felé hajlott ezért nem láthattuk még élesben az AMD megoldását, mert ők ezt nem nyílvánosan fejlesztik. Az Nvidia RT megoldását meg mindenki látja, hogy fejlődik. Úgy kell elképzelni mintha az Nvidia RT-jének lett volna egy "Beta"-ja, de az AMD skippeli ezt és egyből egy korrekt RT megoldást szeretne letenni az asztalra. De a konzolokban az AMD úgyis befogja bizonyítani a Microsoftnak, hogy milyen az ő megoldásuk az RT-re.
-
Tinya
csendes tag
válasz
Carlos Padre #90 üzenetére
+1
-
GeryFlash
veterán
válasz
Carlos Padre #90 üzenetére
Ezt te honnan veszed, hogy az in-line raytracing az AMD ötlete volt? nem mondom hogy nem csak erről még sehol nem olvastam.
-
Carlos Padre
veterán
Ki ne találd már, hogy az Nvidia ötlete volt. Annyi történt, hogy az Nvidia bennfentes infok alapján idő előtt piacra dobott egy terméket (ismét), amihez volt kéznél egy fixfunkcios hardverük, amivel brute force meg tudták oldani rettenetesen rossz hatásfok mellett a feladatot. Az AMD viszont közölte a Microsoftal, hogy van erre egy jobb ötletük és nem ebbe az irányba fognak elindulni. Most ott tartunk, hogy az Nvidia megoldása zsákutca lett és az AMD-féle lesz a jövő. Persze ettől az Nvidia még sikéresnek mondható, hogy elmondhatják, hogy övék az első RT kepes videokártya (egyébként nem) és eladtak egy csomó marha drága videokártyát, amit amúgy enélkül nem sikerült volna.
-
Kansas
addikt
A konzolokban DX12Ultimate(DXR1.1)-képes GPU-k lesznek, csak majd a Sony nem úgy hívja, mert tojik a DirectX-re. A Microsoft gyakorlatilag úgy is hívja.
Az AMD nem "utoléri az NV-t", hanem implementálja azt a szabványt(DX12U), aminek a része az új generációs DXR, tehát papíron ugyanazt tudja feature szinten, mint az RTX-ek(DLSS-t kivéve, de az sebességjavító eljárás, nem látványvilág-javító, így e tekintetben lényegtelen).
Ahogy annak idején az AMD-t(low-level PC API kapcsán pl.), most az NVidiát dícséret illeti, hogy egy előre mutató technológiát bevezetett, de ahogy annak idején az AMD-nek, most az NV-nek sem sikerült önerőből elterjeszteni - mindkét esetben szabványosítás és össz-gyártói támogatás hozta el az elterjedtséget(Mantle -> Vulkan + részben DX12).
Tippem szerint az RT-képes konzolok és AMD kártyák megjelenése utáni fél-egy évben jelentősen több DXR-t támogató játék fog megjelenni, mint az NV-exkluzivitás majd' 2 éve alatt...
Szintén tippem szerint az RDNA2-es AMD kártyák az új konzolok startja környékén jönnek, majd október-novemberben, az NV-kártyáihoz árazva, talán egy bolhafingnyival jobb ár/érték aránnyal, szokás szerint.(#88) morgyi : egyedül biztos nem, és alighanem a konzolok sebességét se fogják elérni az első ilyen megoldások a fixfunkciós egységek hiányában, de talán első körben annyit elhoznak PC-re is, hogy ha gyors SSD-t érzékel a telepítő, akkor nem multiplikálja a lemezen az asset-eket(kisebb lesz az installált méret) és talán jobban optimalizálja SSD-re a betöltéseket is, tehát ha nem is teljesen, de gyors SSD használatával javarészt megszabadulhatunk a töltőképernyőktől... talán.
Valahol el kell kezdeni... -
válasz
#32839680 #84 üzenetére
Igen én is így gondolom és ezért is hiszem azt hogy a konzolokra ez nem probléma, ott a fix hardver ,igazából kiismerik /tapasztalják aztán kénytelenek programozhatóságra építeni, főleg ha marketingelik az RT-t - 4 K-t és egyéb nyalánkságokat. DE PC-n valahol elvárás nekik, hogy a VGA - gyártók oldják azt a pluszt amit nekik amúgy nincs kedvük/ idejük/ pénzük.
Mivel konzolon elérik hamar a limitációt RT ben onnan a többi munka felfele minőségben a portokban megint pénz és driverek kérdése lesz.
Frostbite pont jó példa, mennyire szartak rá, hogy a Dx 12 port jó és élvezhető legyen. -
K0vasz
aktív tag
válasz
#32839680 #79 üzenetére
a konzolokban első generációs ray-tracing képes GPU-k lesznek. az AMD megoldását még nem láttuk, mit tud, az nV-é meg már 2 éve itt van velünk, és most jön a továbbfejlesztett/felturbózott változata.
én nem azt mondom, hogy teljességgel lehetetlen, hogy az AMD most egy ugrással utoléri az nV-t RT téren, de azért ahhoz előbb meg kéne jelennie azoknak a kártyáknak, amiknek még csak megjelenési dátuma sincs - ellenben a 30xx szériával, ami gyk. egy hét múlva itt lesz (legalábbis a "teteje") -
Darmol
senior tag
És még a katonai rövidítéses zsargont szokták kifigurázni a filmekben...
Azt meg tudja mondani valaki, hogy az nV megoldásában használt RTX megoldása (Tensor mag, RT egység, egyebek) árából hány általános AMD egység jön ki? És ezek milyen arányban vannak egymással számítási teljesítmény tekintetében? Mert amennyire én látom, alapvetően ez fog dönteni.
És mindenképpen süvegelem az nV-t, amiért jelentős összeget tolt bele a technológia fejlődésébe. Mindig így kéne. -
válasz
#32839680 #79 üzenetére
Ezt az AMD és az Nvidia érkező kártyáira értem.
Nem a csúcshoz nézve én azt gondlom,de ugye pont azért hoztam fel az unrealos fejlesztőt, mert az általa készített játék RT vel amit belinkeltem egy 1080 ti-n is elfut vidáman. Az új konzolokon nem az RT lesz a fő irány szerintem, mert hamar lelépik az érkező VGA generációk,de optimalizálással és jobban eltolva a mérleg nyelvét a raszterizáció felé viszont nem lesz probléma ez. Csak a kommentekre utalva, nem a konzolok jelentik a lépcsőt az RT ben és nem ott fog kiütközni bármi is a gyártók eljárásai között ezt szinte biztosra veszem,de a konzolok szempontjából ez a jó út és oda jobb valóban ez a megoldás,de VGA-k terén ez szerintem nem így van illetve lesz, hanem azt választják ami egy általános könnyen implantálható megoldást jobban és gyorsabban működtet és az nem a programozhatóság lesz, nem azon fog múlni, hanem a gyártók saját hardveres/ driveres megoldásain. -
Abu85
HÁZIGAZDA
Megvan, de ez amúgy minden hardverre, effektre, stb. igaz.
Tudom, hogy az Unreal megy a 3D audió irányába, már jó ideje be van építve a SteamAudio 2.0, és egész jól használható is az újabb verziókban: [link] - ebben leírják, hogy miképp tudod kihasználni. A Ray Tracernél azért vigyázz, mert nem mindig a Radeon Rays adja a legjobb eredményt, ha nem fogja be a GPU-t, akkor az Embree jobb. Az a lényeg, hogy ne a Valve ray tracere legyen, mert az borzalmasan lassú (csak egy szálon fut).
A konzolok ebből a szempontból külön supportot kapnak, mert mások az API-k, bár a ray tracer az Radeon Rays azokon a gépeken is, de ez mindegy.
-
Bocs de az megvan, hogy ő nem ezt mondta és én sem ezt írtam le neked hogy ezt mondta ugye?
AZt mondja hogy meg kell találni az ideális egyensúlyt a hardver valós teljesítménye és a raytracing hadver igénye között és ennek megfelelően kell keverni a raszterizációt és a raytracinget, hibrid megoldással és erre kitalálni új megoldásokat, szűrőket stb.. [link]
Amúgy Richard egy játékfejlesztő, Borderlands alatt is dolgozott nem mint Nvidia alkalmazott... [link]
Pont ő nyilatkozott hogy fogja kihasználni az Unreal a raytracinget a Adióban , hogy készítették erre fel a motort hogy kezelje majd az RT audiót az Xbox és a PS harverével.
A saját játékát egy GTX 1080 Ti-n futtatja raytracinggal nem is akárhogy, talán ért valamit az optmalizáláshoz ugye? ha ő azt mondja hogy egy harver igényli azt hogy lebutítsanak bizonyos effekteket akkor az úgy is van. [link]
és ha azt mondja hogy az Ampere egy hatalmas előrelépés lesz raytracing terén az Unreal alatt akkor az is úgy lesz..
talán neki el lehet hinni, hogy tudja miről beszél.
Biztos nem magasztalná a raytracing alapú hangzást többek között az új konzolokban ha ez annyira sértené az elfogult lelkét vagy ha az nvidia miatt csak zöldet tudna pisálnide azt talán el fogod tudni fogadni, hogy az Új generációs kártyák jobbak lesznek RT ben és kevésbé igénylik a z RT butítását mint a konzolok... -
-
A Turing megjelenésekor volt egy Vega és egy RX 590-570 kártya család. Szerintem egyértelmű, hogy nem a rá 1 évre megjelent RX 5700 kártyára gondoltam, mikor arról beszélek, hogy a Turing megjelenésekor..
A mesh shading DX 12 Ultimate , VRS szintén...jah van primitive shader csak az nem dx 12 ultimate.
A DLSS és a raytracing két különböző dolog, hogy ne leehetne aktiválni? az egyiket amásik nélkül? és se DLSS1.0 2.0 meg főleg nincs. Jó lenne a jelenben gondolkodni és elfogadni hogy DLSS 2.0 van és remekül dolgozik továbbra is.
A DLSS és a RIS két különböző dolog . NIncs DLSS hez hasonló megoldás Navin Nvidán a RIS hez hasonló élesítő filterek vannak...
Továbbra is egy elfogult hülyeségnek tartom hibának felróni azt hogy valamit tud egy gyártó kártyája úgy hogy a saját kedvenc gyártónk vele egy generációban lévő kártyája nulla sebeséggel képes futtatni ugyan ezt plusz nem támogatja a Dx 12 ultimate ficsőrjeit és így leszólni a konkurenciát hogy az tudja ugyan azt asebességet és még fölötte is minden extra ficsr nélkül. részemről ennyi off. -
Kansas
addikt
Attól még, hogy az NVidia alkalmazottja, mondhat igazat... olyasmit nem mondhat, ami rossz színben tünteti fel a munkaadóját...
(#68) T.Peter: őszintén szólva, ha ezt tudja az Unreal Engine 5 raytracing nélkül(az engine tud raytracinget, a demóban nincs belőle), nem igazán fogom nedvesre sírni a párnám hogy nincs RT gyorsító a gépemben...
-
Abu85
HÁZIGAZDA
Na most Richard Cowgill nem az Epic, hanem az NVIDIA alkalmazottja, tehát az Epic szempontjából mindegy, hogy mit mond. Nyilván nem azt fogja, hogy bucira ver minket az AMD implementációja, ki is csapnák az NV-től, ha megtenné.
-
-
Abu85
HÁZIGAZDA
Némi pontosítás. A DXR 1.1 és a DXR 1.0 futószalagja nem kompatibilis egymással. Vagy az egyiket támogatja a program vagy a másikat. Amelyiket támogatja, ahhoz megfelelő meghajtóimplementáció kell. De a lényeg, hogy ha egy program inline raytracinget használ, akkor az nem képes DXR 1.0-s implementáción futni, míg ha a sugárkövetés dinamikus shader-alapú, akkor az DXR 1.1-es implementáción nem futhat le.
A programszintű kompatibilitás már abból adott, hogy a DXR 1.0-s és 1.1-es kódok futtatátáshoz gyakoraltilag elég egy compute shadert támogató GPU (kb. az elmúlt tíz évből bármi), ha van hozzá driver. Mindkét DXR verzió úgy van felépítve, hogy a futószalagok implementálhatók szoftveres szinte, compute shaderrel. Tehát alapvetően a Microsoft egyik DXR verziónál sem követel direkt hardveres támogatást. Emiatt is tudnak olyan rendkívül szabadon dönteni a futószalagra vonatkozó újításokról. Ha az új futószalag valamelyik lépcsője nem megfelelő a régi hardverekbe épített gyorsítókhoz, akkor azokat a lépcsőket meg lehet írni compute shaderben.
-
Kansas
addikt
válasz
#32839680 #64 üzenetére
Nekem PS4Slim-em van, ahhoz képest a sima PS5 is jelentős előrelépés lesz - a lemezes változat, mert egyelőre a játékaim jó része lemezen van. Ha Pro-m lenne, én is kivárnám a refresh-t, de a 4K/60 nem fog rosszul jönni, azt meg gondolom kb. minden PS4 játék esetén tudni fogja a PS5, az RT meg csak hab a tortán.
-
#52931072
törölt tag
válasz
#32839680 #61 üzenetére
Valami számadatot tud esetleg valaki, hogy az eladott nv kártyákból mennyi az rtx? Abból következtetni lehet valamelyest, hogy mekkora vásárlóközönséghez jut el az rt manna. Mondjuk abból a számadatból következtethet az amd is, hogy mennyit érdemes ölni a fejlesztésbe.
-
#52931072
törölt tag
A lényeg azért megvan? Nvidia a csúcslegjobb, neki igazi rt-je van, az ájemdének meg kamu, és az rdna 2 rosszabb lesz mint a zampere bibibí!
Nagyapám harcolnt nvidia polgárdzsihádban.
Stb, szóval a szokásos, szerencsére van aki érdemben megválaszolja a kérdéseket, csodálatra méltó higgadtsággal. -
NightGT
senior tag
Volt a Crysisnek az a ray trace demója, ami egy 1070Ti-n futott 70-90 Fps között. Mondjuk abban is leginkább csak tükröződés volt jól elmosva, de azthiszem ott, vagy egy CD Projekt interjúban mondta valaki, hogy valós ray-trace az kb. Hollywood big budget filmben van, ahol napokig renderelik a 20 másodperces jelenetet a stúdióban. Pedig ott van vas is bőven, és nem konzumer szint. De még az sem a végtelenig szimulál minden fotont, nyilván.
Metro Exodusban mondjuk már látszott, hogy milyen szép, atmoszférikus megvilágítást lehet majd egyszer ezzel, nem véletlenül annak voltak a legcsúnyább FPS dropjai RTX on esetén
-
Carlos Padre
veterán
válasz
cskamacska #45 üzenetére
"AMD változata pedig jelenleg csak papíron létezik."
Ez már egy éve sem volt igaz. Nagyjából akkor kezdett terjedni az is, hogy az AMD megoldása kamu szoftveres és csak az Nvidia megoldása a valódi hardveres RT, miközben mindkettő hardveresen gyorsított hibrid megoldás.
-
Kansas
addikt
A Navi megjelenésekor tudott alacsonyabb árat, mint az akkor 8 hónapos Turing(2018 október vs 2019 július az nincs egy év - 2070 vs 5700), és az RT-n kívül más nem hiányzott belőle(DLSS az RT-hez szorosan kapcsolódik).
A címeket megnéztem, ott a link (#54)-ben, nem 35 hanem 11 cím, 2020 közepén..."Volt egy Vega és egy RX széria. Mindegyiknél gyorsabb volt még a 2060 is." vedd ki a kezed a biliből, az 5700 átlagban verte a 2060-at, az XT pedig a 2070-et is, csak a Navikkal egy időben bejelentett Super-ekkel volt kicsit(2-5%-kal) jobb az NV, de még mindig jó 10-15%-kal drágábban.
Mesh shading van, csak nem ilyen néven(primitive shader-re keress rá), a DLSS v1-et meg körberöhögi az AMD RIS szoftverből, csak a v2 ér valamit, de azt sincs értelme RTX nélkül alkalmazni(lehet egyáltalán???) -
Kevered a DXR-t a dx12 ultimate támogatással.jah hát egy érkező, meg sem jelent kártyát hasonlítunk egy 2 éve piacon levőhöz. A DXR 1.0 és a Turing hianyossagait és ficsorjeit nézed egy érkező, meg sem jelent kártyához. Azt nézzük mit tudott AMD akkor amikor kijott a Turing. Volt egy Vega és egy RX széria. Mindegyiknél gyorsabb volt még a 2060 is. Az RDNA 2 pedig az Ampere ellenfele lesz.
A Navi 1 évre rá jelent meg mint a Turing hiányos tamogatottsaggal, nincs mesh shading, DLSS, ami egy normál 2060 kártyan az új F1 gamet 4K 60 FPS képessé teszi. Remélem megkapják a 3.0 támogatást is a Turing.. stb de ezt már veled megbeszéltük nincs kedvem ugyan azokat az ultimate érveket felsorolni. Maradjunk annyiban, hogy minimum illő olcsóbban adni mert vége lesz az RDNA 1 nek mint a botnak hamarosan.
A címeket te is meg tudod keresni szerintem, Google. -
Kansas
addikt
Nem arról volt szó, hogy összesen hány cím támogat valamilyen DXR-t, hanem arról, hogy hányban van 1.0.
Techdemókat nem számítva, tusz egy felsorolást adni(link is jó) a már megjelent DRX 1.0 játékokról? Nem bejelentett, nem tervezett, hanem megjelent... én ezt találtam, ugyan már nem 5, de még nincs egy tucat...A Navi1 honnan jött a képbe? Az RDNA2-ről volt szó...
De ha már Navi 1.. én is vettem egyet, mert nem akartam 40-50e-vel többet kiadni egy azonos erejű NV kártyáért(RTX2070), csak mert(akkor) 2-3 játék meg egy techdemó tudott RTX-et, jelentősen vágott fps-értékek mellett, ráadásul egyik se olyan ami engem érdekelt volna.
A dx12u újításainak supportjáról már vitáztam itt egyet párakkal, nem kezdem el újra, maradjunk annyiban, hogy a hardveres képességek megvannak, ahogy az NV ki tudott adni RTX támogatást Pascal-ra, úgy az AMD is ki tud dx12u támogatást adni Navi1-re ha akar..., sőt, ha ez alapján a cikk alapján jól értem, akár DXR-t is tudna RDNA1-en támogatni legalább olyan szinten, mint az NV a Pascal-on.. -
35 cím és a DXR 1.1 kompatibilis visszafelé. Meg mindig több cím mint amennyi kihasznalta a HBCC lehetőségeit megnovelt Vramigenyet Vegan vagy radeon 7 kártyán..
Nem látom azt hogy ki mit veszített azzal hogy bármelyik Turing tudja a DXR 1.0 át az mellett hogy sebességben anélkül is jók voltak.
Az mellett a dx 12 ultimatet támogatják teljeskoruen a RDNA 1 meg nem.nem csak a DXR ben járnak előrebb az 5700 szerianal, van még pár ficsor amit a Turing tud a Navi 1 meg nem,eleg megnezni a dx12u újításait. Szóval nem lesz ez annyira csúnya öregedés. -
Kansas
addikt
válasz
#32839680 #51 üzenetére
"a buta DXR1.0-át használó tavalyi címeken szarul megy" mind a négy címen, vagy van az öt is? Plusz, ahogy mondod, azokban a címekben mintha NV-n se futna valami fényesen... Majd ha nem lesz jobb dolgom, elmorzsolok egy könnycseppet nagy bánatomban...
(#45) cskamacska: ja, papíron... az összes next-gen konzolos spec-sheeten.
-
válasz
Carlos Padre #44 üzenetére
Szerintem addig, amíg az nvidia is rohadt erős gépi tanulásos denoisert használ azért, hogy a nem végtelen közeli fotonnal dolgozó sugárkövetést utánozza, addig felesleges "ál-RT"-ről beszélni.
A számítógépi grafika mindig csak a valós látvány közelítésével próbálkozik különféle véges módszerekkel, a realtime játékgrafika meg aztán végképp mindig bevet minden trükköt hogy a látvány meggyőző legyen, a lehető legolcsóbban. Ez egy ilyen sportág. -
keembo
tag
Jó korán érkezhettem, hogy még nincs komment arn-től, csak azért jöttem.
-
K0vasz
aktív tag
válasz
#32839680 #47 üzenetére
dehogy várok
pont, hogy akkor fogok meglepődni, ha tényleg fasza lesz az AMD megoldása, és nem csak a szokásos "ki kell forrja magát a driverekkel és akkor majd sokkal jobb lesz, mint az nv" mantra lesz belőle
Valahol olvastam az Nvidia szerint a Turing architektúra úgy fog öregedni mint a Kepler.
hát ha igazak azok a hónapok óta keringő pletykák, hogy a 30xx széria 4-szeres RT teljesítményt ad, akkor elég csúnyán fog öregedni, igen
mondjuk eleve drágán mérték ezt a generációt, plusz egy új, első szériás technológiáról van szó, szóval azért annyira nem meglepő a dolog
-
K0vasz
aktív tag
navit eddig is csak akkor volt érdemes venni, ha nem érdekelt az RT, illetve úgy voltál vele, hogy még pár évig úgyse lesz értelme, aztán meg majd veszel másik kártyát, ami meg már tudja
viszont akárhogy is csűrjük-csavarjuk a dolgokat, a lényeg úgyis az lesz, hogy a gyakorlatban mennyire lesz erős a bignavi RT implementációja MOST - hogy a jelenlegi címekben mennyire esik be vele az fps, illetve hogy látványban lesz-e különbség az RTX-hez képest. én a magam részéről nagyon kíváncsi vagyok, mert a fullHD@60fps nekem elég, és mondjuk eggyel nagyobb felbontástól nem fog leesni az állam, ellenben valami fasza RT implementációtól viszont igen
-
cskamacska
addikt
válasz
Carlos Padre #44 üzenetére
"Az Nvidia jelenleg nem hatékony"
AMD változata pedig jelenleg csak papíron létezik.
És erősen kérdéses hogy később mi lesz vele, mert alap esetben a Tensor magok csak árfelhajtó fűtőtest szerepet töltenek be az RTX kártyák hátán, de ha ray tracing feladat van, ott az utolsó flops-ot is ki lehet belőlük préselni.
AMD-nél meg majd lehet felezni és negyedelni az általános graf teljesítményt az RT effektekért cserébe.
-
Carlos Padre
veterán
válasz
SindaNarmo #31 üzenetére
"Kamu RT" jelenleg a tükröződés, az árnyék és az átlátszó felületek például, vagy a GI. Ha viszont sugarakat számolva oldod ezeket meg, akkor nem kamu vagy nem , hanem hatékony, vagy nem. Az Nvidia jelenleg nem hatékony ezért a fanboyok erőltetik ezt az AMD kamu RT dumát.
-
nem értettél meg. Konzolon azt eszed amit eléd raknak Attól hogy képes DXr re nem biztos, hogy minden azonos szinten és azonos keverési arányben fog futni egy Xboxon mint egy Ampere kártyán.Mindegyik esetben rá lesz sütve hogy RT és kész valamint egy laikus nem mondja meg a különbséget talán,mint a Metro alatt. A másik esetben meg valószínűleg nagyon sok lépcsőben részletesen állíthatod.
-
Abu85
HÁZIGAZDA
Olyan nincs. Ha te DXR-t használsz egy programban, akkor két eltérő, DXR implementációval rendelkező hardveren, ugyanabban a jelenetben, pontosan ugyanolyan a sugárkövetés és a raszterizáció aránya. Ez azért nem lehet másképp, mert ugyanazt a programot futtatod. A hardver a programban írt kódot tudja futtatni, nem tud a semmiből programkódot generálni magának.
A felbontás kérdése beállítás kérdése. Küldhetsz sugarat pixelenként, négyes pixelblokkonként, de akár egy pixelből többet is, mind konfigurálható akár a DXR-ből is. Az AI felskálázásoknak ehhez semmi köze, azok a végső képen mennek, amik már eleve kész eredmények.
Ma RT-t csak effektekre lehet használni, így mindenhol keverik a raszterizálással.
Ha nem valós-idejű egy számítás, akkor nincs értelme RT-t használni. Ennek pont a valós idejű eredmény a lényege. Ha erre nincs szükség, akkor beraksz egy előre generált lightmapet, vagy visszatükröződésre env mapet, és milliószor gyorsabban kapsz eredményt. Viszont ezeknek a hátránya, hogy nem valós idejű megoldások. RT csak valós időben van értelme használni, máshol nincs haszna, mert jobb eredményeket adó, milliószor gyorsabb alternatívák vannak rá.
Az RT-t több évig csak effektekre fogják használni, viszont nem muszáj az effekteket portolni. Konzolon alig van olyan játék, ami CAS szűrőt használ, míg PC-n már rengeteg címbe belerakták a CAS-t. Ez lesz később is. Nem muszáj mindent portolni a platformok között, mert xy effekt nélkül még működőképes marad a program.
-
GodGamer5
addikt
Arra leszek kíváncsi, hogy a gyengébb hardverek vajon megkapják a normális RT képességeket? Mert csak így érné meg a fejlesztőknek beletenni az újabb játékokba, ha a középkategória is képes lenne értékelhetően futtatni az új effekteket.
-
kamu RT: amikor két eltérő hardveren az egyik esetében nagyobb a hagyományos raszterizáció aránya ugyan azon jelenetnél....Nem minden raytratcing effekt egyformán terheli le a hardvert és nem minden RT effektet érdemes egy gyenge hardveren alkalmazni. (Azért tételezzük val hogy az Ampere és az RDNA2 lényegesen erősebb lesz dx12 ultimate szempontjából, mint az Xbox... )mert többet vesztesz vele teljesítményben mint amennyit nyersz látványban. Ez mellet ott van az is amit a Cryengine használ, hogy az egyes RT effekteket nem valós felbontáson futtatja le hanem kisebben majd ezt skálázza ha tudja míg DXR1.0 nál ilyen nincs, ott max a DLSS van ami viszont az egészet skálázza... Ha tudja vagy eleve mondjuk alá skálázott az kép, mert kell a 4 K 60 FPS ugye, akkor akár rosszabb eredményt is kaphatsz mint ha nem lenne beépítve. Ez az amikor a töltényhüvelyeket elemeztéka Norirban, hogy annyira lebutították a reflectiont és mellé a felbontást hogy nem látszott a tükröződés. ...de elmegy egy GTx 1060 kártyán raytracing pascalon és vegán , hurrá. Megéri?
magyarul megpróbálják észszerűen felhasználni a konzoloknál az RT-t és keverik raszterizélással, hagyományos megoldásokkal hogy teljesítményt nyerjenek. PC-n lehetséges hogy ugyan azon jelenet fele akkora sebességgel fut mondjuk egy Ampere-n és egy laikus nem mondja meg a különbséget, hogy konzolon nem valós idejű mondjuk egy árnyék, míg PC-n igen, csak az utóbbinak ára van.DE RT lesz a marketing ott is meg itt is, a laikus meg tapsol, hogy mennyivel jobb a konzolon az RT.. Ezt nyugodtan lehet trükknek, csalásnak bárminek hívni, és hasznos és pozitív oldala van ennek egyelőre.
Kérdés mi lesz a következő generációs kártyánál ezzel, amikor már vissza fogják az RT terjedését a konzolok és egyre inkább eltolódik az arány majd a raszterizáció/ felbontás skálázás stb felé ...Jön a pro vagy hanyagolják az RT-t? -
Abu85
HÁZIGAZDA
Nem kell megvárni a köztes generációkat. Már nagyon jól használhatók erre az új konzolok.
Érdemes majd elfelejteni a mostani tipikus teljesítményvesztést. Ezeket nagyrészt a nem túl gyorsra tervezett DXR 1.0 okozza. A DXR 1.1 már önmagában sokkal jobb rendszer, és PC-ben is jobb lesz vele a sebesség.
-
Shing
őstag
Ezeken a dolgokon lehet filózni, de teljesen mindegy ha a nyers teljesítmény nincs meg.
Úgy gondolom, hogy az alapokat most lefektetik, aztán ha lesz konzolon RT, akkor majd az a félúton megjelenő Pro és X változatokkal lesz lehetséges (vagy bárhogy hívják majd őket).PC-n addigra ugyan úgy lekúszik az olcsóbb kategóriákba. Addig lehet csöpögni, hogy mit tudnak a csúcs hardverek (bár sztem eddig sem volt senki sem elájulva)
Ja és AAA játékokról beszélek. Az teljesen mindegy, hogy vmi faék stílusú játékban bevetik, de az a terület pont jó lesz bétázgatni hogy merre menjenek. -
paprobert
őstag
A szabadon skálázható nem végtelent jelent. De ha igény van rá, tetszőlegesen befolyásolható a darabszám, míg a TU-hoz kötött változat mindenképp felesleges hardverelem növelést von magával (illetve ha nem akarják megbontani a TU struktúrát, egy skálázási limitet), legalábbis az én értelmezésem szerint.
-
Abu85
HÁZIGAZDA
Mi az, hogy minden RT effekttel? RT effektek között is vannak nagyon terhelők, és alig. Leginkább a reflection terhel, míg az árnyékok számítása kedvezőbb a hardvernek, mert nincs árnyalási fázis.
Nekik is menne a jó RT sebesség, de az Unreal Engine fejlesztése nem kedvez ennek. Ez a motor egy terepjáró. Minden terepen jó, de egyben mindenhol lassú. Mivel rengeteg platformot támogatnak, így sosem tudnak teljesítménykritikus megoldásokat választani, mert ugye azokat el kell vinni nem egy, hanem több API-ra is. Az UE ezért nem vezette még be a DXR 1.1-et, mert azt nem tudják jól leportolni Metal és Vulkan API-ra, így viszont sokáig a rendkívül lassú DXR 1.0-ra vannak kényszerítve. Ha már API szinten is a lehető leglassabb futószalagot használják, akkor persze, hogy nem gyors hardveres szinten. De nem hiszem, hogy ők azért ebből messzemenő következtetéseket vonnának le, hiszen tudják ők, hogy mekkora teljesítményhez nem nyúlnak hozzá a hardverekben. Csak egy példa. Az új Spidermanbe nemrég építettek be RT reflectiont, ami PC-n tipikusan -40%-ot sebességvesztést jelent, de ezt az RDNA2-n megoldották -8%-ból. Az Unreal Engine fejlesztői is hozzányúlhatnak a modernebb lehetőségekhez, már a DXR 1.1 is óriási előrelépés lehetne nekik, de várniuk kell addig, amíg a Metal és a Vulkan is felnő ehhez a szinthez.
Ezek azok az okok, amiért az Unreal Engine a Microsoft keze alatt valósággal száguld, míg egy indie stúdió töredék sebességet tud csak kihozni belőle. A Microsoft nem az alap kódot használja, mert tudják, hogy milyen terepre mennek, és arra cserélik a gumikat is. Egy indie ehhez hozzá nem nyúl, és emiatt az Unreal Engine alap sebességét kapja, ami pont azért elég rossz, mert annyira általános a motor, hogy mindenhova illeszkedő, de sehova sem jó döntéseket kell hozni a fejlesztésénél.
(#27) ColdMan: Nem, ez teljesen más. Itt van pár alapvető szabvány PC-n, amit mindenki támogat.
(#31) SindaNarmo: Nincs olyan, hogy kamu RT. Hacsak nem arra gondolunk, hogy maga a sugárkövetés is valamennyire fake, hiszen tökéletesen az sem reprezentálja a valóságot. De ettől függetlenül mindegyik szabványos RT megoldás pontosan ugyanazt csinálja a számítás tekintetében.
-
SindaNarmo
tag
Ez alapján amit leírtál, nekem inkább úgy tűnik, hogy konzolon jobban meg kell gondolni hogy mire használnak rt. PC-n sem használnak mindenre még ha lehetne is, mert a béka segge alatt lenne a teljesítmény.
Nem látom, hogy itt hol van az hogy kamu RT meg igazi RT.
Akkor eddig is csak kamu RT volt, mivel nem mindent azzal csináltak? -
Teljesen laikus vagyok a témát illetően, de ez nekem olyan szitunak tűnik, mint a freesync vs G-sync.
Vagy rosszul látom? -
Jó hát gondoltam hogy te jobban értesz hozzá mint Richard Cowill
Mi az a "bármi" amire jó a BVH gyorsító struktúra azon kívül amire való?Konkrétan semmire...
Senki nem írta hogy nincsenek limitek.
Richard is azt írja, hogy a konzoloknál nem tudják maximálisan leterhelni a hardvert minden RT effekttel, amit amúgy többek között a z Nvidia és gondolom majd az RDNA 2 is tud, ezért kénytelenek több effektet hagyományos megoldással helyettesíteni, amit pl RT vel meg lehetne oldani. Gondolom így gazdaságos, vagy kifizetődő felhasznált hardveres erőforrások szempontjából.
Erre írja ,hogy igazából a konzoloknál valószínűleg előfordulhat nagyobb sebesség azonos játékok és játémotoroknál bekapcsolt raytracinggal egy P C hez képest, mert ugyan azon effekteket lehetséges, hogy PC-n valós Raytratcing megoldással állítják elő amit Konzolon nem teljesen . Kevert megoldásokat fognak alkalmazni Unreal engines játékoknál, skálázni fogják a konzolokra és a PC re a játékokat RT szempontjából.
Gondolom a Dx 12 miatt beszél elsősorban az Xboxról.
érdemes megnézned neked főleg, mert értesz hozzá, ezt az előadást is és ez az előnye egyébként valójában a konzoloknak és az RDNA 2 nek is, igaz játékok szempontjából. : [link]
Ray-traced and Post-processed Hybrid Depth of Field Effect for Real-time Rendering -
tomchee91
csendes tag
A legjobb egy fixfunkciós hardver lenne, de nem az NV-től mert az soha nem árul el a technológiáiról semmit, ezért mindenki utál velük dolgozni.
(ezzel kinyírva a legjobb ötleteiket is) -
Abu85
HÁZIGAZDA
A PS5 100%-ban ugyanazt a hardvert használja, mint az Xbox Series X és az AMD RDNA2.
Olyan nem létezik, hogy ál RT. Micsoda az? Minden egyes valós idejű grafikai számítás trükkök millióit használja, hogy gyors legyen. Ilyen szempontból az egész számítógépes grafika egy fake technológia.
Egyáltalán nem limitálja az NV megoldását, hogy mire jó vagy nem. Itt BVH bejárásról van szó. Bármire jó, az a probléma, hogy a fixfunkciós egységeknek is vannak limitjei, amelyeket úgy lehet kezelni, hogy megfelelő tartalmat csinálsz hozzá, vagyis megpróbálod elkerülni azokat a szituációkat, amikor esetlegesen már túl mély a BVH gyorsítóstruktúra a jó teljesítményű eredményhez, stb. Ez ugyanolyan optimalizálás, mint amit a konzolok vagy az AMD csinál, csak ott nem a modellek áttervezésével dolgoznak, hanem alternatív BVH bejárást terveznek az tipikus terhelésekre. Végeredményben ugyanoda el lehet jutni mindkettővel, csak az NV-nél vissza kell ültetni a modelleket tervezőket a géphez, hogy átalakítsák azokat át, míg az AMD-nél programozással kerekedsz felül a limiteken ... mert limit mindkét megoldással lesz, egyiknek sincs végtelen teljesítménye, csak a bennük rejlő optimális tempó más módokon nyerhető ki.
A programozhatóságnak még annyi előnye van, hogy olyan algoritmusokhoz is hozzányúlhatsz, ami jelenleg a DXR 1.0 és 1.1 alól elérhetetlen. De ezeket az új algoritmusokat akkor kezdik majd igazán használni PC-n, amikor szabványosan is le lesznek fedve. Addig igen ritkán kerülnek majd bevetésre, amíg Radeon Rays 4.0-n keresztül használhatók csak ki. Hosszabb távon abszolút el tudom képzelni, hogy ez az egész szabványosítva lesz, mert alapvetően mindig ez történt az API-kkal. Jött valami fixfunkciós szinten, aminél felmerült, hogy jobb lenne programozhatóvá tenni az egyes lépcsőket, és végül programozhatók lettek. Ugyanez történik most is, egy átalakulás közepén vagyunk, aminek a vége az lesz, hogy szabványos szinten jön majd a programozhatóság. A konzoloknál ennek elébe kell menni, mert azokat 10 éves életciklusra tervezik.
-
válasz
paprobert #11 üzenetére
Az unrealos fejlesztő azt írja hogy az AMD és a konzolok megoldása ( kivéve a Ps5 egyes speciális megoldása) inkább félkamu RT lesz, elég sok, ha csalásnak nem is nevezhető,de trükköt használnak. AZ Nvidia megoldása valós RT re alkalmasabb, de ugye limitálja a hardverelem felhasználhatóságát hogy vagy erre jó vagy semmire. Az Xbox RT megoldása a szabad programozhatóság és felhasználás szempontjából alkalmasabb trükkökre és ezért kisebb veszteséggel jár. Valahol ezt jobb megoldásnak tartom ezekkel a gyenge hardverekkel még,de persze a probléma az vele, hogy nem igazán valós RT illetve csak az annak nevezett effektek egy része az.Hoz is meg nem is.
Most megy épp konferenciájuk , tettek fel egy nagyon jó is videót : [link] erről érdemes lesz majd elolvasni Richard Cowgill- előadását. -
Early adopter permiumnak hivjak a dolgot, minden letezo uj dolognal ez van. Inkabb most lepjenek, mint szivassak a nepet az ipart meg negy generacion at a fix funkcios egysegekkel, amit erovel lenyomnak a piac torkan, aztan lepjenek megis inkabb a programozhatosag fele.
Sajnos NV-t ismerve ez az utobbi forgatokonyv fog megtortenni. -
Tazsam01
tag
Ha az Nvidia lép a programozhatóság felé a következő szériával akkor gyakorlatilag szemen fogja köpni azokat akik az eddigi RT kártyákat megvették. Onnantól nem lesz programozó aki neki áll fixfunkciós hardverre optimalizálni, csak azért mert a userek 5%-a rendelkezik ezekkel, pláne úgy nem, hogy arányuk az idő előrehaladtával csak fogyni fog.
-
Kupszi
aktív tag
Ha jól értem csak a big navi fogja tudni értelmesen kiaknázni a dxrt? Akkor az 5700XT csak úgymond emulálva fogja kezelni, ergo sokkal nagyobb lesz a vesteség, mint a bignavinál?
-
Abu85
HÁZIGAZDA
válasz
#32839680 #10 üzenetére
A Turingban az NV egy RT magot használ multiprocesszoronként és ebben az egy magban van egy bejárást, illetve a metszésvizsgálatot biztosító fixfunkciós motor. Ezzel multiprocesszoronként egy metszésvizsgálatot és egy bejárást biztosító hardver van.
Az AMD a textúrázóegységbe építi a metszésvizsgálatot biztosító motort, konkrétan csatornánként egyet, tehát egy multiprocesszorban nyolc ilyen egység lesz, de a bejárás programozható, tehát a multiprocesszorok általános feldolgozóin fut.
A fejlesztőknek ezzel addig nincs gondja, amíg megelégszenek a limitekkel, ilyenkor pedig elég írni egy DXR-nek megfelelő kódot, aztán fut ahogy fut.
Ha nagy teljesítményt akarnak, akkor mindkét megközelítés célirányos optimalizálást igényel. Az AMD-nél érdemes egyéni BVH bejárást írni, így optimalizálva a motort a hardverre. Az NV-nél a fixfunkciós hardver adott, tehát annak a limitjeit kell megkeresni, és gyakorlatilag a modellek részletességét kell optimalizálni a limitekhez. -
Kansas
addikt
Éppenséggel érintheti, ha a következő generációs RTX-en engedik a programozhatóságot, a fixfunkciós HW-rel együtt nagy császárok is lehetnek akár... bár a piaci részesedésükre is támaszkodhatnak, kikényszerítve kétféle RT optimalizációt PC-n, ami viszont seggen haraphatja őket, ha az RDNA2-es VGA-k jók lesznek, könnyen járhatnak úgy, mint az Intel... ha az RDNA2-es VGA-k jók lesznek...
-
paprobert
őstag
Jó kis cikk, köszönjük.
Jól gondolom, hogy az Nvidia megoldása szabadon skálázható, gyakorlatilag a végtelenségig, míg az AMD megközelítése Texture Unit-szám limitált?
Arra gondolok, hogy TU-ból nem szoktak a gyártók önhatalmúlag sokszoros mennyiséget a lapkába helyezni egyik generációról a másikra, hanem van egy optimum mennyiség.
-
#16939776
törölt tag
Kérdés még, hogy az NVIDIA az Ampere architektúrához tervez-e hasonló lehetőséget egy DirectX Raytracing kiegészítéssel
Megoldják erőből. De talán csinálnak egyet kicsit eltérő megközelítéssel mint a konkurencia. És a programozó dönthet a három út közül melyik a kényelmesebb neki, esetleg az első kettőt használja, felváltva aszerint, hogy adott esetben akar-e az RT optimalizálással foglalkozni, vagy ép elkerülhetetlen, azért, hogy jól fusson az effekt.
Ebben az esetben talán "még kevesebb" munkát jelent a programozónak, mint minden egyes effektre programozni. -
Carlos Padre
veterán
Vagyis a Microsoft nem követi egy ugyanazt a hibát, amit az Xbox One-al és a DX12vel és most keményen a sarkára áll. Jó.
-
Kansas
addikt
Nekem a cikkben szereplő példából(Tomb Raider) az jött le, hogy ha eleve nem jó modelleket csinálsz, akkor rengeteg extra munkával járhat a hardverhez alkalmazkodás.
Persze az is benne van a pakliban, hogy ha a hardverhez jól illeszkedsz, akkor meg nincs/kevesebb extra meló, és a fixfunkció miatt alighanem jobb lehet a teljesítmény, bár kíváncsi leszek az Ampere vs. RDNA2 design mennyi teljesítményt(fps-t) bukik a DXR bekapcsolásával... -
Abu85
HÁZIGAZDA
Pontosan ezért választanák mindig a programozhatóságot. Messze úgy a legegyszerűbb dolgozni, mintsem igazodni a fixfunkciós hardverekhez.
A fejlesztőket ebből a szempontból a hardvergyártók nem is kérdezik, tudják jól, hogy számukra csak a programozhatóság létezik. Még emlékszem, hogy Sweeney mennyire sírt, amikor az Intel lelőtte a Larabee-t. -
Pipó
őstag
Jó volna tudni a nagyobb játékfejlesztők véleményét, nekik melyik az előnyösebb.
Új hozzászólás Aktív témák
- Kertészet, mezőgazdaság topik
- Android alkalmazások - szoftver kibeszélő topik
- exHWSW - Értünk mindenhez IS
- Opel topik
- Honor Magic7 Pro - kifinomult, költséges képalkotás
- Battlefield 6 - Indul a második nyílt béta hétvége
- Milyen billentyűzetet vegyek?
- Mibe tegyem a megtakarításaimat?
- Kuponkunyeráló
- iPhone topik
- További aktív témák...
- Bomba ár! Dell Latitude 5401 - i5-9400H I 8GB I 256SSD I 14" FHD I HDMI I Cam I W11 I Gari!
- Gamer PC-Számítógép! Csere-Beszámítás! R5 1600X / GTX 1080 8GB / 32GB DDR4 / 256SSD + 2TB HDD
- LicencAruhaz.hu OLCSÓ, LEGÁLIS SZOFTVEREK AZONNAL - Windows - Office - Win Server - ÖRÖK GARANCIÁVAL
- Eladó Apple Macbook Pro 2015 / 12 hó jótállás
- HIBÁTLAN iPhone 13 mini 128GB Starlight -1 ÉV GARANCIA - Kártyafüggetlen, MS3130, 94% Akkumulátor
Állásajánlatok
Cég: FOTC
Város: Budapest