Új hozzászólás Aktív témák
-
namaste
tag
válasz
zorrokalap #39 üzenetére
Nem érdemes ennyire leegyszerűsíteni, így csak félremagyarázás.
A neurális háló nem ír algoritmust. Az algoritmus ismert, a tanítás algoritmusa is ismert, különben nem tudnák leprogramozni és futtatni a mai CPU/GPU/TPU/NNP-k. A tanítás során a neuronokat összekötő kapcsolatok erősségét (súlyát) állítják be.
-
ribizly
veterán
-
#06658560
törölt tag
-
Abu85
HÁZIGAZDA
válasz
Dr. Romano #45 üzenetére
Ez is egy post-process eljárás. Bármelyik injektorba bele lehet műteni. Sőt, igazából magát a prédikációt bármelyik PPAA megoldással kompatibilissé lehet tenni. Csak senki sem foglalkozik vele.
-
Abu85
HÁZIGAZDA
válasz
Dr. Romano #41 üzenetére
-
tilus
tag
válasz
Dr. Romano #41 üzenetére
És extra Ronda, ezt elfelejtetted emiteni.
-
tilus
tag
Én is Ott voltam és beszéltem a fejlesztökkel, láttam a demot. Unreal engine volt, amiben egyébként csak TXAA van, az is bugos. Ahhoz Lett hasonlítva. 2x framerate és nagyon meggyözö volt.
Neuro network 64x oversamplingot használ sdkn keresztül és a driverbe kerül az algoritmuss. -
Dr. Romano
veterán
FXAA azt jónapot. Minden blőr lesz, de leaglább nem marad ki egyetlen él sem és gyors
-
válasz
zorrokalap #39 üzenetére
Nem minden es mindig igaz abbol amit leirtam
Szóval még hazudsz is -
zorrokalap
tag
Roviden: A programozo egy lusta allatfaj ebbol kovetkezik hogy irtunk egy gepet ami helyettunk dolgozik -> algoritmusokat ir. Gyakorlatilag ennyi az M.I. vagyis konkretan a neuralis halok. Megadod neki mi az input es az output(a gyakorlatban sok ezerszer) es a droid megirja az algoritmust. Elonye hogy olyan dolgokra is kepes amire mas/mi nem vagy nem gondolnank, hatranya hogy igazabol mi se latjuk az algoritmust. Az eredmeny legtobbszor egy statikus algoritmus("neuralis halo nyelven") es az nvidia erre kinal egy "processzort".
Szoval nem tanul es nem gondolkozik, memoriaja sincs nagy valoszinuseggel. Kicsit olyan ez mint a kvantumszamiogep van amire nagyon hatekony van amire hasznalhattlan, kepfeldolgozasra a neuralis halok hatekonyak.
Konkluzio: Ezt nem neveznem marketing bullshitnek mert tenlyeg az ami, csak bullshitnek tunhet.U.i.: Nem minden es mindig igaz abbol amit leirtam, de probaltam koznyelven, erthetoen fogalmazni szoval ennek fenyeben kossetek bele.
-
Abu85
HÁZIGAZDA
Hynix, Micron és Samsung. Samsung főleg a Quadrókra. A Hynix leginkább kínára, mert oda Micront nem lehet szállítani. Zömében egyébként Hynix szállítja a legtöbb memóriát.
14 Gbps az optimális határ, ahol a "szemábra" még elég jó. Fölötte nagyon beszűkül. Emiatt ebben a generációban nem hiszem, hogy megkockáztatnak ennél nagyobbat. -
Törzsúr
senior tag
Off: RTX specifikációk között láttam valahol, hogy ezek az első fecskék 14Gb/s GDDR6 lapkákkal (valsz. Micron) vannak szerelve. Abu egyik cikkben írt arról, hogy a RT nagyon memória sávszél igényes. Kíváncsi leszek mennyit gyorsul a Samsung 18Gb/s memória lapkáival, szerintem azok később jönnek.
-
hokuszpk
nagyúr
nincs 4K monitorom, de nekem fura, hogy egy 4Kra renderelt kepet meg mindig elsimitani kell. sebaj, jon a 8K, problem solved.
addigis feltalaltam egy abszolut gyarto es platformfuggetlen megoldast : leveszem a szemuveget. -
Steve_Brown
senior tag
"A DLSS eljáráshoz az kell, hogy a fejlesztők az ehhez tartozó környezeten keresztül tréninggeljenek egy, az adott játékukhoz használható neuronhálót. Itt minden játékhoz másik szükséges, továbbá ahogy új tartalom kerül be, rögtön újra is kell kezdeni a tréninget, mivel a lementett neuronháló alapján lesz képes eldönteni a hardver, hogy a kép mely területeit kell máshogy kezelni."
Engem konkrétan kiráz a hideg attól, hogy a videókártya kilogikázza magának azt, hogy mit is simítson el nekem. Ettől függetlenül nagyon király és tényleg ezekre a leglátványosabb használni a mesterséges intekigenciát.
-
Raysen623
addikt
Nekem ezzel a DLSS eljárással semmi problémám nincs, azon kívül hogy egyenlőre gyártó specifikus, tehát a konkurencia kártyái megint nem tudják használni, akár a Physx-et (mondjuk arra voltak kerülő utak, és akkor ment Borderlands esetében).
Már pedig jelen esetben a paci megint a pirosak felé rúg egy jókorát. A rákász francnak fejlesztenek ők állandóan olyan irányba ami a konkurencia kártyáin is röhögve megy?! Simán megtehették volna, hogy pl. olyan Tress fx eljárást dolgoznak ki, ami csak radeonon fut komolyabb erőforrás veszteség nélkül. Úgy látszik az ilyen jóhiszemű fejlesztéseknek nincs érdemi hatása. Kivéve persze ha már ők is dolgoznak hasonló megoldáson, csak még nem publikus. Őszig megint várhatunk, ha addig nem kezdenek el szivárogtatni.Erről egyébként semmit nem lehet tudni?
-
K0vasz
aktív tag
hát, ez a DLSS egészen addig volt szimpatikus, amíg most nem olvastam ezt
mert nekem laikusként kurva körülményesnek tűnik ez a megoldás, hogy deeplearninggel előbb trenírozni kell az egész játékot, és ha jön hozzá egy DLC vagy akármi, akkor újra kell csinálni az egészet (ráadás emiatt ez is egy újabb olyan feature, ami nem működik egységesen minden játéknál, csak azoknál, amik erre külön fel vannak készítve)
számomra sokkal egyszerűbbnek tűnne az, hogy valamilyen algoritmussal megkeresné a cucc a kontúrokat a képen (mondjuk ahol két szomszédos pixel között a színeltérés meghalad egy bizonyos szintet), és azokon a területeken végezné el az élsimítást
-
Pipó
őstag
"A DLSS inkább egy újabb, arany középutat kereső megoldás a sok közül. Az elgondolás alapja az, hogy a GPU-ban található tensor magok megkeresik azokat a részeket a készülő képkockán, amelyeknél az aliasing probléma erősen látszana, és ezekre alkalmaznak többszörös mintavételt, vagyis az SSAA-hoz hasonlóan, a kijelölt területekre vonatkozóan számolnak több pixelt, méghozzá az eredeti pixelpozícióhoz képest mindig egy kicsit eltolva, ahogy az eredeti eljárás működik."
A tensor magok a Voltában debütáltak tudtommal, az 1080-ban nincsenek. Ha úgy lenne, ahogy írtad, akkor az 1080-on tök felesleges lett volna futtatni, mivel nem is tudja a DLSS élsimítást.
A grafikon alapján egyébként igazad lenne, mert úgy látszik, mintha ezt is összehasonlítanák. De akkor meg a leírt magyarázat nem stimmel.
-
Shing
őstag
Ansel-es felbontás növelés tök jó... a képszerkesztőim még most sem tudják (pedig most rákerestem és van online AI-s resizer), poén lenne ezzel felhúzni a minőséget, kíváncsi vagyok mit tud.
Az, hogy növeli a raytracing minőségét is inkább marketinghez kell. A játékokban lévő photo mode is felszokta húzni a minőséget. Aztán a játékosok megosztogatják a gyönyörű screenshotot, hogy milyen gyönyörű a játék. Nope, az valós időben nem néz ki olyan jól.
-
Abu85
HÁZIGAZDA
válasz
#72042496 #19 üzenetére
Nem térdel le, csak romolHAT a hatékonysága. Nem kötelező újratréningelni, de erősen ajánlott. Azért ez egy játék, tehát olyan nagy pénzt nem raknak egy effektbe. Az oké, hogy például az autógyártóknak iszonyatosan fontos, hogy a neuronháló hatékonysága jó legyen, de a DLSS-en nem múlnak emberéletek, maximum a kép egy kis része recés marad.
Később aztán lehet, hogy az NV összerak magának egy olyan adatbázist, amin letréningelnek egy általánosabb megoldást. Ha erre akarnak költeni, akkor tegyék. De ez eléggé hosszadalmas folyamat, viszont ha elég ideig tréningelnek, akkor idővel egy nagy hatékonyságú általános neuronhálót kapnak.
(#20) Cifu: Olyan félelmetesen nagy energiákat nem fognak megmozgatni. Ha lesz egy neuronháló, ami eléri a minimum kívánt szintet, akkor szállít és kész.
-
-
Cifu
félisten
Azért gondolom érted mi a fő probléma ezzel: a játékfejlesztőnek kell egy csomó energiát és pénzt beleölnie egy új élsimítási eljárásba, amely korlátozásokkal jár (pl. modolhatóság elvesztése, DLC-k után lehet újra számolni az egészet, stb.), ugyanakkor a hatékonysága jelenleg még nem teljesen egyértelmű.
Nekem innen, a fotelből úgy tűnik, hogy az egész leginkább a nVidia pénze mozgatja, és nem a fejlesztők lelkesedése, vagy az, hogy hú de világmegváltó lesz a felhasználók szempontjából...
-
#72042496
törölt tag
Bennünket munkában egy más alkalmazása érinthet, de ott a deep learningnek éppen az a lényege, hogy tréning után új adatokon a korábbi módszereknél hatékonyabban működjön. Ez a játékokkal úgy analóg, hogy az új modelleket, pályákat stb. is hatékonyan kell kezelnie.
A tréning a kulcsa az egésznek. Brutális mennyiségű adatot kell betáplálni, hatalmas számítási kapacitást igényel, és minél tovább fut, annál hatékonyabb az algoritmus. (A hozadék az első szakaszban nagy, aztán idővel egyre csökken, ki kell tapasztalni, hogy meddig érdemes futtatni.)
Azt akarom kihozni belőle, hogy nekem fura leegyszerüsítve azt olvasni, hogy a DLSS meg gyakorlatilag letérdel a nagyon új dolgoktól.
-
Abu85
HÁZIGAZDA
AI nélkül van a hardverben egy rakás, tranzisztorzabáló, de amúgy hasztalan feldolgozó. Szóval persze, hogy erőltetni kell. De amúgy ez tényleg nem akkora hülyeség, mint amekkorának így elsőre hangzik. A kép jelentős részét igazából nem kell élsimítással kezelni, mert nem éri meg a befektet teljesítményt a nyereség. Persze lesznek benne hibák, de VSR/DSR-t leszámítva nincs olyan eljárás, amiben nincsenek.
(#7) Z_A_P: A különböző élsimítási eljárásoknak eddig se volt ugyanaz az eredménye. Függetlenül attól persze, hogy ugyanarra a problémára keresték a megoldást.
(#14) Gombair: Nem valószínű, hogy egy DLSS-es játék túlságosan moddolható lesz. Ha kicseréled a modelleket, akkor veszthet a hatékonyságából az eljárás. Szóval raknak rá egy DRM-et, hogy ne tudj a játékba nagyon mélyen beletúrni. Maximum a textúrák erejéig.
-
#06658560
törölt tag
Esetleg a DLSS-t. Sok múlik szerintem itt azon is, hogy a játékfejlesztők mit engednek meg, mennyire kommunikatívak, partnerek. Az mondjuk nekem furcsa lenne, ha mondjuk egy rózsaszín AK skin miatt a komplett CS:Go-t kéne újra deeplearningeltetni a DLSS-hez. Szerintem NV-nek sem érné meg.
-
Gombair
csendes tag
Ha egy modot telepítek a játékhoz (pl: új textúra vagy teljesen új modell) akkor ezeket is téningeztetni kéne a DLSS-sel? Vagy a tréningezés "Otthon" (mod készítője) megoldható, vagy ezzel bukom a moddolhatóságot?
-
Pipó
őstag
"DLSS eredmény is van a GeForce RTX 2080-ra, de ez az összehasonlítás nem egységes, ugyanis enélkül a korábbi generációs hardver sokkal többet számol, így természetes, hogy a különbség nő."
Ezt csak úgy tudom értelmezni, hogy az 1080-on is futott egyfajta élsimítás és ezt hasonlították a DLSS 2080-hoz. (Mert ha semmilyen élsimítás nem volt az 1080-on, akkor miért számolna ez többet, mint az új kártya az új élsimítással.) Tudjuk, hogy milyen élsimítás volt az 1080-on?
Egyébként 4k felbontáson nem is érdemes már élsimítás nélkül játszani.
Egyszer csinálhatnátok vizuális tesztet ugyanolyan monitorokkal egymás mellett 4k-ban különböző élsimításokkal, miközben harcol valaki a battlefieldben és a tesztelő a válla felettről nézi. Persze "vakteszt"-nek kellene lennie, vagyis ne tudja épp melyik élsimítás fut. Ez volna az életszerű, kiderülhetne, hogy vettél-e valami pluszt 400k-ért.
-
Valami ilyesmi.
De azért ennyire csak nem túl pontatlan, szerintem ilyen 1 + 1 = 1.96 pontosságú lesz a dolog. Ami teljesítmény / minőség arányban meglehetősen jó lesz.
Az viszont furán hangzik, hogy a játékmotorban kéne szállítani a tréninget. Driverből sokkal kézenfekvőbb lenne. Bár ha így lehet a HUD is DLSS-t kapna, s ugye a karaktereknél már a legkisebb pontatlanság is zavaró.
-
Duck663
őstag
Mondom én, hogy mondom.
[link]
-
arn
félisten
valos teljesitmenyben nem lesz ekkora difi - szerintem olyan 30-40%, kb a 1080ti kornyekere esik, csak eppen 1.5x annyiba fog kerulni (600 vs 900 eur). a 2070 lassabb lesz, de hasonlo aru.
ilyen is regen volt, hogy az ujabb kartya jobb ar/ertek aranyu tagjai elmaradnak ar/ertek aranyban a korabbi generaciotol. vagyis ott a kulonbseg, ha a raytracet nezzuk, csak eppen az nem lesz tul fontos tenyezo a kov egyket evben. a regi kartyak arain kellene jonniuk - lehet lesz egy korrekcio, ha kiszortak a pascalokat.
-
Duck663
őstag
Ez a dolog hasonlít a Matrox-féle FAA-ra, ha jól rémlik, csak az képpontonként 16 mintával dolgozott, és még tréning sem kellett neki.
-
Abu85
HÁZIGAZDA
Hát a gép. Ezért gépi tanulás. Megtanulja a tréning során. Nem sokban különbözik ez, mint amikor közlekedési lámpákat kell felismerni, stb.
Persze a neuronhálót szállítják a játékban. Azt nem tudom, hogy milyen formátumban, de valószínűleg nem akarják szétszopatni a fejlesztőket, így DXML-ben futhat az egész, aminél eleve van interoperabiliti a DX12/DirectCompute API-val. Az a Redstone 5-től úgyis elérhető lesz.
-
Z_A_P
addikt
A DLSS eljáráshoz az kell, hogy a fejlesztők az ehhez tartozó környezeten keresztül tréninggeljenek egy, az adott játékukhoz használható neuronhálót.
Hogyan treningelik? Ki/hogy donti el melyik teruletet kellene AA-zni?
Itt minden játékhoz másik szükséges, továbbá ahogy új tartalom kerül be, rögtön újra is kell kezdeni a tréninget, mivel a lementett neuronháló alapján lesz képes eldönteni a hardver, hogy a kép mely területeit kell máshogy kezelni.
Hova mentodik le a halo, konkretan visszamegy fejlesztohoz, es jon a jatekkal egyutt?
Új hozzászólás Aktív témák
- PowerColor Red Devil AMD Radeon RX 6800 XT 16GB Garanciával!
- Asus DUAL-RTX5070-O12G nVidia 5070 12GB GDDR7 OC videokártya bontatlan dobozában eladó!
- GIGABYTE RTX 5080 16GB GDDR7 GAMING OC - Új, 3 év garancia - Eladó
- Gigabyte GeForce RTX 2060 6GB Garanciával!
- Gigabyte Geforce GTX 1070 G1 Gaming 8GB Garanciával!
- Eladó megkímélt állapotban levő Oppo Reno 5Z 8/128GB / 12 hó jótállás
- iPhone 12 mini 128GB Black -1 ÉV GARANCIA - Kártyafüggetlen, MS3399, 94% Akkumulátor
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- iPhone 14 Pro Max 128GB Space Black -- 100% EREDETI AKKU, 1ÉV
- Bontott, vadiúj, SKY BLUE MacBook Air 13.6" M4 10C/8G 16GB 256GB 13 Gar.: 1 év APPLE világgarancia
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest