Új hozzászólás Aktív témák
-
hapakj
őstag
persze, hogy pontosabb egy ilyen weboldal egy 2060 vs 5060 esetén, hiszen amit mondtam, sokkal összehasonlíthatóbb architektúrákról beszélünk.
De még ilyen esetben is hülyeség általánosságban sebességkülönbségekről beszélni, hiszen nem mindegy, hogy a 2060 és 5060-at nyers compute-ban méri össze az ember, vagy mondjuk 5060 esetén egy frame generationnel megtámogatott rendering módban, amire a 2060 nem képes.
a 4020 Ti vs 780 esetén meg kb semmi infó nem derül ki hogyan mérték össze. Az eredményekből ítélve kb az elsem indult a rohadt jól megy az bizony 1000x különbség
-
Pikari
veterán
de találtam
[link]
46 vs 76
35 vs 58
10 vs 34
38 vs 56
19 vs 35
32 vs 42
50 vs 90
26 vs 36
51 vs 67
33 vs 75
41 vs 32
16 vs 35
32 vs 35Bár valóban van olyan játék, amiben 2.5x, vagy akár ennél többször is gyorsabb, a legtöbb játékban ilyen 50-60% körül van a különbség.
Úgyhogy ez a weboldal egész pontos.
-
hapakj
őstag
Nekem is ki tudnak jönni megfelelő számok, ha értelmetlenül szorzok össze számokat
Az első link-en semmi információ arról, hogyan végezték az összehasonlítást, szóval kb ennyire releváns.
Illetve azt se értem, hogy miért kellene a polygon számot összeszorozni a felbontással. Mondjuk ez tényleg matematika óra 3. osztály, ott még nem tanítják a méréstechnikát. Ott még előfordul, hogy valaki vesz 40 dinnyét
-
Pikari
veterán
Miért ne lehetne összehasonlítani? Mások már rég megtették:
[link]
ti4200 = 0.01 pont
780ti = 22.6 pontA virget is össze lehet hasonlítani a ti4200al, ez előbbi 2000 textúrázott polygont tud kb 20 fpsen renderelni 320x240ben, az utóbbi pedig kb 300ezer polygont tud 20 fpsen renderelni 1600x1200ban.
2000*20*320*240 = 3072000000
300000*20*1600*1200 = 1152000000000011520000000000/3072000000 = 3750x gyorsabb, tessék. Matematika óra 3. osztály.
-
hapakj
őstag
Így van, ez megerősíti amit mondtam a hőskortól nézve a fejlődés és a gyorsulás logaritmikus. Mára lelaposodott a görbe.
Ez az ezerszeres gyorsulás meg szokásos légből kapott szám, mert technikailag össze se nagyon lehet hasonlítani a Virge, Ti 4200 meg 780-at. Az egyik új dolgokat nem tud futtatni, a másik meg a régi dolgokat már emulálja.
De mondjuk nézzük meg a Doom 3-at. Mondjuk a Ti 4200 futtatni ~25Fps-sel. Képes az 780 azt 25000 FPS-sel futtatni?
Az 1080 és 5080 között már a képességekben való fejlődés lelassult vagy legalábbis nem olyan radikális, ezért lehet összehasonlítani, hogy pl utóbb nyers ALU teljesítményben 6x gyorsabb, utóbbiban ott vannak még a Tensor és RT coreok.
-
Pikari
veterán
Amikor összehasonlítottam a virget a ti4200-al, azt írtad, hogy nincs értelme összehasonlítani egy technológia hőskorát (virge), a kiforrott és határait feszegető technológiával (ti4200).
Hogy egy gpu hogyan épül fel, az nyilvánvalóan változik az évek során, az viszont elég egyértelmű tény, hogy virgetől ti4200ig ezerszeres volt a gyorsulás tíz év alatt, aztán ti4200tól 780ig megint ezerszeres volt a gyorsulás tíz év alatt.
Aztán azóta már nincs ezerszeres gyorsulás. Egy 5080 egy 1080hoz képest csak 3x gyorsabb, és az is kb 10 év.
Hogy ennek mi az oka, az már más kérdés. Ez részben egy technikai, részben politikai, részben szakpolitikai kérdés.
-
hapakj
őstag
Én nem mondtam, hogy a Ti 4200 kiforott lenne. Az még bőven az útkeresés fázisa volt, de az már legalább tényleg GPU volt, tehát nem csak raszterizált, hanem geometriai számításokat végzett.
Viszont még tartalmazott fix funkciós pipeline-t és kezdetlegesen programozható shadereket.
Rövid távon dobták is ezt az architektúrát a Unified Shaderekkel.
Manapság meg épp a fordítottja játszódik le. Kevésbé növekszik a "nyers" teljesítmény, mert speciális feldolgozókat raknak a GPU-kba, mint a Tensor meg az RT. De ez persze nem jelenti azt, hogy maga a rendering teljesítmény ne nőne.
-
hapakj
őstag
-
-
Cassi
őstag
Még áprilisban is több ismert oldal hibás magkonfigurációt közölt a Switch 2-höz. A Nintendo úgy védi a specifikációit, mint egy anyatigris a kölykeit. Májusban derült ki a nagy titok, hogy 8x A78-os mag van benne, pont olyan és annyi, mint egy átlagbéla 2021-es telefonban. No comment.
-
CRTs
aktív tag
[https://x.com/dnystedt/status/1877550536217735275]
Hát nem is tudom mit higgyek XD
Azt nehezen hiszem hogy a nintendo jelentôs felárat fizet nvidia ip-ért vagy épp chipért -
hapakj
őstag
Azért az elég köztudott, hogy semmi értelme összehasonlítani egy technikai (vagy bármilyen) terület hőskorát azzal, amikor már eléggé kiforott és a határait feszegeti.
A Virge ráadásul még nem is GPU volt, hanem 3D accelerator, annak se a legjobb.
A Ti 4200 meg kora egyik elég jó GPU-ja volt.
Egyébként legutóbb hasonló nagyobb nagyságrendű lépés a unified shaderek bevezetése volt. Pl egy 32 CUDA maggal rendelkező középalsó kategóriás tesla megeszi reggelire a 8vs + 24 fs-sel rendelkező G71-et. Pedig alig van 2-3 év közötte.
-
Farkassacred
őstag
Játékok meg sehol, 2034-2035-re jó lesz majd ez a ps6 a fa alá a családba. Már semmi értelme day one boltba rohangálni értük.
-
Cassi
őstag
Vicc ez az egész, a Sony ismét légvárakat épít. A Nintendo Nvidia OEM lett, a Sony meg AMD OEM, ez a realitás. A PS5/Pro-nál mindenki láthatja, milyen gyatra minőségű ray-tracingre elég az a hardver, aminél feljebb nem lehet menni egy "olcsó", 750 dolláros konzolnál.
-
Igen,ez az Indiana jatek PTvel.Itt azert figyelembe kell venni,hogy a piac több szereplős.Maga a Blackvell/Ada alapból sokkal gyorsabb RT ben ,mint 6x szorzó,de nincs kizárólag rá írt játék.Talán pár techdemo van,Quake es HL.
Egyszer bedobtam Nvidia talalgatósba egy táblázatot ahol sugárkövetésben sokkal nagyobb szorzat volt,de nem emlékszem rá sajnos.Minél megterhelőbb egy cím ez a szàm annál nagyobb. -
plusz azért arra is kíváncsi leszek, hogy ez ha működik is majd egy zárt rendszeren/ ökoszisztémán, PC-n ami sokrétű hardver és szoftver mit fog majd eredményezni.
kamu felbontásból, kamu RT-t próbál majd generálni kamu generált framekkal egy hardver amihez mindegyik gyártónak van saját egyedi megoldása. Ebből káosz lesz.
Továbbra is a Microsoft féle RT- fejlődése és szabványosítása lenne jó PC-n a véleményem szerint.
A Sony Portok meg soha nem voltak rosszak PC-n, hardverben sem kérnek túl sokat.
A hardver pedig fejlődik, 3 generáció alatt egy 2080 Ti hez képest egy 5080- 5070Ti pl Indiana Jones alatt 6x gyorsabb lett. AMD-nek ez a 2. komolyan vehető generációja RT képességek terén,de alakulnak. -
A terv az, hogy töredék sugárkövetéses effekt történik, a köztes értékeket meg AI-al találja ki mi lehet.
A dolog működhet, és töredék erőforrás elég lehet hozzá.. azt leszámítva, hogy a memória itt is lehet probléma, nagy mennyiség és megint csak sávszélesség fog kelleni (bár lehet összességében kisebb mint egy tiszta RT-s megoldáshoz kellene), illetve egy másik fajta célhardver egység a gpu-n belülre az AI számításokhoz. -
Busterftw
nagyúr
A módszer lehet a Sony-é, de annyiban igaza van, hogy AI generált dolgokban, legyen az 100% pixel a játékban vagy sugárkövetésnek kinéző látvány, az Nvidia által kitaposott út.
Ez kb olyan mint a PSSR-ra azt mondani, amit több évvel a DLSS utan jött, hogy nincs semmi köze az Nvidiahoz.
-
Abu85
HÁZIGAZDA
Ez a Sony módszere. Az AMD maximum annyiban van benne, hogy ők lesznek az Amethyst kódnevű projekt PC-s partnere, de lényeges, hogy sohasem jelentette ki a Sony, hogy más nem támogathatja majd az eljárásaikat PC-n, ha ezeknek megfelelő hardvert terveznek. Tehát, ha az NVIDIA is készít kompatibilis hardvert, akkor náluk is működhet, hiszen a Sony érdeke a PC-n a teljes piac kiszolgálása, csak egyelőre nincsen nagyon sok közös pont az AI esetében, így megteremtik a sajátjukat, amiket majd a gyártók támogathatnak.
#46 Busterftw : A PSSR-nek nincs is, mert nem az NVIDIA találta ki az egyik fő alapját, vagyis a CNN-t. Az alapja ennek a Neocognitron, vagyis mindenki Kunihiko Fukushima útját járja.
-
Pikari
veterán
válasz
Busterftw #40 üzenetére
Nagyon nagy nyuszit kéne ahhoz a sonynak előhúzni a kalapból.
Egyébként alapvetően nem rossz az az irány, az enginekbe invazív módon beletákolt , modellenként kapcsolgatott összevissza effektes shaderek és különleges és nagyon komplex renderelési módok között kapcsolgatni egyszerűen túl nagy meló, túl sok a hibalehetőség, túl költséges a fejlesztés, mert túl bonyolult az egész.
Ha elég lenne csak naívan kirenderelni a scenet, és a végén rádobni postprocesszben egy olyan szűrőt, ami fogad néhány paramétert, és cserébe mindent megold, az drasztikusan egyszerűsítené a 3d renderek fejlesztését.
Szóval a sony mindenféleképp jó irányba gondolkodott az ötletével, de lehetséges, hogy mégsem a neurális hálós megközelítés a jó irány, hanem inkább a kézzel, trial-error módszerekkel kisilabizált és finomhangolt módszerek vezetnének az elfogadható végeredmények irányába.
-
CRTs
aktív tag
Olyan GI mellett ami transparencyt hírhedten
nem kezel és úgy kell elôrimánkodni nójról upscalingbôl hogy nem kéne szétküldeni pl transparencyt se 😆
-
Abu85
HÁZIGAZDA
Igen, lehetséges, hogy fake-el valamit a neuronháló, hiszen ezt láthattuk sok esetben a mostani feltételes generálással dolgozó AI eljárásoknál, mint a DLSS, az FSR és az XeSS. De attól, hogy időnként odafake-el, megakadályozta ez a gyártókat, hogy használjanak ilyeneket? Nem, mert egyrészt a probléma korrigálható, másrészt az előny nagyobb, mint némi fake eredmény.
Egyik említett játékban sincs például caustic, vagy hasonlóan komplex RT effekt.
-
hapakj
őstag
Hát hajrá Sonynak
majd ha odafakel AI-al valami pseudo causticot akkor ránézünk.
Ígéretekből, már rengeteget hallottunk, amiből nem lett semmi, vagy évekkel később "beért" amikor már nem sok haszna volt.
Addig is itt van már a polcon a Doom The Dark Ages, az CP 2077, meg az Indy.
-
Abu85
HÁZIGAZDA
Muti egy játékot offline szintű sugárkövetéssel. Mert a Sony amúgy ezt akarja valós időben, olyan komplex effektekkel, mint például a caustic. Szóval hozz nekem egy játékot, ami causticet számol valós időben, sugárkövetéssel.
A komplex sugárkövetéses effektek elérhetetlenek lesznek még évekig. És ennek az oka, hogy ezeket egy top VGA még ma is 10-20-30 percig számolja. Valós időben nem megvalósíthatók, és nem a lapkába kerülő hardver hiánya a gond, mert abból bármikor be tudna építeni akármelyik gyártó 10-100-szor erősebbet. A gond az, hogy nincs meg hozzá a 10-20-30 TB/s-os memória-sávszélesség, ami kellene a valós idejű számításokhoz. Ezt se az AMD, se az Intel, se az NV nem tudja biztosítani, de még a Sony és a Microsoft sem. Szóval vagy várunk 10 évet, hogy meglegyen ez, vagy keresünk alternatív utat ezekhez az effektekhez.
A teljes valós idejű grafika kibaszott nagy trükközések sorozata.
-
CRTs
aktív tag
Lol 😆
Nemcsoda hogy a media molecule dolgát is lelôtték. Sajna ez a Czerny féle brigád megbuggyant 😆 -
Abu85
HÁZIGAZDA
Érdemes megjegyezni, hogy amit a Sony elgondolt, és amit leírtál az nem egymás versenytársai, mert azokat a jellegű effekteket, amiket a Sony ezekkel megoldhat, a hagyományos módon maximum 2035-ben kapod meg. Tehát itt nem vagy-vagy opció van, hanem az egyik megoldható, a másik pedig majd 10 év múlva lesz. Ilyen formában a generatív AI konstrukciónak nem ellenfele a szimulációs módszer, mert utóbbihoz 2035-ig nem lesz elég gyors hardver.
-
Abu85
HÁZIGAZDA
válasz
GodGamer5 #19 üzenetére
Mivel a Sony másképp fogja csinálni, így teljesen reális, hogy olyan dolgokat is meg tudnak majd valósítani, amire a PC-s GPU-kon eleve nincs meg a memória-sávszélesség. Ezért csinálják amúgy másképp, mert ez nekik is hiányzik.
#16 Kansas : Gyakorlatilag igen. És egy jó ideje kísérletezik vele a Microsoft is.
Viszont a PC-s bevezetéshez mindenképpen muszáj kikötni bizonyos dolgokat, hogy legyen egységes adatformátum, és így tovább. A Sony egyébként az FP6-ot használja, mert az FP4 az túl rossz minőségű, viszont az FP8 overkill. A Microsoft a nagyobb támogatás miatt esetleg maradhat FP8-nál.
#24 Pikari : Nem, valójában ugyanaz a menete. Kell a ground truth referenciaként, abból kell a neuronháló, és szükségesek hozzá a különböző pufferek, ami alapján generálják a tartalmat. Alapvetően ugyanolyan jellegű a pipeline, mint egy felskálázóé. Ott is kell a ground truth referenciaként a neuronhálóhoz, különböző pufferek, mozgásvektor, és ezekből generálják a tartalmat.
-
Kansas
addikt
Van egy gyanúm, hogy ha ezzel a megközelítéssel nem a Sony áll elő, hanem az NVidia akkor mindenki ugrálna örömében, ahogy a FG és MFG kapcsán is teszik az NV szimpatizánsok, pedig elvi szinten nem sok különbség van eközött meg a ML-alapú FG/DLSS közt(leginkább csak az, hogy mi a kamuzás tárgya, a felbontás, az egész frame vagy az RT effektus), de hát ezt nem az NV ötlötte ki, így inkább a fanyalgás megy...
Amúgy nekem se tetszik, de nekem az FG bármelyik formája, de különösebben a felskálázás sem... gyártófüggetlenül.
De mivel a nyers erő nincs megfelelő szinten, kénytelen az ember kompromisszumo(ka)t kötni. -
GodGamer5
addikt
Amit lehet PT-vel játszok FG mellett és semmi gond nincs vele. Az input lagon csak azok sírnak, akik még nem próbálták a saját gépükön az FG-t, helyette az internetről gyűjtik az okosságokat...
-
wjbhbdux
veterán
Az AI már fel fogja fogni, hogy a porszemcséket nem lehet látni szabad szemmel a levegőben és nem kell teleszarni vele a pályát?
-
Kansas
addikt
Ha belegondolsz, a gyakorlatban ez az "RT nélküli RT" olyan mint egy korlátozott framegen( ami kb. "engine hasznélata nélküli frame"), ahol nem az egész frame-et generálják le vele, hanem "csak" az RT effektet.
Szerintem egyik vlglet se fog nyerni rövid és középtávon, hosszú távon a full RT a befutó alighanem(AI kisegítéssel), amint lesz alá elég vas. -
Citrone39
csendes tag
-
Chiller
őstag
Érdekes verseny van alakulóban.
Vajon melyik nyer majd hosszú távon?
1. A full RT alapú megvilágítás
vagy
2. A full AI alapú megjelenítés?Bár engem inkább az érdekel, hogy a régi jó játékokat/modokat meddig tudom még normálisan futtatni...
-
válasz
bitblueduck #3 üzenetére
az a baj, nincs az az RT kapacitás ami 10 éven belül "értékelhető" teljesítményt adna és lehetne csak arra építeni. és itt nem konzolokra gondolok, hogy nem kerül majd bele, de dedikált kártya se lesz. naaaagyon messze van egy mai csúcs kártya is attól, hogy csak RT-re lehessen építeni.
kb mintha egy Geforce 1 kártyával akarnál számolni egy modern RT nélküli játékot. vagy 20 év még kellhet, ha nem ütközünk fizikai limitbe, amire esély van sajnos, a jelen technológiával lehet sose lesz értékelhető RT teljesítmény (pár effektre elég egy-egy kártya ereje, de nem mindenre, a jelenetek nagyja még mindig raszterizált, pedig a játék fejlesztők is szívesen eldobnák a régi futószalagot, túl sok extra meló azzal dolgozni)
-
Abu85
HÁZIGAZDA
Vannak rá kísérletek, de jól működő modell egyelőre nincs. A játékoknál az az előny, hogy ismered a geometriát, amiből szerezhető depth buffer, kinyerhetők a mozgásvektorok, könnyebb kategorizálni, hogy a képen milyen elemek tartoznak össze, stb.
Egy videónál már kész képi tartalmat kapsz, nem egy olyat, amit amúgy te renderelsz a gépen. A nyers pixeladatokból pedig nehezebb depth buffert felépíteni, nehezebb mozgásvektort generálni, így csak egy becslés alapján tud dolgozni a rendszer, ami nem pontos. Vagyis elvben működik az eljárás, mert becsülni lehet a hiányzó adatokat, de sokszor a becslés nem pontos, így képi hibák drámai mértékben megnőnek.
Tehát az összes ilyen, valós idejű megoldás minősége messze elmarad a játékra használt felskálázók minőségétől, illetve a játékból áthozott pipeline-nal nem is lehet ezt normálisan javítani. Emiatt nem is igazán törik magukat a gyártók, mert a klasszikus módszerekkel, például madVR, konzisztensebb eredményeket lehet kapni.
A nagy reményt az NPU-alapú megoldások jelentik. Ilyenje van például a Xilinxnek, de a számításigénye nagyon-nagy, így például az asztali Ryzenek NPU-ja nem jó még hozzá, amiből következik, hogy a többi asztali NPU-val is alkalmatlan. De a Xilinx megoldása az tényleg jó minőségű, csak erősebb Versal APAC-ra van tervezve, és olyat nem nagyon veszel otthonra. Viszont ez a koncepció hosszabb távon lejuthat PC-re, amikor az NPU-k sokkal gyorsabbak lesznek. A mostani NPU-kkal is vannak kísérletek, a Netflix például tervez a Copilot+ PC-khez felskálázást, csak még nincs kész. Az véleményes, hogy sikerülni fog-e, azért a 40 TOPS nem sok, de valamit biztos összehoznak, már csak a jövőbeli fejleszthetőség miatt is.
-
-
Abu85
HÁZIGAZDA
Rendkívül korlátozottan látod. Amit most használhatsz a PC-n, az valójában egy rendkívül gyenge ray tracing, ami nagyon kevés sugárral, nagyon kevés visszaverődéssel dolgozik. Ezért is ragad le a sugárkövetés minősége olyan gyenge effekteknél, amit látsz ma, miközben extrém teljesítményigényes.
Ha viszont összehasonlíthatod azt, hogy mit lehet kihozni offline renderrel, akkor láthatod, hogy a ray tracing igen jó, ha 30-40 percig számolod a képet. Tehát nem a technikával van baj, amiért a PC-s játékokban szar az eredménye, hanem nincs teljesítmény a gépekben a jó eredményhez. Ezt akarja a Sony most áthidalni, mert igényelnék azokat az effekteket, amiket egy 5090 is 30 percig számol, de nincs rá 30 percük, így megcsinálják valós időben AI alapon.
Ennél a módszernél most az a kérdés, hogy hogyan lehet valós időben megoldani azt, hogy a megjelenítés minősége megközelítse a 30-40 percig számolt offline rendert, de úgy, hogy közben a képet valós időben számolja a rendszer. Ehhez paradox módon a sugárkövetés nélküli, de neuronháló szintjén arra alapozó mód a vezet. Ennek az oka pedig az, hogy hiába építed meg a megfelelő hardvert a lapkába, nem fogsz tudni alárakni 100 TB/s-os memóriasávszélességet, ami kellene a valós idejű sugárkövetéshez. Majd talán 10 év múlva, amikorra az NV is becsülte ezeket az effekteket, mert a valós path tracinget 2035-re datálták szimulálva. A Sony meg azt mondja, hogy akkor felejtsük el a szimulációt, keressünk egy gyorsabb utat, ami közel hasonló eredményhez vezet most.
Ezt egyébként már elég sokszor elmondták a gyártók. A lapkába tudnának építeni legalább ezerszer gyorsabb RT hardvert. Ez csak tranzisztor kérdése, amire modern node-on van kapacitás. A gond az, hogy nem tudnak a lapka mellé építeni ezerszer nagyobb memória-sávszélességet, ami a fő meghatározója az RT sebességnek.
-
-
BBorg
tag
Erről nekem az a jó rég óta ígért AI felskálázás jut eszembe... azt egyébként már sikerült értékelhető módon megoldani, hogy 320x240@15fps-es videóból AI segítségével 4K@60fps videót csináljanak?
-
GodGamer5
addikt
"akármilyen erős hardvert is építenek a cégek, ma a sugárkövetés bizonyos feladatokban annyira megterhelő, hogy nem lehet valós időben megoldani a számításokat."
- Aha ezt magyarázzák csak az Nvidiának ahol már most is mindent meg tudnak oldani Path Tracinggel framegen mellett, egy gyengébb kártyán is...
Látom a készülő újgenes radeonokat se sikerült megtákolni, hogy felzárkózzanak rt-ben... -
ezt sokkal rövidebben is lelehetett volna irni: a következő generációs konzolokban sem lesz erős a RT.
-
Pikari
veterán
Ott a sugárkövetés nélküli sugárkövetés ősi állatorvosi lova, az SSAO. Egy időben sok fejlesztő másfajta megvilágítást nem is rakott be, csak rádobott egy ssaot a képre.
-
Peat76
őstag
Na majd újra 5-600$-ból kijönnek egy a már megjelenéskor elavult vassal, lásd PS4,PS5...
Új hozzászólás Aktív témák
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest