Aktív témák

  • e-biza

    őstag

    válasz Versus #10 üzenetére

    Jó meglátás szerintem, egy régebbi témában irta Envy
    NV30 vs R300, current developments, etc
    At the moment, the NV30 is slightly faster on most scenes in Doom than the R300, but I can still find some scenes where the R300 pulls a little bit ahead. The issue is complicated because of the different ways the cards can choose to run the game.

    The R300 can run Doom in three different modes: ARB (minimum extensions, no specular highlights, no vertex programs), R200 (full featured, almost always single pass interaction rendering), ARB2 (floating point fragment shaders, minor quality improvements, always single pass).

    The NV30 can run DOOM in five different modes: ARB, NV10 (full featured, five rendering passes, no vertex programs), NV20 (full featured, two or three rendering passes), NV30 ( full featured, single pass), and ARB2.

    The R200 path has a slight speed advantage over the ARB2 path on the R300, but only by a small margin, so it defaults to using the ARB2 path for the quality improvements. The NV30 runs the ARB2 path MUCH slower than the NV30 path. Half the speed at the moment. This is unfortunate, because when you do an exact, apples-to-apples comparison using exactly the same API, the R300 looks twice as fast, but when you use the vendor-specific paths, the NV30 wins.

    The reason for this is that ATI does everything at high precision all the time, while Nvidia internally supports three different precisions with different performances. To make it even more complicated, the exact precision that ATI uses is in between the floating point precisions offered by Nvidia, so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.

    The current NV30 cards do have some other disadvantages: They take up two slots, and when the cooling fan fires up they are VERY LOUD. I'm not usually one to care about fan noise, but the NV30 does annoy me.

    I am using an NV30 in my primary work system now, largely so I can test more of the rendering paths on one system, and because I feel Nvidia still has somewhat better driver quality (ATI continues to improve, though). For a typical consumer, I don't think the decision is at all clear cut at the moment.

    For developers doing forward looking work, there is a different tradeoff -- the NV30 runs fragment programs much slower, but it has a huge maximum instruction count. I have bumped into program limits on the R300 already. As always, better cards are coming soon.



    Forrás: Beyond3D.com

    ez csak azért irtam be ide, hogy lássuk a Doom III milyen is lesz :)

  • Versus

    senior tag

    válasz tothjozsef #9 üzenetére

    Kedves tothjozsef!
    Egyrészt azért mert jóval érzékenyebb a húzásra mint a 3dmark.
    Másrészt azért mert mint írtam valós alkalmazás a 3dmarkkal ellentétben ,teljes egészében kihasználja a DX8.1 adta lehetőségeket ráadásul a KARMA-fizikának köszönhetően nem csak a VGA hanem a processzor és a teljes chipset is maximálisan terhelve van vele.Azonkívül esetében nem merül fel hasonló furcsaság mint amiről a cikk is szól.Arról nem is beszélve hogy sorban jelennek meg az Unreal Engine-t használó játékok :Unreal2,Splinter Cell viszont ugyanezt természetesen egy tesztprogramról nem tudod elmondani.Mindenesetre szerintem a legdurvább manipuláció drivert írni kizárólag a 3Dmarkra hiszen ha egy gyártó rossz drivert ír az azt jelenti a valóságban hogy rossz lesz a termék és kárba vész rengeteg kemény munka amit a hardwerbe fektettek.Ha például a chipsetet akarok faggatni a tudásáról szintén nem a Sandrát veszem készpénznek hanem mondjuk megizzasztom VirtualDubbal.De ha röviden akarom leírni a lényeget ,azért fejlesztek hogy használni tudjam az új programokat nem pedig hogy teszteredményekkel tegyem magam boldoggá.

  • tothjozsef

    aktív tag

    válasz Versus #6 üzenetére

    A UT2003Bench-el való teszt eredménye egyetlen dolgot mutat meg: hogy UT2003Bench alatt hogy teljesít a vas. SEMMI mást. És ugyanúgy függ drivertől, mint a 3D mark. Szóval miért jobb ezzel tesztelni?

  • e-biza

    őstag

    válasz Versus #6 üzenetére

    Gondolom hogy lesz még itt kedves 'nyázás :) de azt az utolsó Quake vs Quack ne maradjon ki ha hir lesz belöle. :) legalábbis sokszor elfejtik az emberek és csak az nVidia optimalizálása marad meg bennük, mert ezt rágják bele :(
    a mercedes esetröl hallottam, az az amikor a fékezés során felborult a kocsi? vagy az golf volt? de volt egy ilyen eset.

  • róland

    veterán

    válasz e-biza #4 üzenetére

    OFF

    Nem azért, de ezt a kérdés felvetőjének kell eldöntenie. Ha már ilyen címmel indit valaki topicot, akkor megérdemli, hogy a ziccert ne hagyjam ki. :DD

    ON

  • Versus

    senior tag

    Huhh mit fogsz te itt kapni az ATI tulajdonosoktól! :)
    Egyébként biztos emlékeztek arra mikor a Mercedes A-osztályt felborították mekkora műbalhét csináltak belőle.Igaz belekerült szériába az ESP de a képzett újságíró gárda ma is szívesen emlegeti pedig 2 nap múlva bebuktak a leeresztett hátsó kerekekkel.Arról meg alig lehetett hallani mikor az ADAC simán fejre állított egy Golf 4-est a szomszédos Fürstenfeldben.Ennyit a dolog erkölcsi részéről.
    Engem az egész GfFx mizériában csak az az amatőr szintű lejárató kampány döbbentett meg mikor egy nyilvánvalóan erősen haldokló csapágyas hűtő hangját digizik mp3-ba és ezek után a GfFx csak szar lehet.Igaz a nevezett oldal olyan hülyeségeket ír össze-vissza hogy sokan első olvasásra is meglepődnek.Én speciel korrekt teljesítménymérésre UT2003Benchet használom.3 Dmark egy dologra jó,tartóssan járatva melegedést mérni.Megnéztem az újat is,szerintem gagyi és tele van buggal.Várjuk meg amíg a polcokon lesz több gyártó terméke,amíg kijön hozzá a normális driver és akkor azonos plattformon lehet majd korrekt teszteket futtatni valós alkalmazás alatt.És ha ott elvérzik a kártya akkor lehet majd temetni az Nvidiát. :)

  • e-biza

    őstag

    válasz e-biza #4 üzenetére

    Gondolom pár nap és megjelnik Hirként :))

  • e-biza

    őstag

    válasz róland #3 üzenetére

    ezt neked kell eldönteni, de a videokártya piacon mindenki hazudik :))

  • róland

    veterán

    Szerinted igaz vagy sem a fenti állításom? :DD:DD:DD:DD:DD

  • e-biza

    őstag

    [L]http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&postid=716317#post716317[/L]

    Az nVidia a 42.68as driverrel a Geforce FX 5253 pontot ér, mig a 42.63-al csak 3468 pontocskát. Sokan azt mondanák, hogy igen, ez az nVidia Geforce FX ereje. Ez igy erös túlzás. Az nVidia nemrégiben megmagyarázta ezt a nagymértékü ugrást a pontok terén.
    ''We did that driver to show how easy it is to optimise for the benchmark and how the scores should not be taken at face value - I know the good sites, including yourself, understand the balance needed between synthetic and real world benchmarks, but a lot of sites take that benchmark to be the final word on GPU performance and our point is that it should only, if at all, be used as a background test and not a measure of actual game performance or for that matter DX9, given it's shortcomings in using true DX9 shaders.''
    Az nVidia csak bemutatta, hogyan lehet optimalizálni a kártyákat és drivereiket az ilyen mérö programokra, s hogy mennyire nem mutatnak valós eredményeket. A GeforceFX-et a _valós_ DX9 megjelenitésre tervezték, nem az ilyen humbuk méröprogramokra.
    Hogy jobban megértsük mit csinál az nVidia új drivere:
    ''But third, *because* the benchmark does *so much* stupid and wasteful work, the best way for us to win the benchmark down the road is to put in incredibly convoluted driver logic that -- in short -- detects everything stupid that the app is doing, and reimplements it using a smarter/faster algorithm, all behind the app's back.''
    Ami történik, az annyi, hogy a már régebben leirt (Prohardveren is) 3d mark 03 DX9es bonyolultságát átlépi. Rengeteg felesleges kód van benne, a driver et felismeri és kijavitja a _saját_ gyorsabb algoritmusára. Ez viszont csak a 3D MARK 03-ra igaz, a játékokban semmivel nem lett gyorsabb a GeforceFX.
    ''All synthetic benchmarks are liable to be manipulated with drivers optimised for the benchmark ... this has happened since the early days of graphics benchmarking and will continue to occur. It is a moral responsibility for the graphics companies not to do this ... although there is also pressure since if they get caught cheating it will be bad for them (e.g. Quake vs Quack)''
    Ez már ezer éve igy van, amióta léteznek ezek a méröprogramok. Néha maga a játék sem elég meggyözö. Emlékezzünk az ATI trükkjére, amikor az akkor topnak számito Quake III engine-jét felismerte, majd hogy gyorsabb legyen az nVidiánál, vissza vett a minöségböl - a GeForce alá - és igy tudta teljesiteni a kivánt eredményeket. Az elsö ilyen driver csak a quake szóra reagált, a késöbbiekben az engine-t ismerte fel, igy elkerülhették hogy az erre épülő játékok lassabbak legyenek a Quake IIInál.
    Kövekteztetésképpen ''topic'' :)
    Az ATI _csalására_ itt egy link részletesen:
    [L]http://firingsquad.gamers.com/hardware/radeonquack/default.asp[/L]

Aktív témák