Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz gbors #84 üzenetére

    Gyakorlatilag ez a baj. Vagy kompatibilis maradsz és akkor nem lehet felületi tesszellálást alkalmazni, vagy tesszellálálsz, és akkor only DX11 a többiek meg bekaphassák. :D
    Minden más megoldás alkalmazhatatlan, mert jelentősen megnöveli a fejlesztésbe ölt munkaórák számát, amit valakinek állnia kell, és az biztos, hogy ezt nem a PC-sek fogják fizetni. Ebből következik, hogy semmi nem lesz. Karakterekre és az effektekre limitálják a tesszellálást, mert az még konzolbarát is.
    Egyébként eleve ott kezdődik a probléma, hogy a tesszellátor alapjait az AMD Xenos rendszerrel dolgozták ki. Azt a rendszert pedig nem a high poly tesszellálásra fejlesztették, mivel a lényege az Xbox 360 CPU-jának tehermentesítése. Az alapokkal vannak gondok, de mindegy ez így jött ki. Legalább a DirectCompute awesome fícsör.

  • Abu85

    HÁZIGAZDA

    válasz gbors #82 üzenetére

    Természetesen mindenki tudta, hogy ez a probléma él (Carmack még el is mondta korábban, hogy ez így nem járható út ... esetleg a voxelek poligonná alakítása lehet alternatíva). Az AMD azért nem költött tranzisztort a tesszellálás erősítésére. Nincs értelme, mert haszna a játékokban nem lesz. Persze a professzionális piacon jól jönne majd, mert ott nagyon sok számít a tesszelláláson. Nyilván az AMD eldöntötte, hogy a gaming piac az első, és így alakítja a hardvert. Látva az eladásokat jól mérték fel a terepet és jó stratégiát alakítottak ki. Persze mákjuk is volt, mert ők is szophatnának a TSMC-nél, ha anno nem csinálnak tesztchipet.
    Ez a probléma is megoldható. Negatív irányba kell tesszellálni, a gond az, hogy ezt csak akkor lehet majd megtenni, amikor alap fícsör lesz a tesszellálás. Amíg itt vannak a könzölök, addig marad a karakterekre és az effektekre a fícsör. Ez egyelőre nem okoz gondot. Illetve van itt is baj, mert korrigálni kell a lapos felületeket a karaktereken (pl.: cipőtalp), de erre találtak egyszerű korrekciót.

    God ray effektben, és az esőben van némi számítás GS alatt. DX10-ben nem megy az AO a GeForce-oknak. Nem erre lettek felkészítve. A HBAO-t azért csinálta meg az NV, mert a Crytekes SSAO és az AMD-s HDAO nem tetszik az architektúrának, a gond az, hogy a HBAO csak a GT200-nak tetszik, így az nem fog terjedni, mert már a GF100 a prioritás. A driverbe is azért került bele egy ilyen menüpont, hogy a fejlesztők ne csináljanak egyéni SSAO algoritmust, hanem használják a driveres megoldást, és akkor nem fognak szenvedni a régi GeForce-ok. Persze ehhez az AMD-nek is implementálnia kellett volna a HBAO-t, amit az NV el is küldött nekik, de nyilván az AMD tudta, hogy mire megy ki a játék. Csak az architektúra hiányosságait akarták elfedni. DX11-ben HDAO van, ott Compute Shaderes az effekt. Sokkal egyszerűbb a kártyáknak, kevesebb a mintavételi parancs és van helyi adatmegosztás.
    Van ilyen probléma DX11-ben is. A 3D-s textúrázásnál van baja a GF100-nak. Egyszerűen a 2D-s textúratömbök alkalmazása is kétszer gyorsabb az architektúrán, ami röhejes, mivel eleve a gyorsítás lenne a dolga a 3D-s textúrázásnak. A DirectCompute-os alkalmazásokban ez gondot okozhat a fejlesztőknek, mert a Radeonra jó a 3D-s textúrázás, míg a GeForce-ra nem. Szerencsére nem olyan nagy ördöngösség a fluid algoritmusokat 2D-s textúratömbökkel kivitelezni, így ebből talán nem lesz gond a játékokban.

  • Abu85

    HÁZIGAZDA

    válasz gbors #80 üzenetére

    A tesszellációval eleve problémáznak a fejlesztők. Amikor írtam a Fermis cikket, akkor volt lehetőségem egy Rebellionos fejlesztővel beszélni. Mivel ők kezdték el először a DX11-es fejlesztéseket, így gyanítottam, hogy nekik van a legnagyobb tapasztalatuk. Az AVP-ben eredetileg két beállítás lett volna egy Medium és egy High. A High mellett lett volna a felületekre a tesszellálás bevezetve, de ezt végül kihúzták, mert baromi ronda volt, amikor az Alienek keze belesüppedt a felületbe, nemritkán az alkar teljesen eltűnt. Erre mondták, hogy az a része a tesszellálásnak addig nem lesz használható, amíg a DX10-es rendszerekre is ki kell terjeszteni a támogatást. A kettő együtt nem megy, mert az egyik módban ronda grafikai hibák lesznek, ha a felülettel érintkezik egy karakter. Az AVP-ben is ezért maradt meg a Médium mód. Ugye itt az elsődleges akadály a konzol, mert ott nincs magas szintű tesszellálásra lehetőség. Az meg eleve elfogadhatatlan, hogy a DX11-es rendszereken legyenek illeszkedési hibák, a gyártók ezt nem engedik meg, mert a DX11 a csúcsgrafikáról szól, és ott mindennek piszkosul jól kell kinéznie.
    A STALKER CoP az első olyan játék, ami aktívan használ geometry shadert. Ettől gyorsult be a feldolgozás a Clear Sky-hoz képest. Itt egyébként nem teljesít jól a G80/G200 architektúra. Bár való igaz, hogy az SSAO vagy a HDAO érezhetően jobban fáj nekik.

    Szerintem az izgalmak helyett az árversenyt többen jelölték volna meg lehetőségként. :D Nem mellesleg még a BFG is élne a rendelések lehetőségével. Persze ők biztosan tudták, hogy az NV-t már nem a PC érdekli, és a Fermi is ennek megfelelően lesz kialakítva. Elő volt számukra készítve a kapitulálás lehetősége.

  • Abu85

    HÁZIGAZDA

    Válasz erre: [link]

    Miért kellene a DX11-ben kapaszkodniuk? Teljesen jól futnak a játékok Evergreenen. Nincs a HD 5970-nél gyorsabb kártya. Még az NV csúcsmegoldása is az AMD felsőkategóriás versenyzője ellen elég. Ezért nem csökkent árat az AMD, mert nem lát veszélyt az eladásokra nézve.
    A Heavenben például kikap a Radeon, de az AMD elsősorban a játékokat tartja fontosnak, és nem a Heaven teljesítményére gyúrt. Persze nyilván az NV sem, csak a professzionális piacra tervezett felépítés mellékterméke az eredmény.

    Maga a Xenosos fixfunkciós tesszellátor 2 millió tranyót foglal, ami ezen a szinten semmi. Ellenben fontos az Xbox 360-as fejlesztésekhez, mert a Radeon tudja egyedül azt a futószalagot, amit az MS konzolja használ. Ezért tartják meg. Így le lehet váltani a régebbi Radeon HD szériás kártyákat újra. Nyilván a fejlesztőnek az a legjobb, ha az egyes feladatokra kevés gépet tart fenn.

  • Abu85

    HÁZIGAZDA

    válasz zuchy #76 üzenetére

    Azt nem tudom. Csak annyit hallottam, hogy az egyik kártya vántédzsben leverte az egy GPU-s NV és AMD karikat.

  • Abu85

    HÁZIGAZDA

    válasz zuchy #74 üzenetére

    Vántédzsba állítólag veri. Nem tudom, hogy elhiggyem-e. :D

  • Abu85

    HÁZIGAZDA

    válasz 9950es #69 üzenetére

    Jensen azt mondja, amit mondani kell. Azt is mondta már, hogy az NV egy szoftvercég.

    Az Apple oldaláról érdekes tervek érkeznek. Állítólag nagyon nem tetszik nekik a Fermi fogyasztása, így továbbra is a régi GT200-at akarják, aminek a gyártása már leállt. Az AMD oldallal sincsenek kibékülve, mert drágának tartják a HD5000-es termékeket. Éppen ezért egy harmadik félre várnak, akik állítólag a Computexen virítanak is valamit. Valószínűleg az XGI-ről van szó, akikről eleve szállingóznak azok a pletykák, hogy a Computexen GPU-kat jelentenek be. Ebből nem tudom, hogy mi az igazság, de az XGI annyit írt, hogy "See the latest 3D product from XGI in Computex 2010".

  • Abu85

    HÁZIGAZDA

    válasz 9950es #63 üzenetére

    És ez a hardver mennyire van elterjedve? Ez pont az a szint, ami után alapvetően nem tömeges a kereslet.

    loree69: De nincsenek kellő számban azok, akik a keménymagot képviselik. Nem az a baj, hogy nincs rá igény, hanem az, hogy nincs rá tömeges igény.
    A hardcore játék és a farmolás nem egy kategória, ez tény ... de a legfontosabb, hogy az utóbbi félelmetesen sikeres, és ezt a fejlesztők látják.
    Az MS és az Apple számára a Flash veszélyes. Az MS-t a Silverlight-ot nyomja, ami a sajátja, míg az Apple a saját eladásait védi a Flash támogatásának hiányával. Az a céljuk, hogy ne játssz az ingyenes internetes játékokkal, hanem vegyél magadnak játékprogramot pénzért.
    A HPC azért jött be az NV-nek, mert erre fejleszt. Sokan lenézik az NV-t, hogy mennyire szánalmas teljesítményt nyújtanak a PC-s GPU piacon, aminek következtében az AMD kényelmesen, bőséges haszonnal eladja a drága termékeit. Ezzel az a probléma, hogy sokan nem gondolják át, hogy az NV-nek a GeForce üzletág nem prioritás. Ha megmarad, örülnek, ha elveszik vállat rántanak. A Quadro és a Tesla megy, és a Tegra beindítása a legfontosabb. Sokkal több pénz van a mobil vonalban. Az NV is világosan látja, hogy a hardcore közösség mérete évről évre csökken. A BFG sem véletlen lépet le.

  • Abu85

    HÁZIGAZDA

    Ennek a folytatása: [link]

    Ezeknek a cuccoknak a csatlakoztatása a különböző termékekhez, csak driver kérdése. A Playstation 3-hoz például számos Logitech termék kapható. Ugyanígy az ARM-os mobil gépekhez is lesz USB port, és a drivert sem nehéz megírni. A HDMI is ott lesz kimenetnek.

  • Abu85

    HÁZIGAZDA

    válasz gbors #43 üzenetére

    A Bioshocknak csak egy része UE3. A játék fejlesztését még UE2-őn kezdték meg és a félkész UE3-at licenszelték. Az UE2-ből a Havokot átemelték. Ezért lett egyfajta hibrid a játék, gondolom a fejlesztők nem szarakodtak az AA beépítésével, a DX10 csak a soft particle miatt volt szükséges. A Gears Of War-ban DX10 módban például van AA. :)

    Sweeney tehet erről. Csak az NV kapta meg a jogot, hogy kiegészítse az UE3-at a saját eljárásaival. Az AMD-nek nincs ilyen joga. Sweeney nem akarja, hogy az AMD legyen az isten, mert ezzel az R600-as koncepcióval és utódaival kivégzi a Larrabee és a Fermi koncepciót. Egyszerűen az AMD GPU-k relatíve kicsik és ezekhez a méretekhez aránytalanul magas teljesítményszint társul. Az Intel és az NV a saját új generációs elgondolásaival jobb programozhatóságot kínálna, de nagyobb magméret és szabványos API-kra vonatkozó kisebb teljesítmény mellett. Árversenyben életképtelen, és ilyen körülmények között a piac nem éri meg.

  • Abu85

    HÁZIGAZDA

    válasz gbors #39 üzenetére

    DX10-ben mehet az AA az UE3-ban. Teljesen szabványos megoldás van rá. Csak ezért rakta bele a Sweeney a DX10-et.
    Az NV talált megoldást a DX9-re is, persze nem a legjobb minőségű, de be lehet támadni a konkurenst, hogy nekünk van AA, nekik meg nem engedélyezzük a saját fejlesztésű eljárásunkat használni.

  • Abu85

    HÁZIGAZDA

    válasz omikron23 #33 üzenetére

    Van egy olyan érzésem, hogy ebből a helyzetből mi nem profitálunk. :(

  • Abu85

    HÁZIGAZDA

    válasz rocket #6 üzenetére

    Megtaláltam a patchet:
    It’s called the “Chuck patch” in honor of our guy that found a way of enabling this functionality. Of course the reason why this is so important is Oblivion is one of the best looking games available in the market. Enabling High Dynamic Range and Anti Aliasing effects make this game look even better. Needless to say only ATI can support that configuration. So the Catalyst team is giving a special present to owners of ATI cards, an image quality experience unrivaled by any other.

    This proof of concept driver has something for image quality freaks and performance junkies (and even for both at the same time)

    This patch provides

    1) HDR effects plus AA at the same time. The visual results are stunning. (To enable, ignore the AA settings in the game and enable it via Catalyst Control Center)

    2) Crossfire support for the game via AFR mode. Good performance gains for all crossfire owners.

    Most utána is néztem. Az Oblivionban a Radeon X1000 széria már tudta a HDR+AA-t ezzel, de erre a GeForce 6-7 nem volt képes. Ezt csak a GeForce 8 hozta el. Valamiért a GeForce 6-7 nem támogatta a 16 bites lebegőpontos render targetet ... de rég volt már. :U

  • Abu85

    HÁZIGAZDA

    válasz rocket #4 üzenetére

    De ezek nem oldják meg az optimalizálást. Ettől még nem tudja a fejlesztő Fermi nélkül, hogy mit szeret a rendszer és mit nem. A félkoherenciára sem jelent majd megoldást, az akkora szopás lesz, mint a ház.
    A Battlefield-ekről sajna nincs sok infóm, de eredetileg DX10.1-nek készültek. Ezért nem nehéz megoldani a DX11-et, valamiért biztos csúszik az 1943 negyed évet, mert bízza már itt kellene lennie PC-re.
    Az Oblivion az technikai probléma volt, nem lefizetés. Amint lett megfelelő Ati hardver, már ment is a HDR+AA. Az Assasin's Creednél valóban elrontották a fázisokat. Inkább a magyarázkodással volt probléma, hogy be akarták adni a népnek, hogy az ATI azért gyors, mert kihagy egy fázist, aztán jöttek a programozók, hogy ennek így kell lennie a DX10.1 miatt. Ezután tisztázta egy UBI-s fejlesztő, hogy hiba volt, de végül nem javították, és elmondta, hogy a sebesség valós, de a képfázisok rosszul vannak mixelve - néha átvilágított a lámpa a játékos karakteren, ritkán fordult elő, de jelen volt. Ettől függetlenül nyilván javítani kellett volna a problémát, nem eltörölni.

  • Abu85

    HÁZIGAZDA

    Folytatás

    És mi lesz a DX11-es címekkel? Az NV nemhogy hardvert nem adott a fejlesztőknek, de még algoritmust sem prezentáltak az új MS API-ra. Ekozben az AMD hardver ott van a fejlesztők gépében, és temérdek Compute Shaderes algoritmust dolgoztak már ki, amiket alkalmaznak majd a fejlesztők. Például a HDAO már helyett is kapott a BattleForge-ban, de az összes bejelentett DX11-es játékban ott lesz. Honnan tudja majd a fejlesztő, hogy hogyan kell optimalizálni a Fermi-re, ha nincs is a kezében? Hogyan tudja majd a programozó kezelni a félkoherencia problémáját, amit driverből nem lehet megoldani? Egyelőre a DX11-ben nagyon nem az NV-nek áll a zászló, talán ez az oka, hogy most hirtelen ennyire fontos lett a fejlesztők lefizetése?

Új hozzászólás Aktív témák