Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz gbors #6067 üzenetére

    Nekik inkább azzal van gondjuk, hogy 1000 dollár az luxusszint. Túl lényegtelen az eladás mennyisége miatt. Szerintem ezt a HD 7990-et kiadják és vége a dupla-GPU-s vonalnak. Jövőre szerintem csak egy GPU-s Radeonok lesznek, de készülhet egy a 2.5D stacked DRAM-mal ellátott verzió a csúcslapkából. Ezt a technikát amúgy sem árt kipróbálni élesben egy APU-ba építés előtt. Nyilván azt tudjuk, hogy az AMD 5 éve dolgozik egy ilyen projekten a Hynix és pár más partnerrel, és már van prototípus. Szerintem a HD 8000-ben lesz termék is. A fejlesztők post-process erőltetései mellett hasznos lehet. Valószínűnek tartom, hogy a dupla-GPU-s vonalat egy ilyen váltja le.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ric4m0nd #6074 üzenetére

    Én is GPU-n futtatom ezeket. Sokkal gyorsabb. Annyit viszont megejtek, hogy leveszem a PowerTune limitet -20%-ra. Így is elég gyors, és legalább nem fogyaszt olyan sokat.

    (#6073) fatallerror: Az AA problémán segítene. Nem kellene egzotikus AA-kat kutatni, egyszerűen 16xMSAA és kész. A stacked DRAM miatt bírná.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6076 üzenetére

    Azok jó poénok. :) Az Xbitlabs is csak ~26%-kal hozta ki átlag gyorsabbnak, de a konklúzió az lett, hogy nem mondható, hogy igazán erősebbnek a GTX 680-nál.
    Igazából a fő problémát az okozza, hogy a tesztelők többet tudnak arról, hogy mi megy a háttérben, és nem tetszik nekik az AMD új vezetőségének az iránya. Elvették a gyártóktól és a marketingtől a pénzt csak azért, hogy belefordítsák a Gaming Evolved és a Fusion Fund partnerprogramokba. Ezeknek olyan eredménye lesz, mint a WinZip 16.5, vagy a VLC vagyis bizonyos programfunkciók csak AMD hardverrel mennek. Ezt azonban hangsúlyozza az AMD, hogy félreértik. Nem azért nem mennek a funkciók NVIDIA és Intel termékeken, mert az AMD fizetett, hogy ne menjen, hanem azért, mert az AMD két évvel a többiek előtt jár az OpenCL eszközök fejlesztésében. Nyilván az Intel zárkózik fel, de sok idő kell még nekik, míg az NVIDIA számára az OpenCL nem fókusz. Na most ezt nem hiszik el sem az AMD-nek, sem pedig a fejlesztőknek. A Corel is mondta, hogy a WinZip 17-ben lesz OpenCL támogatás az Intel és az NV hardverekre is, de ott vannak a kétségek. Pedig a Corel által felvázolt indok elég egyszerű. Az AMD OpenCL támogatására tudják rámondani, hogy működik, és mivel a fájltömörítés egy kényes folyamat, értsd nem árt ha az adatok tömörítve is épek maradnak, így nyilván egy cég nem vállalja fel annak a lehetőségét, hogy CRC erroros lesz az állomány. Szerintem ez tök érthető. Hiába a sebesség, ha rossz lesz a tömörített adat. Ha nem tudják garantálni a hibátlan működést Intel és NV hardvereken, akkor inkább ne legyen gyorsítás.
    Szóval most az AMD az új sátán a média szemében, mert az új vezetőség a szoftverfejlesztésekbe öli a pénzt, ami szegmentálhatja a PC-t.
    Egyébként ez a stratégia tényleg érdekes. Gondolom Rory rájött, hogy évek óta próbálják verni az Intelt a kereskedelmi láncokban, de soha semmit nem nyertek vele. Egyszerűen az Intelt előnyben részesítik a partnerek, még ha az AMD sok kedvezményt és támogatást is ad nekik. Az új stratégia tehát az anyagiak átszervezése. Elvonni a marketing- és partnerpénzeket, és belerakni a szoftverfejlesztésekbe. A Gaming Evolveden ez nagyon látszik. Nyilván ez egy kiépített partnerprogram, tehát már ott van a fejlesztőknél. Az egyetlen amit módosítani kell, hogy agresszívabbá kell válni az effektek beépítésénél. Amíg Richard Huddy vezette, addig az volt a szempont, hogy a piac érdekeit nézzék, és jól optimalizált játékok jöjjenek. Ez látható is volt. A DiRT 3, a Deus Ex: Human Revolution, a Civilization V, és az Aliens vs. Predator mind baromira jól optimalizált program, ami általában alap, de fontosabb, hogy semmilyen olyan effekt nem volt bennük, amit az NV-t negatívan érintette. Amióta elment Richard Huddy az Intelhez, megváltozott a szellemisége is az egésznek. Rory kiadta a parancsot, hogy nem a piac érdeke az elsődleges, hanem az ügyfeleké (vásárlók) és az AMD-é. Ezzel a szemlélettel született a Sniper Elite V2, a Nexuiz, a DiRT Showdown és a Sleeping Dogs. Mindegyiken látszik a változás. Erős compute shader használat, és komoly anyagi büdzsé rengeteg kulcs megvásárlására, így a nagyobb webáruházak ingyen adhatnak a Radeonokhoz játékokat. Egyes termékekhez akár hármat. Persze nyilván az AMD nem tudta előre, hogy a Kepler ilyen gyík lesz compute-ban, de ha már így alakult, akkor Rory szerint jöjjön a vérszem is ki kell használni. Emellett igen erős váltásokon ment át a R&D részleg. Mivel a DX11.1 még nincs itt, így a compute shader használatot korlátozza a mostani DX SDK-ban található fejlesztőeszközök gyengesége. Egy fejlesztőcégnek nincs ideje és erőforrása komoly compute shader effekteket csinálni, mert a debug és profilozó eszközöket egyszerű shaderekre szabták. A bonyolult effekteket nehéz optimalizálni, így rengeteg hand tune-ra van szükség. Az AMD-nek erre ideje és pénze is van, és a kész eljárásokat odaadják a fejlesztőknek. Nyilván a DX11.1 sokat segít az új tracer API-val, de amíg az nincs itt, addig a fejlesztők többsége nem tud bonyolult shader kódot írni. Nem azért, mert hülyék, hanem túl sok lenne a beleölt pénz és idő, és ott van az a tényező, hogy ha nem sikerül jól a kód, akkor az egész kidobott pénz. Nyilván ezzel az AMD is találkozik, csak, ha az effekt mondjuk nem gyors, akkor idő mint a tenger kutatni kell tovább, vagy elmenni más irányba. Nekik nem lebeg a fejük felett egy játék kiadási dátuma. Ezt ugyan el lehet tolni, de egy grafikai effektért ritkán hoznak ilyen áldozatot.
    Ugyanez a helyzet a Fusion Fundnál. Ez csak az anyagi támogatásról szólt régebben, de Rory érkezése óta egy Gaming Evolvedhez hasonló infrastruktúra kiépítése zajlik. "OpenCL-t akarsz a programba, de túl nehéz? Semmi gond. Az AMD programozói angyalszárnyon érkeznek és megcsinálják helyetted." Nagyjából ez a fejlesztőknek az üzenet. Ez a része persze bonyolultabb, mint a játék, mert itt azért általános programokról van szó, ahol jóval specifikusabbak az igények, de nyilván a multimédiás programok esetében lehet találni közös pontokat, szóval ez a rész egyszerűen fejleszthető általánosan. Sok videós program van például, de egyik sem transzkódolja a videókat annyira eltérően. És hasonló példákat lehet felhozni a felskálázásnál, a képmanipulációknál vagy képszerkesztésnél, illetve a mondjuk az arcfelismerésnél. A fejlesztőeszközök is egész érdekes irányba fejlődnek. Amíg az Intel az OpenCL toolt teszi nagyjából használhatóvá, addig az AMD a CodeXL-t befejezésén dolgozik, mely az első olyan fejlesztőkörnyezet, ami kifejezetten a heterogén érához készült. Azt ugye az AFDS-en kihangsúlyozta az AMD, hogy az általuk kínált fejlesztőkörnyezetek nem tartalmaznak kizárást a gyártókra, vagyis működnek Intel termékeken is, ellentétben az Intel OpenCL tooljaival, de azt nyilván senki sem gondolja, hogy az AMD nem a saját termékeihez fejleszti őket. Persze még így is gyorsabb kódot csinálsz Intelre az AMD SDK-ival, de ez betudható annak, hogy az AMD az OpenCL projektet három évvel az Intel előtt kezdte meg.
    Ezek miatt az AMD most az iparág új sátánja, mert Rory más stratégiát dolgozott ki, mint a korábbi vezérek, és az AMD jelenleg a saját igényeire formálja a szoftverfejlesztéseket. Itt tehát két álláspont ütközik. Az egyik az, hogy a szoftverfejlesztés a független fejlesztők dolga, és egy hardvereket kínáló cégnek ebbe nem szabad beleszólni, mert az semmi jóhoz nem vezet. A fejlesztőeszközöket fel kell kínálni, és a fejlesztők majd megoldják. Alapvetően ez az Intel álláspontja is. Az NVIDIA álláspontját korábbról ismerjük. Ők támogatják a fejlesztéseket, az eszközökön kívül is, mindenféle más erőforrással (legyen az anyagi, humán, meg még mit tudom én mi). Az AMD új vezetősége is ebbe az irányba fordult. Erős fejlesztői támogatás és pénzelés a Gaming Evolveden keresztül, illetve GE-szerű partnerprogram kreálása az általános szoftverek fejlesztőinek. Ez sok médiának nem tetszik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6082 üzenetére

    Ez az egyik hozománya a marketingpénz elvonásának az AMD-nél. Ugyanakkor az NV számára veszélyesebb a Gaming Evolved ilyen mértékű erősödése. Nem tart sokáig, amíg feltűnik, hogy az AMD került vezető szerepbe a játékfejlesztések támogatásában. [link] - a HardwareCanucksnak már feltűnt. A Sniper Elite V2, a DiRT Showdown és a Sleeping Dogs mint erősen támogatott AAA címek csak a kezdetet jelentik. Jön a Medal of Honor: Warfighter, a Hitman: Absolution, a BioShock Infinite és az új Tomb Raider. Két meg nem említett AAA játékról is tudok (Total War: Rome II és Company of Heroes 2). Azért ilyen AAA felhozatalt a zsebben még a sokat megélt TWIMTBP programtól sem láttunk. És egyszer mindenki lecseréli a régi játékokat a tesztekben, akkor pedig az kellemetlen lesz a Keplernek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz KillerKollar #6092 üzenetére

    A teszteket már korábban megbeszéltük. Ahol nem írják oda, hogy milyen beállítások teszteltek, vagy nem írják ki pontosan, hogy melyik kártyához milyen driver volt az nem mérvadó teszt. Ezek alapinformációk. Persze lehet feltételezni, hogy max volt a beállítás, és a legújabb volt a driver, de semmi alapja nincs a feltételezésnek, mert nincs róla információ.
    Ahol például a játék, a beállítások, valamint a driver megegyezett, ott az erősorrend is megegyezett a miénkkel.
    Nálunk azért lett ennyire erős a GCN, mert most váltottunk az új játékokra, míg a régieket hagytuk. Számos teszt még régi játékokkal tesztel. Az pedig, egy érdekes gondolat, hogy "direktben olyan címek vannak kiválasztva, amik mondjuk a compute teljesítményre mennek rá". Ezzel azért lehet vitába szállni, mert Kepler megjelenése óta 7 DX11-es játék jelent meg. Ebből 5! (vagyis a jelentős többség) erősen használja a compute shadert, és ez meg is látszik a GCN teljesítményén ezekben a játékokban. Tehát ha az új címekből csemegézünk nem is tudsz úgy választani, hogy ne legyen a többségük compute igényes.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6124 üzenetére

    Ha az én véleményemre vagy kíváncsi, akkor szerintem most túl sokat költenek a szoftverfejlesztésre és túl keveset a marketingre. Szerintem nem az az ideális egyensúly, amit most látunk. De ez tényleg csak az én véleményem, és nem vagyok gazdasági szakember. Lehet, hogy a Rory úgy gondolja, hogy ezt az évet leviszik így, jövőre pedig az új generációnál előtérbe helyezik a reklámot, hiszen akkor már itt lesznek a támogatott programok.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6129 üzenetére

    Csak szóban hozták ki kedvezőbbnek a 680-at, mert az eredmények világosak voltak. A GHz Edition gyorsabb. Az Xbitlabs azért merült fel, mert az ő eredményeit néztem. Ott 26%-os átlagos sebességelőnyre mondták, hogy nem lehet rámondani, hogy a leggyorsabb. Meg lehet nézni a tesztet. [link] - itt az összegzés. Ha számolsz, akkor átlag 26%-ot kapsz. Ez pedig a levont konklúzió: "It wouldn’t be correct to claim that the AMD Radeon HD 7970 GHz Edition is the fastest single-GPU graphics card available today because our tests do not show it to be overwhelmingly better than the reference GeForce GTX 680." Átlag 26% az ma már nem elég az AMD-nek, hogy gyorsabbnak mondják.

    Az NVIDIA-nak már elfogadják. Az AMD-nek még nem. De ha ők is ezt csinálják, akkor az a piac szegmentációjához vezet, ami sokak szemében nem kedvező. Ez egyébként valóban gond. Gyakorlatilag ma már jobb aszerint dönteni, hogy mivel szeretnél játszani a PC-n is. Tiszta konzol beütés. :)
    Ami nagyobb gond, hogy pár tesztelő kicsit a mellére szívja, hogy a Keplert agyondicsérte, amikor most kiderül, hogy jönnek a compute heavy játékok, és láthatóan nem acélos az architektúra ezekben a környezetekben. Sokan cikinek érzik, hogy nem látták előre, vagy legalábbis nem említették meg, minimum azt, hogy a Keplernek esetleg gondja lehet a compute hatékonysággal. Ezt médiában dolgozó ismerősöknél is látom. Pár tesztelő pipa azért, mert az AMD csak szintetikus benchmarkokon mutatta meg a GCN compute erejét, de nem hívta fel rá a figyelmet, hogy ezt idén még ki is használja nem is egy játék. Azért általában nem szokás a saját magad ajánlásának ellent mondani később. Persze szerintem közel sem ilyen drámai a helyzet. Az olvasók nem várják el, hogy előre lásd a jövőt, szóval kicsit tragikusan fogják fel ezt páran, mint ha a hitelük romlana tőle, pedig valójában nem tett senki sem rosszat, amikor a Keplert ajánlották. Mi is ezt tettük, még sem parázunk, hogy az új játékokban legyorsulja a GCN. Basszus ez van, eltelt 4 hónap megváltozott a helyzet. Nem először történik ez. Fless is változtatott az álláspontján a GTX 200 és HD 4800 időkben egy új teszt után. Még sem akasztotta fel senki, mert nem látta előre, hogy 4 hónap múlva más eredmények jönnek majd ki.

    A drivertámogatás módosítása jó döntés volt. Nem bírták volna a Win 8-ra való felkészülést havi frissítések mellett. Amint megvágták ezt és összevonták a fejlesztést rögtön beindultak, és elsőként kínáltak WHQL drivert a végleges Win 8 OS-hez. Ennek az OEM-ek nagyon örülnek, mert az AMD-s gépeket már elkezdhették végleges tesztfázist a Win 8 startjára.

    Hát az alvó kutyák az valami fantasztikus. Szerintem mindenkit megleptek. És ha belegondolok, hogy ezt a játékot le akarták lőni. :U

    Ez PowerColor magánakció. Más gyártó is csinál majd. De amúgy igazából ilyenek mellett szerintem az AMD átgondolhatja ezt a startot (én legalábbis ezt tenném). Igazából 800-1000 dollár környékén ennek nincs értelme. Ezen a szinten már a nagyobb OEM-ek sem gondolkodnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6131 üzenetére

    Én nézegettem, és jellemzően számokban gyorsabb volt. Amúgy a cherry picked az jellemzően 3-5%-ot számít. A GCN nem itt szedi össze az előnyt, hanem a compute-on. Még az AMD-t is meglepte, hogy mit csinált az NV a Keplerrel. Abszolút nem erre számítottak a Fermi után.

    Semmi gond nincs a driverrel, hibátlanul működnek a tesztekben is, és én is a 12.8-at használom. A használat módjával van gond. Sokan nem tudják megérteni, hogy az AMD nem adja oda senkinek a PowerTune specifikációját, enélkül pedig lehetetlen rá normális támogatást írni hozzá. Maga a Rivatuner fejlesztője mondta a Guru3D-n, hogy az AMD elzárta magát a 3rd party programoktól. Bárki telepíthet Afterburnert, az ATT-t, vagy más 3rd party cuccot, de elvágja magát a driver PowerTune rutinjától. Ez azt jelenti, hogy egy külön rutint kell az adott programnak betölteni, ami alapján a hardver működni fog, de mivel az AMD-n kívül senki sem tudja hogyan működik a PowerTune, így könnyen kitalálható, hogy ez egy elég nehéz feladat. A drivert megpróbálják visszafejteni, de ez nem könnyű, mivel a PowerTune-ra csak beállítások vannak, ami kódoltak, vagyis ha ez nincs meg, akkor a működés hibás lesz. A GeForce sokkal egyszerűbb, mert ott az energiamenedzsment és az órajel vezérlése még mindig a driveren keresztül megy, vagyis specifikáció nélkül is nagyon könnyen monitorozható, hogy mi történik, vagyis aránylag jó rutinok írhatók hozzá. Az AMD-nél a driver a Win indításakor elindít egy PowerTune profilt. A hardver ezt megérti, majd az alapján egészen az OS leállításáig dolgozni fog. A gondot az jelenti, hogy ez a profil a zárt Overdrive modulhoz kötött, vagyis ha 3rd party program órajelet akar állítani, akkor az első dolog, hogy ki kell ütni az Overdrive modult a driverből. De enélkül nincs PowerTune, vagyis nincs energiagazdálkodás, órajelváltozás, semmi. Tehát a 3rd party programokhoz vakon kell írni egy PowerTune profilt, a rendszer működésének ismerete nélkül. A GeForce-nál használt monitorozás sem segít, mert a PowerTune nem kér a drivertől engedélyt semmihez. A hardver dönt mindenről, és a változásokról ad a drivernek egy visszaigazolást, hogy x-y PowerTune szint bekapcsolt/kikapcsolt. Ez jó dolog, de a 3rd party fejlesztések a hogyanra kíváncsiak, és nem a visszaigazolásokra. Ezt azonban a szoftverből nem kapják meg, mert nem a driver dönt az aktiválásról. Az AMD arra egyébként már lehetőséget ad, hogy a 3rd party programok betöltsék a Overdrive modulját, vagyis ez a része már megoldott, csak ez magával vonja az Overdrive órajellimitjeit is a tuningnál. Ezért egyetlen 3rd party program sem használja a driver Overdrive modulját, ha a felhasználó tuningolni akar (szerencsére tuning nélkül már ezt töltik be). Ezt egyébként én is kipróbáltam, az ASUS progijával. Amíg nem nyúlok az órajelekhez hibátlan, de amint egy MHz-et is emelek jöhetnek a problémák. Ha ugyanezt az Overdrive modulban teszem meg nem történik semmi gond. A hibák egyébként képi villanásokban, és érdekes lagokban jönnek. Nem mindig persze, mert valamennyire már kiismerték a 3rd party fejlesztők, de nyilván a PowerTune egy eléggé komplex technika, szóval speckók nélkül nem sokra mennek.

    A speckókat egyébként valszeg nem adják ki az elkövetkező hónapokban, vagy talán években, mert jelenleg mindenki PowerTunet próbálja másolni. Nyilván az AMD nagyon védi, hiszen öt évük ment rá. Szerintem alapvetően nem bonyolult a működés, csak trükkös, és gondolom, hogy ha publikusan specifikálva lenne, akkor könnyen le lehetne másolni. Az NV és az Intel addig, amíg nem alkotnak valami hasonló hardveres megoldást, addig az órajeljátékot és az energiamenedzsmentet többé kevésbé driverből oldják meg. Ennek egyébként igazi értéke a webböngészésnél van. A PowerTune előnye, hogy baromi gyorsan értékeli ki a hardver a szituációkat, vagyis bizonyos helyzeteket 10 ns-on belül lereagál órajelváltozással. Az energiamenedzsment pedig fél másodpercenkénti órajelváltásra ad lehetőséget, és 1 másodpercenként 1 MHz-es lépcsőkben is változhat az órajel. Ezért bírják az AMD IGP-s/GPU-s notebookok 1-2 órával tovább a gyorsított tartalmakon a webes terhelést, mint a konkurensek. Az NV-nél az energiamenedzsment 5-10-20 másodperces limitekhez kötött vagyis, ha beállt egy 3D órajel egy canvas kódra, akkor az minimum 5-10 másodpercig nem lehet újra köztes, vagy 10-20 másodpercig nem lehet újra idle (függően a hardvertől). És ha a leváltás megtörtént, akkor az idlet minimum 10 másodpercig tartani kell (Keplernél csak 5 sec). Mindebbe pedig be kell számolni a szoftver kiértékelését, ami 500 ms-os késleltetés. Az Intelnél az energiatakarékosság 2-4 másodperces limittel megy, vagyis aránylag elég jó, plusz a driver 500 ms-os késleltetése. A turbó az nehezebb ügy, mert az félig hardveres. De az engedélyt a rendszer a drivertől kéri, ami vagy engedélyt ad, vagy nem (általában igen, de vannak a driverben programokra profilok, ha az egy turbó tiltott exe fut, akkor a driver megtagadhatja a turbót). Mindenesetre a váltás az alap és a turbó között 2 másodpercen belül megtörténik, de a turbót addig kell tartani, amíg a driver nem mondja, hogy elég. Ezután még 10 másodperc az ütemezett leváltás, ami öt lépcsőben zajlik. Ezek a profilok egyébként azért vannak, mert a hardver túlbuzgó, és a flashekre, illetve a canvas tartalmakra nyomja a turbót rendesen. A canvassal nem lehet mit kezdeni, hacsak a böngészőre nem adod be a tiltást, de a flash az könnyebb ügy. A stage 3D-s flashprogramok, is jól profilozhatók. A canvas úgy van megoldva, hogy ha nincs aksin a noti, akkor a canvasra soha sincs turbó. A webgl az picit szopósabb. Oda sajnos néha nem ártana, de nehéz monitorozni, vagy mindenen megy, vagy semmin. Jelenleg a canvashoz hasonló a megoldás.
    Ezek alapján érthető, hogy az AMD miért védi ennyire a PowerTune-t. Simán lemásolná mindenki, és akkor oda a webes üzemidő előnye.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz peterm711 #6134 üzenetére

    1400 MHz-re készültek, de más a terv és más a gyakorlat. Mindenesetre, ha csak 1 MHz-et is emelsz az órajelen, akkor minden esetben véget ér a gyártó felelőssége. Saját felelősségre megteheted, de ha baj van, akkor nem foglalkoznak veled, mert a tuningra soha senki nem vállal garanciát. Ez mindenhol így van, és sosem változik meg. Amikor telepíted az Afterburnert, vagy kilakatolod az Overdrive órajelállító felületét, akkor azt csak úgy teheted meg, hogy előtte elfogadod a feltételeket. Mindig benne van a feltételekben, hogy ha tuningolsz, akkor a gyártó leveszi rólad a kezed és a magad ura vagy. Ha hibád lesz csak magadnak köszönheted, hiszen olyan terepre léptél, amire senki sem mondta, hogy 100%-ig működni fog. Ezt persze nem kötelező elfogadnod, hiszen az OK gomb mellett van egy mégse is, de ebben az esetben az Afterburner telepítése nem folytatódik, illetve marad a lakat az Overdrive felületen. Úgy, hogy tudod a pró-kontra érveket a tuning kapcsán te döntöd el, hogy melyik utat választod. Amit egyedül nem tehet meg a user, az az, hogy felháborodik azon, hogy a terméke nem működik olyan beállítások mellett, amit soha senki nem garantált.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz peterm711 #6141 üzenetére

    Nem igaz. Ha olvasod az írásaimat sosem ajánlok tuningot. Maximum mint lehetőséget jegyzem meg, de minden cikkbe beleírom, amikor a lehetőségről beszélek, hogy a hibátlan működésre nincs garancia. Amit pedig a fórumon ajánlottam az az volt, hogy ha tuningolni akartok, akkor azt a Catalyst Overdrive menüjéből tegyétek meg, mert az biztos hibátlan PowerTune profillal működik. A 3rd party programokról lebeszéltem mindenkit. Illetve ha használják is, akkor se használják a tuning részét, hogy az Overdrive modul PowerTune profilját ne cserélje le a program. Ha csak a ventiszabályzáshoz nyúlsz, akkor az úgy megoldható, hogy ventit a 3rd party progi vezérli, míg a tuningot a Cata Overdrive. Az Afterburner legalábbis képes erre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ViiiiktorOC #6142 üzenetére

    Szerintem az órajel nem fog jelentősen változni. A Dennard Scaling vége már a GPU-kat is ostromolja. A Boostok lehetnek jobban kitolva.

    A GCN 2.0 inkább funkciókban javulhat. Én azt várom, hogy képes lesz a GPU a CPU-tól függetlenül feladatott indítani saját magán. Ezt mindenképpen érdemes lenne beépíteni. Bizonyos szituációkban hasznos lehet. Talán nem azonnal, de a fejlesztők hosszútávon teljes rendszereken akarnak a GPU-n futtatni a CPU-tól teljesen függetlenül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz peterm711 #6145 üzenetére

    Dehogy az. A tuningosok mindig a maximumra törnek, csak nem értik a rendszert, és sírnak, hogy nem jó. Ezért lutri a tuning, ezért írom be minden tuningos hírbe, hogy a lehetőség ugyan adott, de garancia a működésre nincs.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6147 üzenetére

    Nem próbálkozni kell, hanem olvasni. Nem lehet mindenkinek fogni a kezét. Ami tényszerű, hogy elég sok teszt született ezekről a kártyákról. Driverhibáról soha semmi beszámoló nem volt. A ZeroCore pedig egyszerűen szintén utánaolvasás hiánya. Az AMD világosan beleírta a 12.4-es Catal note-jába, hogy akinek ezután sem megy, annak alaplapi BIOS-t kell frissíteni. A legtöbb alaplapgyártó hozott ki frissítést. Nem véletlen, hogy nekünk sosem volt problémánk a ZeroCore funkcióval. Minden tesztben ott a mért eredmény, a kikapcsolt monitor melletti idle fogyasztásról. El kell olvasni a release note-okat.

    Ismerem, de megértheted az Intelt és az NV-t is, hogy 1-2 órával több üzemidőt kínál a Radeonos rendszer webböngészés mellett. Ez nagy előny. A Trinity APU 6 óráig bírta a webes terhelést, míg az Ivy 4-ig egy webes TechReport tesztben. Ez a különbség sok, így nem kérdés, hogy a teljesen hardveres energiagazdálkodás kedvezőbb a szoftveresnél. A jövőben tehát az Intel és az NV is ebbe az irányba fog menni. Nem PowerTune-nak fogják hívni, de úgy fog működni, mivel teljesen hardveres lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fred23 #6146 üzenetére

    A HD Graphics 4000 szintjén biztos eléri, mert azt már most veri a 2011-es Llano APU IGP-je. A Trinity IGP-je még jobban veri, míg a Kaveri még rátesz egy lapáttal. A kérdés inkább a Haswell IGP-je, mert az Ivy megoldását igazán nem nehéz elintézni. 2xAA bekapcs és már ki is feküdt az egy ROP blokk miatt.
    Egyébként nyilván olyan 20%-kal lehet gyorsabb a Trinity megoldásánál. Compute terhelés mellett pedig a GCN büntet szóval alázni fog minden eddigi IGP-t.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6151 üzenetére

    Inkább háromnegyed év, mert ugye 2013Q2.
    Az IGP-re nem csak grafikát lehet rakni. Szépen át lehet nyomni egy játéknál rá a fizikát, az útkeresést, a különböző culling eljárásokat, a sortingot és a tartalom kikódolást. Nem viccből gyúr az Intel a Haswellnél az IGP-re.
    Ennyiért lehet őket adni. Ennél lentebb alig-alig mennek majd az árak. És ha nem kell ennyiért, akkor nem az lesz az üzenet a cégeknek, hogy drága, hanem az, hogy a piac nem igényli őket. Vannak 200 dodóért is VGA-k. Új generációs megoldások is. A HD 7850 memóriától függően 190-210 dollár.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ric4m0nd #6153 üzenetére

    Nem csak a BOINC számára lenne hasznos. A játékfejlesztők is kérik. Eddig csak a GK110-re jelentették be, hogy kínál ilyen funkciót, de az kérdéses, hogy megjelenik-e GeForce-ként.
    A HD 8000 2013 elején jön. Hasonló lesz a start, mint idén. Talán karácsony előtt enged teszteket az AMD.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6156 üzenetére

    Mi a baj a játékoknál vele? Az órajel dobálása? A PowerTune 0%-os alapbeállításokkal mindig tartja az alapórajelet, kivéve a Furmarknál. Ha tuningolsz, akkor +20%-ra kell húzni, és a tuningórajel is stabil lesz. Ha pedig kevesebb fogyasztást akarsz, akkor -20%. Ekkor tényleg valós időben változik az órajel a legtöbb játéknál. Tehát ha nem mész negatívba, akkor sosem lesz egy játékban kisebb az órajel az alapnál.
    Ami alapbeállításon is dobálja az órajelet az a GeForce-on a GPU Boost, akár 100 MHz-eket is pakol oda vissza. A PowerTune Boost is ilyen csak finomabb határokkal.
    Van két kép, hogy mi az amit a GPU Boost és a PowerTune Boost beállíthat, mint érték. Az AMD esetében a váltás az alapon kívül csak egy órajelállapot. Az NV-nél az alapon kívül 8 külön órajelállapot van, de termékenként változó ugye, mivel ebből csak az alsó 4 garantált. Ezek között a rendszer valós időben válthat a terhelés függvényében.
    A képeken egyébként a pontok erőssége azt jelenti, hogy az adott teszt során a rendszer milyen gyakorisággal lőtte be az órajel-feszültség párosát. Ha erősebb a szín, akkor sokszor, ha gyengébb, akkor kevésszer. A GPU Boost esetében ugye vannak üres helyek. Azok is léteznek, mint állapot, csak nem voltak a teszt közben aktívak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6158 üzenetére

    A PowerTune azért van, hogy védje a hardvert a Furmarktól. Ha téged az órjelváltás zavar, akkor a GPU Boosttal és a PowerTune Boosttal lesz inkább bajod. Ezek sokkal agresszívebben működnek, mert állandóan dobálják az órajelet, ahogy látod a grafikonon is. A PowerTune Boost csak egy órajelbeállításra és 50 MHz-et, míg a GPU Boost az 100 MHz-es szinteket is dobálhat ide-oda. [link] - Ez az NV saját mérése hogyan működik. 1 másodpercenként változott az órajel. Ez a minimum határ, ugyanis a driver dönt erről, vagyis a kérés is a válasz között 800 ms van.
    Maga a PowerTune 0%-on egy játékban semmit sem csinál, mert a Furmarkra szabták. Ha nem így védi az AMD a Furmarktól a terméket, akkor máshogy kell elfojtani a teljesítményt. Furmark szerű terhelés pillanatokra előjöhet játék alatt is. Ilyen volt például a StarCraft 2. [link] - erről írtunk is. Sokan elhullott GeForce-ról beszéltek a fórumban. Akkor az NVIDIA semmivel sem védte a hardvereket a túlterheléstől. Az AMD a HD 5000-be már rakott egy alapvető védelmet, ami a túlterhelés érzékelésére az órajelet ugyan nem módosítja, de képes kiadni egy halt parancsot. Elméletben a GPU addig nem dolgozik az adott ciklusban, amíg a halt parancsot kapja. Egyszerűen futja az üres ciklusokat. Jellemző volt a Radeonokon, hogy a vezérlés úgy volt megoldva, hogy egy halt és egy munka parancs volt, és így folytatódott. Ugyanakkora ez teljesítményvesztéssel járt, mivel két ciklusra nézve a teljesítmény a felére esett, mivel az egyik ciklus üres volt. Persze ez 10 ciklusnál közel sem volt ilyen drámai. Furmark alatt 10 ciklust nézve 2-3 halt van, míg nagyon jól optimalizált játékban (StarCraft 2) 100 ciklusra 1 halt (de egy játék nem állandó jelenettel dolgozik, mint a Furmark, szóval itt ez az érték nagyon függött a jelenet típusától). Az NVIDIA hasonló védelmet vezetett be a GeForce GTX 580-on. Ez abban különbözött az AMD megoldásától, hogy nem volt kötelező egy halt után csinálni egy munkaciklust, vagyis előfordulhatott, hogy a GPU öt ciklusig nem csinált semmit. Utána persze jellemzően volt munka, mert a túlterhelés sosem lehetett olyan nagy, hogy öt ciklus után ne legyen meló, de ha ez a ciklus állandósuló, például Furmark, akkor a hardver megállapít egy extrém terhelési szintet. Tehát ha öt ciklusos lenne a halt, és egy a munka, akkor a rendszer inkább megfelezte a feldolgozás sebességét. Ezt úgy érte el az ütemező, hogy a külső parancsnál halt helyett slow jelet kapott, ami azt jelentette, hogy az erőforrások felét sose használja ki. Gyakorlatilag az ütemezőnek meg lett tiltva, hogy az összes GPC blokkra osszon szálat. Így működött a GTX 590 is, azzal a különbséggel, hogy a keret szűkösebb volt, így ha tuningoltál, akkor lassult a sebesség egy játékban. Természetesen a korábbi halt túlterhelés nélküli védelem a driveres tiltásra helyezte a terhet. Ez is hasonlóan működött, mint a GeForce-on a slow, csak a driver a program futtatásának elején kiadta, hogy lassítani kell, mert ez a program túlterhel. Ezt a rendszerprogramozók tesztelték ki, és a friss meghajtókba került a dolog. A Furmark ez ellen az exe átnevezéssel védekezett, így később ez a program kapott egy módosítást, vagyis a driver nem az exét detektálta, hanem a shader fordító rakott üres ciklusokat a Furmark shaderjébe. A játékoknál nyilván túl nagy veszélye nincs annak, hogy a user átnevezi a fájlokat, így ott a fájl szerinti fojtás megfelelt. A HD 4000 például azért volt gyenge a HD 5000-hez képest Starcraft 2 alatt, mert az AMD már a program kiadása előtt érzékelte, hogy gyilkolni fog, és belerakták a driverekbe a fojtást, amint bekerült a meghajtóba a profil a játékra. Az NVIDIA ezt nem tette meg, és ezért hullottak a GeForce-ok a játék kiadásakor. Később persze megtörtént, aminek meg kellett történnie. Az NVIDIA is lelassította a hardveres túlterhelésvédelemmel nem rendelkező termékeket, a helyzet ugyanaz volt, mint az AMD-nél fojtás a driverbe. Ezért van az, hogy a GeForce GTX 480 lelassult az új driverekkel, míg a GTX 580 sebessége nem változott StarCraft 2 alatt. Persze a StarCraft 2 az nem Furmark, szóval annyira drasztikus fojtás nem kellett bele, nem kell tehát felezett sebességtől tartani, amolyan 10-15%-os mínusz volt a jellemző.
    A HD 6900-nál mutatkozott be a PowerTune, ami azt a célt szolgálta, hogy kevésbé legyen drasztikus a túlterhelés elleni védelem. Könnyen kitalálható, hogy nincs rosszabb annál, ha egy GPU kap egy halt ciklust, mert jelentősen növelhet a frame elkészülésének idején, ha egy egész ciklusig nincs munka. A több ciklusos halt, ami a GTX 580/590-en volt, pedig nagyon gáz lehet. Nyilván tök egyértelmű, hogy a játékok ebből nem sokat éreztek, azok terhelése nem Furmark szintű, de a halt, ha bekapcsolt, akkor nagyon is érezhetően ártott a folyamatos képszámításnak. Ugyanakkora a halt túlzott, amikor a teljes ciklust üresbe rakta, hiszen jellemzően a túlterhelést nem kell feltétlenül a terhelés megszüntetésével orvosolni. Nyilván a pillanatnyi túlterhelés nem gond, csak a folytonos. Például, ha 2-3 másodpercig tart, az már para lehet (a hardver persze gyorsan dolgozik, így lereagálja a dolgot a másodperc töredéke alatt). A PowerTune abban újított, hogy kivette a haltra való igényt, ugyanis a rendszer precízen monitorozta a terhelést, és ha érezte, hogy a peak meghatározott idejénél tovább tart a terhelés, akkor be kell avatkozni. A haltra viszont nincs szükség, mivel a túlterhelés mértéke változó, és a PowerTune kiszámolja, hogy mekkora az az órajel, amivel a terhelés a specifikált limit alá szorítható, és annyival csökkenti az órajelet. Ez lehet akár 1 MHz is, ha ennyi elég. Ha a terhelés a limit alá ment, akkor lehet növelni az órajelet. Ez egy valós monitorozás lényegében, és az órajel folyamatosan reagál a terhelés szintjére. A Powertune megkötése persze, hogy van egy órajelminimum is. Jellemzően ~300 MHz-es az a sáv, amiben működik. Ez azt jelenti, hogy ~300 MHz-nél nagyobb órajelcsökkentést nem enged meg. Ez persze fejlesztésenként változó, mindig az adott fejlesztéshez szabják. Van olyan, ahol ~200 MHz a PowerTune sáv. Természetesen a specifikált limitet lehet változtatni. A 0%-ot az AMD mindig úgy állítja be, hogy az a játékoknál ne jelentsen órajelváltást. Ez ügye elemi érdek, mert ha csökken az órajel, akkor csökken a sebesség. Ennek a limitnek a negatívba és pozitívba eltolása a user feladata, ha akarja. Nyilván hagyható 0%-on, de ha tuningolsz, akkor nem árt pozitívba tolni, mert nyilván a tuningórajel, már csökkenhet, hiszen a limitet az alapórajelre szabták. A -20%, akkor lehet hasznos, ha futtatsz valami BOINC projektet. Még mindig sokkal gyorsabban számol a GPU, mint a CPU, de legalább nem fogyaszt annyit, mint 0%-on. Illetve nyilván a mobil felhasználás során is értékes a dolog. Ha nincs konnektor a közelben, de valami 3D-s alkalmazást nyomsz, akkor -20%-os paraméter sokat segít az aksinak ergo később fog a noti lemerülni. A PoweTune Boost, mint "újdonság" tök egyértelmű. Sokszor a 0%-os PowerTune limit, is sok és bőven van hely órajelemelésre. Ezt használja ki a PowerTune Boost. Fontos viszont, hogy a PowerTune Boost egy megkülönböztetett jel, vagyis az vagy aktív, vagy nem, nincsenek köztes állapotok. Ha aktív a PowerTune Boost, akkor az órajel a Boost órajel ez fixen annyi marad, amíg az állapot aktív. Ha a Boostot kilövi a hardver, akkor az eredeti PowerTune paraméterezés lét érvénybe az alapórajellel, és az 1 MHz-es lehetséges minimális csökkentésekkel. Az órajel változása egyébként fejlesztésenként eltérő, de 10-100 ns-os reakcióidő van, vagyis 10-100 ns-onként lehet órajelet váltani a Radeonnak. Ugyanez érvényes a Boostra. 10 ns-onként ki-be lehet kapcsolni (itt a 100 ns azért nem él, mert a Tahiti az egyedüli boostos termék, és az 10 ns-mal dolgozik, de nyilván ez a paraméter is eltérő lehet fejlesztésenként)
    A Keplernél az NVIDIA is áttért egy hasonló megoldásra, de a PowerTune-nal ellentétben nem a hardver értékel, hanem a driver. A hardver csak mér, és adagolja az infót a drivernek, ami egy adatbázis alapján válaszol, hogy a beküldött (azaz legutóbb kimért) terhelési szint után milyen órajelet és feszültséget kell beállítani. A GPU Boost bines lépcsőkben zajlik. És egy binnek megvan az órajelértéke (GTX 680-nál például 13 MHz). Az órajel tehát ennál a terméknél 13 MHz-cel változhat, de a maximum változás pedig 8 bin mellett 104 MHz lehet. 4 bin mellett pedig a specifikációkban megadott 52 MHz. A köztes bineket ki lehet számolni. Nyilván ez csak a GTX 680-ra vonatkozik, de elég egyszerű az NV speckója. Minden termékre 4 bin van biztosan garantálva. A bin órajele pedig a hivatalos GPU Boost órajel mínusz az alapórajel osztva néggyel. A PowerTune-hoz tehát az alapvető különbség, hogy nem a hardver dönt az órajelről, hanem a driver mondja meg. Ez egy 800 ms-os késleltetés az oda vissza jel miatt, illetve a proci munkája. Éppen ezért az NVIDIA termékein az órajelváltás minimum 1 másodpercig tart, és a Boost módban váltott órajelet 1 másodpercig minimum meg kell őrizni. A Boost viszont lefelé is működik. Az NVIDIA szintén eldobta a halt rendszert, hasonló okokból, mint az AMD. Ha a hardver nem bírja alapórajelen a terhelést, akkor egy negatív GPU Boost lép érvénybe, ami a bin órajelértékével, illetve annak többszörösével csökkenti majd az órajelet. Erre szintén van adatbázis a driverben. Lefelé egyébként terméktől függően 20-30 bin engedélyezett. A GeForce esetében magát a specifikált limitet nem lehet módosítani. Az állandó. Ez attól van, hogy a GPU nem monitorozza magát, mivel ezt egy külső IC végzi. Az AMD azért képes a limitet paraméterezhetővé tenni, mert a PowerTune a GPU-ba van építve (tehát nincs külön IC erre), és a PowerTune áramkör programozható.
    Ezenkívül a PowerTune nem csak a terhelés monitorozásáért, hanem az energiagazdálkodásért is felelt. Nyilván egyértelmű, hogy ha az adott munkafolyamat terhelése megszűnik, akkor az a legjobb, ha a hardver a lehető leggyorsabban vált idle, vagy köztes órajelre. A szoftveres megoldásoknál ez lassú, mert a driverből kell erre enegedéjt kérni, de az nem foglalkozik a driverrel, mert maga dönt. A ZeroCore is egy PowerTune technika alapvetően. Azért akarják ezt másolni a konkurensek, mert ennél hatékonyabb vezérlési forma nincs. És ebből érthető, hogy az AMD miért védi a specifikációkat még a saját partnerei elől is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6160 üzenetére

    Nagyon jól működnek már. A Furmark fejlesztője le is állt a program polírozásával. A szoftvert meg lehet kerülni, de hardvert nem. Persze a GeForce GTX 580 és 590 védelme a GPU-Z-vel kikapcsolható, de nem ajánlott megtenni. Asszem a Kepler Boostja is kikapcsolható pozitív-negatív irányban, de azzal sem érdemes élni, mert a hardver erre támaszkodik a védelmeknél.
    A PowerTune kikapcsolhatatlan, mert az a display driver betöltéséhez van kötve. Tehát az egyetlen mód ezt kikapcsolni, ha megtiltod a display driver betöltődését, ami pedig lényegtelenné teszi a dolgot, mert display driver nélkül semmilyen 3D-s program nem fut.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6163 üzenetére

    A PowerTune pedig 0 MHz-et változtat 0%-os beállítással. A Boostok sokkal hektikusabbak. A GPU Boost a legrosszabb. Ott a TPU-s kép ... vagy az NV mérése, ami másodpercenkénti órajel módosítást mutatott. Egy mérés alatt az összes órajelszintet érintette többször is. Ugyanígy a PowerTune Boost, de annak csak egy szintje van, de az is nyilván váltogat az alap és a boost szint között.
    Egyébként, ha elolvastad, akkor a GPU Boost ugyanúgy működik negatív irányba is. Tehát az órajeskálázás mindkét architektúrán közel 300-400-500 MHz-es tartományban működik. De ez csak elmélet. A gyakorlatban egy játék nem képes úgy leterhelni a hardvert, hogy az alapórajel alá kelljen menni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #6164 üzenetére

    A HD 6850 nem PowerTune-os rendszer.
    Több megjelenítőnél persze, hogy nem stabil 250 MHz alatt. Egy kijelzőre van tesztelve az idle. És azért nincs engedélyezve a kártyákon ez több kijelzőnél, mert nem lesz stabil. Ez nem csak a Radeonokon, hanem az összes terméken így működik. Ha több kijelzőt használsz, akkor nincs idle.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz janos666 #6167 üzenetére

    Azért nincs idle, mert vibrálna a kijelző. Az afterburnert hagyni kell. Ott a CCC Overdrive. Azért építi be az AMD, hogy ne kelljen külső progit használni ehhez.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz radi8tor #6181 üzenetére

    Valójában elveszted, de igazából senki sem tudja meg, hogy leszedted. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Mexildos #6216 üzenetére

    1000 dolláros listaár mellett egy esetleges HD 8990 sem lesz dupla GPU-s. Maga a HD 7990 kész van, de 5000 eladással számolnak világszerte egy 1000 dolláros VGA-nál. Ennyiért nem éri meg vergődni vele. Három gyártó korábban már úgyis bejelentette, hogy csinálnak dual Tahiti VGA-t (a PowerColor már szállítja is). Ők simán vállalnak 1000-1500 darabos mennyiséget, vagyis három gyártó le tudja fedni ezt a piaci réteget. Ha az AMD kihoz egy referenciamodellt, akkor a gyártók nem fognak rástartolni, mert már le van fedve a piac.

    Ezenkívül van pár olyan szoftveres fejlesztés, amelyek nem kedveznek az AFR-nek. Vagyis a skálázódás nagyon nehéz lesz biztosítani. Lásd Dirt Showdown. Az NV SLI-je nem is működik, míg az AMD 50-60%-ot tud kihozni CF-fel. A fejlesztők egyre bonyolultabb shadereket írnak, és egyre több interframe kommunikációt vállalnak be. Utóbbi az AFR halála. Nem megoldhatatlan, de egyértelműen ront a rendszer hatékonyságán.

    Jövőre valószínűbb, hogy az AMD az igazán csúcs-VGA-nál a stacked DRAM-ot próbálja ki, mint lehetőséget. Úgy sem árt ezt a megoldást tesztelni az APU-kkal való párosítás előtt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ÁdiBá #6266 üzenetére

    "A GCN v2 architektúra köré épülő shaderek itt már nem 64-es, hanem 80-as tömbökbe lesznek rendezve ..."
    Ezt ki írta? :) Megkérdezném, hogy rajzolja már le, hogyan is néz majd ki az a CU.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6268 üzenetére

    Nézd meglehet csinálni, csak ahhoz egy extra 512 bites vektor kell a CU-ba. Ennek viszont az a következménye, hogy csökken az LDS FLOPS-okra leosztott tempója. Igazából semmi nem indokol 4 helyett 5 darab 512 bites vektort egy CU-ban. Ahhoz kell még egy extra PC&IB is, amivel nyilván 64-gyel nő a konkurens szálak száma is, vagyis a teljes CU-t eléggé módosítani kell a hatékony működéshez. Nem lehetetlen megcsinálni, de miért kellene olyan dologhoz hozzányúlni, ami most is jól működik ugye.
    Nem mellesleg 1792-t és 1536-ot írnak az ominózus Olandokra, és ha ezeket a számokat elosztod 80-nal, akkor csúnyán nem egész szám jön ki. A legnagyobb probléma nem azzal van, hogy az oldalak ezt megírják, hanem azzal, hogy a hírben lévő adatok ellentmondanak egymásnak. Akár pletyka, akár nem, az ellentmondást kerülni kell, azonos híren belül mindenképp.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Az AMD felrakta az AFDS anyagok egy részét a Youtube-ra. A gaming rész talán érdekes lehet. Nincs mind fent, de ami van az itt megnézhető:

    Compute in the Future of Gaming - Codemasters: Gareth Thomas

    GPU Compute in Games, Present and Future - Faraxis: Dan Baker és John Kloetzli

    The Future of PC Gaming at AFDS 2012 - sokan dumálnak :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6309 üzenetére

    Ezek szimpla trükkök, amivel befolyásolják a részvényárfolyamot. 2 dollárról kapásból 2,3-ra ugrott az egész, aztán 2,09-re visszament, mert az AMD bejelentette, hogy nem merült fel ez a cégen belül. Valamelyik elemző hasznot akart ebből húzni. Az amúgy szégyen, hogy egy ilyen pletykával, így lehet befolyásolni a részvényeket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6311 üzenetére

    Semennyivel nem lesznek olcsóbbak. Az AMD-nek eddig sem volt gondja a gyártókapacitással. Az érkező VGA-k árát a piac szűkülése határozza meg.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6313 üzenetére

    A JPR statisztikát nézik a cégek. Az negyedévenként 4-7%-os csökkenésről számol be folyamatosan.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6315 üzenetére

    Miért nem? Van egy eladás, és az csökken, de attól a következő negyedévben még lesz eladás, csak kevesebb. Mindig lesz eladás, hacsak 100%-ot nem csökken.
    Egyébként nyilván megvan az a statisztika is a gyártóknak, hogy a teljes piac jelentős része az IGP. Már lassan a 80%-a.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6317 üzenetére

    Csak megpróbálják a csökkenés mellett a bevételt szinten tartani. Ehhez mindig annyit emelnek, amennyivel ez lehetséges. Azt már elkönyvelték szerintem, hogy a csökkenés megállíthatatlan, és előbb-utóbb annyi lesz ennek a piacnak. A mikor még kérdéses.

    Pedig a JPR nem keveri a PC-t a mobillal. Az a majdnem 80% sajna csak PC. Persze ami bele van számolva és ront a statisztikán az az, hogy a procit megveszik IGP-vel, de nem biztos, hogy használják. Viszont ezt így nem lehet kiszűrni, mert csak az eladott termékről van adat.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Angel1981 #6319 üzenetére

    A raktárakhoz igazíthatnak árat. Ha sok van, akkor érdemes olcsóbban adni, és akkor több fogy, ami összességében kedvezőbb. Viszont ezt is előre ki kell kalkulálni, hogy mennyivel érdemes olcsóbban adni, és hogy az szinkronban legyen a gyártással. Emellett az árak hatással vannak a piac szűkülésére. A folyamat nem csak létezik önmagában, hanem egyben öngerjesztő is. Minél magasabbak az árak, annál gyorsabb a szűkülés. A folyamatot nem lehet megállítani, de a tempót befolyásolni lehet.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6348 üzenetére

    Nem is magáért a termékért csinálják. Az önmagában nem ér semmit, mert olyan helyre jön, ahova tulajdonképpen nem is kell VGA. A cél egyszerű. Itt az új driver, jött/jön pár új játék, és meg kell mutatni a világnak, hogy a HD 7970 GHz Edition ebben a környezetben 50%-kal is gyorsabb a drágább GeForce GTX 680-nál. Már nézegettem ezeket. A Sleeping Dogs alatt extrém nagy a különbség. A HD 7970 GHz Edition minimum fps-e 31, ami konkrétan a GTX 680 maximuma. Átlagban 60%-kal gyorsabb. A Warfighter egy kicsit egyoldalú, mert olyan optimalizálást használ, amit csak a Radeon képes kihasználni (CDB technika - GeForce nem támogatja hardveresen). Aztán még ott az új Hitman és a Far Cry 3. Mindkettő tele lesz compute shaderrel. Ennyi a célja egy új VGA-nak. Csak egy üzenet, hogy teszteljék újra a dolgokat, mert a GCN az új játékokban nem azt az arcát mutatja, amit márciusban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6351 üzenetére

    Nem én mértem. Mi még nem mértük le, de nyilván megkaptuk a játékot, szóval benne lesz a következő tesztekben. Most még van egy dolog, amit nem értek, mert van in-game benchmark rész, és a 60%-os eltérés az egy akciódús játékjelenet alatt jön, míg az in-game benchmarkban 30% körül van a különbség. Ennek az okát még kérdezgetem.
    Nem tudom mit lehetne csinálni a Keplerrel. Lehet javítani rajta, de elég nagy a különbség compute téren. Szerintem az NVIDIA nem gondolta, hogy a compute shaderre ennyire ráharapnak a fejlesztők. Bár nagy kérdés, hogy miért nem, mert látták, hogy ott a Windows 8 új DX SDK-ja, ami nagyon leegyszerűsíti a kódok debugolását. Most volt Montreálban egy gaming konferencia. Ott volt szó róla egy előadásban, hogy bármit megéri compute shaderbe átrakni, mert 10-70%-os gyorsulás lesz a teljesítményben a képminőség változása nélkül. Rengeteg példát előhoztak. Már a HDR-t is compute shaderben ajánlják. A tracer interfésszel a munka időigénye a harmadára-negyedére csökkenthető, a bonyolult kódoknál pedig még többet lehet nyerni. Gyakorlatilag végre nem kell a gyártókra támaszkodni, ha compute shaderről van szó. Szerintem az NVIDIA ezért kerüli nagyon a DX11.1 emlegetését, mert a hardver úgy néz ki, hogy támogatja, viszont nekik durva kiszámíthatatlanság, ha minden fejlesztő elkezd orrba-szájba compute shadert írni.

    (#6352) Angel1981: Mindegy. A compute shader rákfenéje mindig az volt, hogy egy egyszerű kódot még be lehetett vállalni, de egy bonyolultat már nem, mert nem volt meg a megfelelő fejlesztőeszköz hozzá. Még ha be is vállalta a fejlesztő, akkor is ott volt a kockázat, hogy nem lesz kész az effekt kiadásra. Nyilvánvaló, hogy egy kiadó nem fogja a játék megjelenését egy grafikai opcióért eltolni. Maximum azt mondják, hogy majd patch-elitek, ha kész lesz, de a játékot el kell kezdeni árulni.
    A nextgen konzolok szerintem már továbbmennek a compute shadernél. Legalábbis ezt szűröm le a fejlesztők előrevetített irányáról. Ez majd PC-n okozhat nem kevés szopást. Bizonyos effektek persze sosem fognak egy konzolnak feküdni, mert túl nagy nyers teljesítményt igényelnek. Ilyen brutálterhelő VPL-GI-t szerintem sosem fogunk konzolon látni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6355 üzenetére

    Olyan biztos nincs. A Sleeping Dogs ugyanazt számolja benchmarkban is. Valami specifikus probléma lehet inkább. Valamelyik patch úgyis említett némi perfómensz imprúvmentet.

    A compute shader felgyorsít számos effektet. Ebből a szempontból nagyon hasznos. Olyan dolgokat lehet vele megcsinálni, amit eddig nem lehetett. Viszont az API overhead ettől még komolyan jelen van. Ha az én véleményemre vagy kíváncsi, akkor az API aktuális problémái szimpla tupírozással nem oldhatók meg. Javíthatók persze, de ahhoz, hogy az overhead jelentősen csökkenjen radikális lépések kellenek. Úgy gondolom, hogy Microsoft továbbra is fejleszti a DirectX-et, így jönnek egyre jobb új verziók, de emellett érdemes egy olyan irányt megfontolni, hogy minden gyártó azonos IL-t támogasson a GPU hardver előtt. Ebből lenne egy független szabvány, és arra lehetne fejleszteni logikai futószalagot, és a teljes kompatibilitás is biztosítva lesz. Ilyen esetben az ami okozza az API overheadet az eltűnik a rendszerből, és a virtuális architektúra, amin futna a program biztosítja az eltérő fizikai hardverekkel való kompatibilítást. Ez amolyan Java irány, csak sokkal jobban kell a teljesítményre hangolni.

    Fogalmam sincs, hogy melyik távolabbi jövőben érkező játék, mennyi compute shadert használ. Ezt a fejlesztő dönti el. Ez attól függ, hogy mennyire komplex grafikát akarnak. Ha sok a komplex számítás, akkor érdemes compute shaderben gondolkodni, mert hatékonyabb lesz a feldolgozás.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6378 üzenetére

    Korábban már írtam, hogy a HD 8000 tavasszal jelenik meg. Érdemes az AMD stratégiáját úgy vizsgálni, hogy a termékmegjelenéseket egy nagy játékhoz kötik időnként. Ezért a tavaszi dátum. Ott lesz például a Tomb Raider.

    Szerintem olyan árszintekre jönnek a 8700-8800-8900-as VGA-k, amilyeneken a HD 7700-7800-7900 kezdett. Olcsóbban nem éri meg, a drágulás pedig most annyira nem indokolt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6406 üzenetére

    Ahogy nézem manapság egy picit több lesz az a kettő. Az architektúrában két generációnként lesznek kisebb lépcsők, illetve 4-5 generációnként nagyobbak, amikor konkrétan cserélik az alapokat, de a csíkszélesség tekintetében annyira drága lesz a 20 nm, hogy nem biztos, hogy 2014-ben megéri majd váltani. Erről már az NV is beszélt, meg az AMD is. Maximum a nagy lapkáknál lesz értelme, de a kisebbeknél az elején olcsóbb és jobb chip építhető 28 nm-en. Ahogy közeledünk a fizikai határokhoz, egyre inkább elmosódnak a csíkszélességváltás előnyei. Jórészt annyi lesz, hogy egységnyi területre több tranyót építhetsz be, de azokat nem kapcsolhatod be kevesebb energia felhasználásával. Ez a processzoroknál már nagyon érezhető, így majdnem álló helyzetre esett vissza a skálázásuk. A GPU-knál is ugyanez van, csak az elvi működésükből eredően ezek kevésbé érzékenyek erre, de ettől még a jövőben esedékes fejlesztések a pJ/FLOP csökkentésére mennek rá. Amit a gyártástechnológia fejlődése nem ad meg, azt bele kell tervezni az architektúrába.
    Szerintem a 28 nm még két generációig marad a GPU-knál. A SoC-oknál akár 2015-ig is.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6421 üzenetére

    Bár a hír eléggé pletyka, azért nem hülyeség az ALU teljesítmény drasztikus növelése, amikor a fejlesztők procedurális tartalomgenerálásban és hasonló compute igényes újításokban gondolkodnak. [link] , [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Klikodesh #6424 üzenetére

    Talán érdemes felhozni az Unchartedet, mint baromira jó példát, vagy a Last of Us. Mindkét játék előrébb tart a PC-s portoknál. Nincsenek bennük nagy compute igényes effektek, de az összhatásban sokkal jobbak. Ezek azok a játékok, amelyek jól kihasználják a PS3 SPU-it. A WOW hatás láttán nem volt szerintem kérdés, hogy a nextgen egy ilyen iránnyal lehet ütős. És akkor a Cell egy 250 GFLOPS-os lapka, ennél már négyszer gyorsabbat is tudnánk.

    A fejlesztőket a procedurális tartalomgenerálás inkább a költségcsökkentés szempontjából érdekli. Carmacknek abban nagyon igaza van, hogy meg kell fogni a fejlesztések költségeit. Ha ezt nem akarjuk a minőség rovására tenni, akkor virtuális textúrázás, kell procedurális tartalmakkal, illetve az offline rendereknél korábban már bevezetett újítások valós időben való megvalósítását kell vizsgálni. Ez a piac ugyanis már átesett a költségcsökkentés krízisén, amelyik ötlet ott működött az működni fog a játékok tartalomkreálásánál. Csak legyen meg hozzá a teljesítmény.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6426 üzenetére

    Annak csak valós időben van értelme, mert a tartalom csak akkor lesz megváltoztatható. Ezzel szimulálható a por például, de ami ennél is érdekesebb, hogy régóta cél a fű jobb megvalósítása, mint egy szimpla 2D-s textúra. Procedurálisan az egész szimplán számolható 3D-ben, de nem csak egyféleképpen, hanem az is számolható, hogy mondjuk rálépsz, és arra a fű reagál, azzal, hogy más képlet alapján számolod a kinézetét, pl. kilapítva a rálépett cipő miatt. Persze ez az egész rengeteg számolással jár, de már a mai hardverekkel is megvalósítható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #6429 üzenetére

    Ezeket a hatásokat fizikailag szimulálni sokkal költségesebb, mint minden képkockára eltérő tartalmat számolni. Ráadásul az egész a művészek oldaláról jóval egyszerűbben kivitelezhető. Eredményben nagyjából ugyanott leszel. Ahogy nő a teljesítmény úgy lehet majd több dolgot szimplán számolni az előre megrajzolás helyett. A hardver fejlődése szempontjából úgyis a számítási teljesítmény és hatékonyság fog jobban növekedni, míg a memória sebessége és kapacitása kisebb mértékben változik majd.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Klikodesh #6579 üzenetére

    Voltam az előadáson. Azt mondták el, amit én ebben a hírben. [link] (a csúszás szót kihagyták)
    Annyival egészítették ki, hogy az idén érkező AAA játékok majdnem száz százalékával Gaming Evolved szerződést kötöttek, és számos olyan effektet fejlesztettek, amit eddig még egyetlen játékban sem láttunk. A Tomb Raiderben egy ilyen be fog mutatkozni.
    Új generáció az év vége felé lesz. Most az aktuális GCN hardverek kihasználása a cél.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #6628 üzenetére

    Szerintem nagyobb esélye van annak, hogy a PC-s portot lebutítsák. Lehet, hogy a top fejlesztőket az AMD meggyőzi, hogy ne tegyék, mert képesek PC-re is kiadni ugyanazt a tudásszintű hardvert, amit konzolra csináltak, de mindenkit úgy sem tudnak majd meggyőzni.

    (#6629) FireKeeper: A TressFX az teljesen GPU-s futószalag. Nem szükséges az IGP-re kihelyezni. Azokkal a dolgokkal van baj, ahol a konzolon a CPU és az IGP egy jeleneten belül is együtt dolgozik a feladaton. Ezt dGPU-ra nem tudod átrakni, mert túl sok adatmásolással járna. A teljesen GPU-s futószalag simán átrakható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FireKeeper #6633 üzenetére

    Megoldható Win 8 alatt, de nincs értelme. Nem biztosított, hogy gyorsabb lesz a feldolgozás, sőt inkább lassítani fog. Az IGP-t nem érdemes ész nélkül használni. Van annak előnye. Arra kell bevetni. Ha hátrányos, akkor hagyni kell, hogy a dGPU dolgozzon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    [link] - egyelőre ez nagyon early bejelentés tőlük is ... early képekkel. Annyit extraként elárulok, hogy a kódneve Project Phoenix, és nem csak az AMD-hez van köze, hanem a CryEngine 3-hoz, a Crytekhez és az Illfonichoz is.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz p87 #6641 üzenetére

    Annyit tudok, amit leírtam. Leírnám hírbe, ha többet mondtak volna. Valószínűleg technikai demó lesz, de nem vagyok benne biztos. Március végén kiderül.

    (#6642) Klikodesh: Ezek a dizájnkülönbségek. Azért az utcán látszik, hogy a tükröződés eléggé CryEngine 3 stílusú.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Kezd körvonalazódni a következő Never Settle csomag. Az időzítés még nem pontos és a játékok sem véglegesek, de négy címről hallani: GRID 2, Company of Heroes 2 vagy Total War: Rome 2 (ez kérdéses a megjelenés szempontjából), illetve Lost Planet 3.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #6647 üzenetére

    Szerintem akkor lesz új csomag, ha az előzőnél a kódok elfogynak. Az AMD is limitált mennyiségű licencet vesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Crytek #6650 üzenetére

    A kuponos kereskedőkre rátérve halottam olyanról, aki a GeForce-hoz is Never Settle Reloaded kódot osztott egy ideig. :D Konkrét webáruház és hivatalos úton történt az egész. :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák