Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #432 üzenetére

    Én harmadjára fogok neki, és nullaszor futottam bele. És ez a beta6 driver. De amúgy a beta4 unofficial changelogban van benne, ha Lara TressFX hajának eltűnése javítva lett. Csak amikor megjelent ez a driver, akkor még nem volt játék, így ez a tényleges leírásból kimaradt, mert a felhasználó úgy sem fogja látni. Rengeteg javítás van a béta 7-ben BioShockhoz is, ami szintén nem jött még ki.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #429 üzenetére

    A rutinok mellett vannak profilok is. A 13.2-es driver nem tartalmaz CAP opciót, míg a korábbiak igen. Ha valami fennmaradt a korábbi drivereknél a CAP-ből, akkor az működni fog a 13.2 mellett is, holott pont nem kellene.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #424 üzenetére

    Akkor rakd fel újra, mert én 21 órát öltem már a játékba kopaszodás nélkül.

  • Abu85

    HÁZIGAZDA

    válasz #35434496 #422 üzenetére

    Az ám. :)

    Egyébként az alapvető probléma az volt, hogy a végleges kódot a cégek nagyon a megjelenés előtt kapták meg. Ami a régi driverekben volt profil az megkopaszította Lara-t, mert a végleges kódban megváltozott a TressFX. Még a patch is változtatott ezen.

  • Abu85

    HÁZIGAZDA

    válasz Loha #418 üzenetére

    Fel kell rakni a 13.2 beta6 drivert. A kopaszodás ezzel megszűnik. Ez a gond ugyanúgy driverben lesz javítva az NV-nél is.

    A fő különbségeket a Tomb Raiderben a High Precision, az SSAO, a shadows, a DoF és a TressFX adja az architektúrák között. Ezek használnak compute shadert, illetve az FXAA még, de az annyira nem terhel.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #389 üzenetére

    Az egyetlen szépséghiba, hogy GPU-s gyorsítás nélkül használja a PhysX-et. A CD Projekt máskor is dolgozott vele, például a Witcher első részénél. A next-gen konzolok miatt jelentősen fejlődött a PhysX SDK. A 3.2-es verzióban számos olyan megoldás, ami eddig nagyon lassú volt processzoron, most gyorsabb egy szimpla négymagos CPU-n mint GPU-val gyorsítva. Ezzel a PhysX reális alternatívája lett a Havoknak, mert nincs agyonkorlátozva a CPU-s része, hogy a GPU-s gyorsítás valóban gyorsítás legyen és ne lassítás.
    Az egyetlen dolog, ami gyorsítás valóban az a particle része a motornak. Ezt lehet természetesen használni, de szintén a next-gen konzolok miatt érdemes egy saját megoldást írni helyette. Például az Unreal Engine 4-ben ez nincs is benne, így a motor a PhysX helyett erre egy saját kódot használ. Ezért futott PS4-en az Elemental demó GPU-val gyorsított fizikával.
    Ami majd érdekes lesz az az új PhysX SDK. Mivel az NV-nek is lesz ARM-os APU-ja 2014-ben, így sokkal hatékonyabban tudják kihasználni a GPGPU-t, mint eddig, mert a PCI Express késleltetése nem korlátozza a feldolgozást. Azt el tudom képzelni, hogy a PhysX fel lesz használva egy mézesmadzagnak, hogy ne Intel és AMD APU-t vegyél, hanem az NV-től egy ARM-os megoldást. Nyilván a legacy kompatibilitás hiányát valamivel ellensúlyozni kell.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #379 üzenetére

    A user szempontjából csináljuk a teszteket. AAA DX11-es játékok. A technikai részleteket nem kell elolvasni, de leírom, ha szükséges.
    A Crysis 3 be lesz véve a tesztbe. A Titános tesztben még nem biztos, hogy benne lesz, mert ott rosszul jött ki a lépés, de egyértelműen számolunk ezzel a játékkal.
    Ha lesz jó DX11-es F2P játék, akkor berakjuk tesztbe, de amíg sokkal jobb AAA játékok jönnek, addig nem sok esélyük van.
    Persze, azokra várunk, hiszen az AAA címek viszik előre a piacot. Egy F2P cím sokkal kisebb érdeklődést kap.
    Az valóban fejfájást okoz, hogy az NV az AAA játékokat nagyon hanyagolja, de azért még annyira nem vészes a helyzet. Ott lesz az új Metro például.

    A távoli jövőbe nem látunk, de valószínű, hogy az NV nem érzi magát biztosítottnak a konzolportok szempontjából, ezért nyitnak a PC exkluzív játékok felé. Ez érthető, mindegyik konzolban AMD hardver van, és olyan egyedi szolgáltatásokkal, amelyeket a grafikus API-k nem követelnek meg, de kiterjesztés formájában elérhetők. Emellett ott van még az is, hogy az NV képtelen lesz támogatni az (x86-64)/AMD64-es porcik címterét, mivel az ARMv8 irányába léptek. Ha az adott játéknak nem lesz ARM portja, akkor az az NV-nek komoly hátrány, mert csak az AMD-nek lesz rá platformja. Ilyen viszonyok mellett én sem bíznék a konzolportokban, mert kockázatot rejtenek. Bár én úgy gondolom, hogy az ARM-os átállás gond nélkül lezajlik majd. Az NV-nek egyedül a legacy programkompatibilitás hiányával kell megküzdenie.

  • Abu85

    HÁZIGAZDA

    válasz Attix82 #374 üzenetére

    Ez bonyolultabb ennél. A fejlesztők elég sokat nézelődnek a különböző gyorsítóstruktúrák felé, aminek a nevében is benne van, hogy gyorsítják a feldolgozást minden hardveren. Például a forward+ azért fut egyáltalán a mai DX11-es hardvereken, mert használ egy per-tile listázást a fények kivágására. Enélkül jóval gyengébb sebességre lenne képes minden hardveren. Ezért építenek be gyorsítóstruktúrát, és itt jön az, hogy az adott hardver ebből mennyit profitál. Alapvetően mindegyik jelentőset, de a GCN felépítése kifejezetten úgy lett kialakítva, hogy ezeket a komplex megoldásokat sokkal hatékonyabban dolgozza fel, mint a korábbi architektúrák. Innen jön a sebességkülönbség egy része.

    Egyébként persze. Vannak problémák és arra vannak koncepciók, amik az adott problémát megoldják. Nem csak a forward+ lighting az egyetlen megoldás arra, hogy forward render mellett hatékonyan kezelj többezer pontfényforrást. Láttam már számos implementációt, de a forward+ lighting ezek közül a leggyorsabb. Sőt, tulajdonképpen az egyetlen, ami összességében gyorsabb az ismertebb deferred render implementációknál.

  • Abu85

    HÁZIGAZDA

    válasz Attix82 #359 üzenetére

    A Crysis 3 az DX11 és Gaming Evolved is. A sebesség ezzel nem függ össze. Főleg a fejlesztői döntéseken múlik, hogy mennyire komplex effekteket raknak egy játékba és hogyan. Főleg a gyorsítóstruktúrával implementált dolgok esetében lesz komoly különbség az architektúrák között.

  • Abu85

    HÁZIGAZDA

    válasz daneeeeee #355 üzenetére

    Persze. Elvileg mindegyik nagyobb címből kapunk egy példányt, szóval, ha technikai akadálya nincs, akkor berakjuk.

  • Abu85

    HÁZIGAZDA

    válasz belinho #352 üzenetére

    De azzal nem tudunk mit kezdeni, hogy az új DX11-es játékokban igen erős a GCN fölénye. Ez a hardver miatt van. Az NV máshogy tervezte a Keplert, mint az AMD.

    Tudunk az AC3-mal mérni, ha kerüljük Bostont. Én ezt megnéztem pár hete. Bostonban a nálam lévő kártyák megakadtak 25-30 fps-en. Egymás mögött sorakoztak konkrétan. A játék elején, amikor kezdődik elég szépen skálázódnak, csak az eredmény nem biztos, hogy reális, mert a GTX 670-et simán verte a HD 7850 fps-ben. Előbbi 45 fps-re volt képes, míg utóbbi 55-re. Ezt a mérést be tudjuk rakni, csak sem a játék egészére, sem pedig a VGA-kra nézve nem reális. Egyszerűen annyira rossz a motor optimalizálása, hogy iszonyatosan torzítja az erősorrendet, vagy jön a CPU-limit.
    DX9-es progikkal már nem foglalkozunk. Ezek DX11-es hardverek ott kellene teljesíteni. Elég sok jó DX11-es játék van.

  • Abu85

    HÁZIGAZDA

    válasz gbors #347 üzenetére

    De az FX-nek nem az volt a baja, hogy sokat akart, hanem, hogy rosszul akarta azt. Felkészítették a feldolgozókat a 32 bites feldolgozásra, de az adatutat 16 bit/operációra optimalizálták. Ha ez 32 bit/operáció lett volna, akkor tökéletesen helytállt volna a hardver. Persze ez nem kevés tranyót igényelt volna. Az FX túlteljesítette a DX precizitásra vonatkozó speckóját, ami nem baj, csak mi értelme ugye. Ezeket a GCN nem teljesíti túl, ugyanazt tudja, mint a Kepler, vagy mint a többi DX11-es hardver. Van amiben túlteljesíti persze, de azok konzol design wint hoztak. Ott a PRT. Egy jó darabig biztos nem lesz szabvány, mert nem olyan könnyű hatékonyan hardverbe implementálni, de DX kiterjesztése hamarosan lesz (OpenGL-re már van). Most mindenkinek, aki nem szoftveres megatextúrázást akar a játékban ezt támogatni kell, és ez tök kellemetlen dolog lesz a konkurenseknek. Le kell követni az AMD-t a nem szabványos technikákban, vagy számottevő hátrány lesz a PC-s portok alatt.
    A Doom 4 jó alap lehet erre, mert az a megatextúrázás hardveres implementációját PRT-n keresztül oldja meg. Ennek az egyik nagy hátulütője, hogy a szoftveres implementációt ehhez kell igazítani, és a szoftveres virtuális textúraméret esetében a 32k nem optimális. 64k lenne az, de azt nem támogatja a PRT, mert a hardvernek meg a 32k az optimális. A szoftveres megoldás húzta a rövidebbet, vagyis még rosszabb lesz az élmény, mint a Rage esetében.

  • Abu85

    HÁZIGAZDA

    válasz Abu85 #344 üzenetére

    Csak még annyi, hogy a veszélyes mit jelent. Az AMD erre egyre jobban rájátszik.
    A GDC-n az előadások lassan körvonalazódnak:
    "DirectX 11 Performance Reloaded" ... Olyan azonnal és könnyen beépíthető optimalizálások, amelyek begyorsítják a feldolgozást. Minden hardveren, de legfőképpen a GCN-en.
    "DirectCompute for Gaming : Supercharge your engine with Compute Shaders" ... A cím magáért beszél.
    "Tile-based forward and deferred rendering" ... A forward+ modernizált verziója és az a verzió, ami deferred render motorba is beilleszthető, és ezzel az átlátszóság problémája nagyon könnyen kezelhető.
    Összességében évek óta létező problémákra, gyorsan beépíthető és hatékony megoldások. És a baj, hogy ezektől a Kepler is gyorsul, vagyis miért ne építeni be a fejlesztő, adódik ugye a kérdés. Érvet nem tud ellene felhozni, mert az alapvető cél, hogy az optimalizálással minden hardveren jobban fusson, és ez jó a felhasználónak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #343 üzenetére

    Az Anno 2070-hez hozzátartozik, hogy számunkra valóban kényszerű döntés volt. Egy stratégiát mindenképp akarunk tesztre, mert ez a műfaj is létezik. Ellenben a Shogun 2 az NV-n 8 hónapig problémásan futott. Jött egy driver, majd jött egy patch, ami ismét lerontotta a sebességet. Na most nekünk ez rémálom volt végig, így váltottunk Anno 2070-re, mert az kiszámíthatóbb.
    Az NV a DiRT-ben igen komoly optimalizálásokat kapott. A különbség oka szimplán hardveres. Az AMD-től mondta Dave, hogy ők lepődtek meg az első Kepler teszteken a legjobban. Máig nem értik, hogy az NV miért nem a fejlesztők által kért irányt vette alapul. Nem volt előlük eltitkolva semmi. Én egyedül a Tegra miatt láttam koncepciót, de most, hogy az is maradt az öreg architektúránál érthetetlen a Kepler.
    Lehet, hogy az NV azt gondolta, hogy a fejlesztők nem érdekeltek az új effektekben, ha csak az egyik architektúra veszi fel a kért irányt? Ez nem hangzik logikusan, illetve veszélyes is.

  • Abu85

    HÁZIGAZDA

    válasz belinho #340 üzenetére

    És az mennyire a mi hibánk, hogy magas grafikai részletesség mellett az új DX11-es játékokban az AMD architektúrája jobban működik?
    A DiRT nem az AMD nyomására van bent. Egyszerűen azért, mert az első játék, ami forward+ lighting modellt használ. Ez az elmúlt évek legnagyobb előrelépése, mert a deferred render problémái nélkül lehet 2000-3000 pontfényforrást hatékonyan feldolgozni. A Sniper Elite V2 az SSAA miatt van bent a tesztekben.
    Az NV-től nem tudunk új játékot berakni. Az AC3 egy vicc, mert 20-30 fps-sel sorakoznak egymás mögött a kártyák. Egy kemény procimagot használ. Az elején tudunk mérni, de az meg sokkal jobban fut, mint városi pályán. A másik lehetőség a Passion Leads Army, de az csak keleten, Kínának elérhető.
    Az a baj, hogy az NV egy más irányt vett. Ők eldöntötték, hogy a F2P és az MMO játékok jelentik a PC jövőjét ... amiben egyébként lehet, hogy igazuk van. Az AAA játékok támogatását nagyon erősen visszafogták. Az AMD pont ellentétes irányban dolgozik. AAA játék előnyben, míg az F2P és MMO támogatás vissza van fogva. Az is lehet, hogy ebben benne van a next-gen konzol irányzat is. Az a legkevésbé sem jön jól az NV-nek, hogy az AMD ezekbe berakta a hardverét. Egy portolt játéknál az NV eleve hátrányból indul majd. Egy PC exkluzív játéknál ez nem lesz így.

  • Abu85

    HÁZIGAZDA

    válasz Bull1 #304 üzenetére

    Szerintem egy játék alapján ebből ne induljunk ki. Azon belül, hogy számos képkockára korlátozott AO algoritmus létezik, még ezek az algoritmusok is igen széles skálán paraméterezhetők függően attól, hogy minőség vagy teljesítmény kell.
    A játékokban nem azért szép a HDAO, mert maga az algoritmus működése a legszebb képet adja, hanem azért, mert ma ezt paraméterezik úgy, hogy a legszebb képet adja. A kettő nem ugyanaz. Ez teljes egészében fejlesztői döntés. A HDAO-val azért bánnak bőkezűen, mert compute shaderben van írva, így a gather4 és az LDS támogatás miatt jóval gyorsabban dolgozik egységnyi mintával, mint a többi megoldás. Ezért jóval több mintát is rá lehet ereszteni. Ez adja a képminőségelőnyt. De a HBAO ugyanannyi mintával és teljes felbontáson jobb minőségre lenne képes, csak a teljesítményt sokkal jobban megenné mint a HDAO.
    A jövőt tekintve olyan megoldásokat tartok reálisnak, mint amit a Hitman használ. A Nixxes átírta compute shaderre a HBAO-t keverve a HDAO-val, és ezzel most ennek a játéknak a legjobb az SSAO megvalósítása.

  • Abu85

    HÁZIGAZDA

    válasz krx21 #297 üzenetére

    A HDAO teljesítményével sincs minden rendben GeForce-on. Nem csak a képhiba van.
    A HBAO-t azt nem preferáljuk, mert rengeteg hamis árnyékot csinál. Olyan helyeken keletkeznek, ahol nem lehet megmagyarázni, hogy mégis mitől született meg. Valamiért ez az effeft nagyon gyengén van paraméterezve a Far Cry 3-ban, valószínű, hogy a kevés mintavétel az oka. Még az SSAO is számottevően jobb, de a minőségben messze a HDAO viszi a pálmát.
    A HBAO akkor jó, ha úgy paraméterezik, mint a Hitman: Absolution alatt. Persze ilyenkor a teljesítmény durván esik tőle. Valszeg ezzel az Ubi úgy volt, hogy raknak három különböző teljesítményű és minőségű SSAO-t a játékba és válaszd ki, amelyik jobb. Az FC3-ban a HBAO képviseli a low szintet, az SSAO a medium és a HDAO a high. A teljesítményigény is így nő.

  • Abu85

    HÁZIGAZDA

    válasz Attix82 #295 üzenetére

    Minden gyártó ezt csinálja. Nyilván nem tetszik egy cégnek, hogy ha adott a PH-nak egy programlicencet (teszem azt most az AMD a Far Cry 3-at), akkor azt miért nem tesszük bele a tesztekbe. Ennek hangot adnak, és megkérdezik, hogy mi lesz ezzel. Csak én nem vagyok hülye, pontosan tudom, hogy az AMD a saját pecsenyéjét sütögeti, és nekik kifejezetten jó lenne, ha ránéznénk erre a játékra. Rá is néztem, és HDAO-val durva képhibát csinál a GeForce. Szerinted nekem ebből nem esik le, hogy miért akarják ezt bent tudni a tesztben? :) Én megmondtam nekik, hogy ezt így nem rakjuk bele, a procitesztekhez felhasználjuk, de ha nem javítja ki az Ubi a hibát, akkor a VGA teszteknél ennyi volt.

    Semmi infót nem ad az AMD. Minden céggel kapcsolatban állunk még az NV-vel is. Utóbbi vállalat is ad nekünk játékokat tesztre. Mindig amikor jön valami nagy cím, akkor kapjuk hozzá a kulcsot. Ezért alapvetően nem várnak el semmit, de gondolhatod, hogy nem azért adják a kulcsot, hogy mi otthon szórakozunk, hanem azért, hogy a programot viszontlássák a tesztben. Na most én speciel nem szeretem azt, amikor problémák vannak egy játékkal. Nem azt mondom, hogy nem fordulhat elő, de rontja a teszt konklúzióját, mert egy probléma miatt lett olyan az eredmény, és nem a hardver miatt. Egyáltalán nem akarunk még egy Shogun 2-t, amikor a GeForce hónapokig nem találta a teljesítményt, ezzel totálisan megnehezítve számunkra a mérést. Inkább nem is rakjuk be a potenciálisan problémás játékokat.

    Tukmálni meg nem kell minket. A hardverek képességei magukért beszélnek.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #291 üzenetére

    Nincs lényegi különbség. A BF3-ban most szerintem egy speckó probléma van, mert a régi driverekkel nem jön elő. Ahol a GeForce frame ideje tényleg számottevően gyengébb az a DiRT Showdown és a Sleeping Dogs. De inkább az előbbiben van kiugró eltérés, utóbbiban is bőven vállalható a különbség.
    A Far Cry 3 szerintem egyelőre lényegtelen, mert az 1.04-es patch óta HDAO igen fura képhibákat csinál GeForce-on és a teljesítménye sincs rendben. Ezért nem tudunk vele tesztelni, mert csak Radeonon jelenik meg jól a kép. De az NV tud róla, bár nem tehetnek semmit, mert az Ubi a bűnös most. Az AMD persze rágja a fülem, hogy teszteljünk vele, mert látják, hogy a GeForce-ra nézve kellemetlen lenne az eredmény, ráadásul képhibáról is be kellene számolni, csak nem tudom, hogy mennyire sportszerű az NV nyakába varrni az Ubi hibáját. Részünkről ebből a partiból inkább kimaradunk.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #288 üzenetére

    A BF3-ban valami baj van a 310-es driverszériával. Én sem értettem, hogy miért röcög a teszten, de mivel a 306-ossal nem röcög, így gondoltam a driver a gond.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #282 üzenetére

    Ez már haladás, de kíváncsi lennék tabletes eredményre, mert a telefonokat rakják szembe ezzel, amikor Tegra 4-re inkább tablet épül. Legalábbis egyelőre három cég jelezte, hogy dolgoznak egy-egy tableten. Azt nem tudom, hogy még mennyi lesz, de a többiek inkább Qualcommra váltanak. Egy Snapdragon 800-as sorozatú termék kellene, mert ez fog versenyezni a Tegra 4 ellen. Ebből a szempontból a HTC One ér valamit a tesztből. Abban egy középszintű 600-as Snapdragon van, vagyis nem a csúcsmodell, de látszik, hogy az már így is izmos, a csúcsmodell még izmosabb.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #275 üzenetére

    A Maxwellnél lesz javulás, mert arról már van olyan adat, hogy az NV olyanra tervezi, mint a GCN-t. Persze lesznek eltérések, de a koncepció megegyezik majd. A fő különbség az lesz, hogy a Maxwellt majd ARMv8 processzor mellé érdemes társítani, mert az x86/AMD64-es procikkal nem lesz kompatibilis az egységes címzést biztosító képessége. Ez várható volt, hiszen az NV-nek nincs megfelelő licence erre, de funkcionálisan a saját megoldásuk is ugyanúgy működik, mint a GCN-é, vagy az ARM-os versenytársak közül a Mali-T600-é.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #273 üzenetére

    Feleslegesen húzol azzal, hogy teljesen általános dolgokról úgy nyilatkozol, mintha az AMD exkluzív fejlesztései lennének. A compute shader szabvány, és jelenleg azért tudsz játszani olyan effektekkel a játékokban, amilyenekkel, mert a compute shader létezik! Enélkül rosszabb minőségű grafikát kapnál, mert sokkal drágább lenne megoldani egy effekt számítását minden, hangsúlyozom minden hardveren!
    Ha azt hiszed, hogy a compute shader neked rossz, akkor nagyon nagyot tévedsz. A Kepler valóban az eddigi legrosszabb architektúra a compute hatékonyság szempontjából, de még a képességei ellenére is gyorsabb rajta egy compute shader effekt, mintha ugyanazt pixel shaderben írnák meg. Alapvetően ez a rendszer dolga.

  • Abu85

    HÁZIGAZDA

    válasz Locutus #270 üzenetére

    Ugye te elolvasod azt, amit belinkelsz? Egyébként igaz. A Tegra 4 megveri a Tegra 3-at. Sosem állítottuk ennek az ellenkezőjét. Na de hol vannak az igazi konkurensek, mint mondjuk a Qualcomm Snapdragon S4 Pro? Ja, hogy azt nem tudja verni, így nem is mutatják. Nincs több kérdésem.

    Az AMD nem közvetlen ellenfele a Tegrának, de nyilván, ha összehasonlítanánk egy Temash APU-t egy Tegra 4-gyel, akkor előbbi mérföldekkel nyerne. Csak azt gondold el, hogy a Tegra 4 IGP-jének architektúrája 2004-es (NV40) alapokra épül, míg a Temash 2012-esre (GCN). Nyolc év tudásbeli és hatékonyságbeli különbség ebben az iparban nagyon sok.

  • Abu85

    HÁZIGAZDA

    válasz gbors #121 üzenetére

    Pont az a baj, hogy így nem tudjuk mérni. Én próbáltam, mert van egy gyűjtő spanom a nem túl messzi faluban. Nem tudom, hogy a 30-50% plusz minek tudható be, mert nyilván az, hogy a HD 3850 gather4-ezik míg a 9600GT nem az sokat számít.

  • Abu85

    HÁZIGAZDA

    válasz gbors #119 üzenetére

    Meg, de a HD 3850 minden DX11-es játékba +25-40%-ot kap a DX10.1 leskálázás miatt. A DX10-re skálázás előnytelen a compute shader és a gather4 szempontjából. Mivel a leskálázásnál nem lehet kérni egy hardverre a DX10-et, így nem lehet kiütni a modernebb API előnyét.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #117 üzenetére

    Én mostantól már nem mondhatok semmit. Asse tom miaza titán. :D

  • Abu85

    HÁZIGAZDA

    válasz TTomax #113 üzenetére

    Van egy pár százmillió nem használt tranyó a GCN-ben a grafikus API-k szempontjából. Nyilván a natív C++ támogatás, az AMD64-es címzés, különböző DX/OpenGL-ben be nem vezetett technológiák támogatása nem olcsó dolog. Persze a másik oldalról vizsgálva ez konzoldizájnokat hozott az AMD-nek.
    A GCN koncepciója meg eleve eléggé másolja a Larrabee-t, amit az Inteltől VGA-ként még nem láttunk, de kétségtelen, hogy marha jó ötletek vannak benne. Persze a Larrabee időzített bomba is, de biztos vagyok benne, hogy az vezetőség erőlteti az x86-ot, és nem a mérnökök.
    Majd a Maxwellre leszek kíváncsi, hogy az NV milyen Larrabee/GCN klónt csinál. Az ARM Midgardot látva a mély integráció koncepciója egészen egyszerű alapokra is helyezhető.

Új hozzászólás Aktív témák