Új hozzászólás Aktív témák
-
Petike1007
tag
Nem hivatalos, de ha igaz, akkor itt a válasz a kérdésre...
Maxwell ide-oda...AMD 16% plusz teljesítmény minimálisan több (12W) fogyasztással...
-
stratova
veterán
válasz
stratova #278 üzenetére
Plan B.: Tonga feldolgozók számát és a memóriabuszt illetően nem változott Tahitihez képest (bár Hawaii-t azzal is reklámozta AMD, hogy a korábbi 384 bites busz helyigényére 512 biteset tudtak készíteni) és a +~700 millió tranzisztor a pre-emptiv etetéssel magyarázható, ahogy Carrizo esetében.
-
stratova
veterán
Kezdek afelé hajlani, hogy lehet némi ráció abban hogy Tonga alacsonyabb feszültségre is képes. Vagy komolyan válogatják Firepro W7100-hoz.
FirePro W7100 ugyanis <150 W TDP besorolást kapott 3.3 TFLOPS/206 peak GFLOPS (SP/DP) mellett, azaz a kártyának ~ 920MHz-es GPU órajellel kell beleférnie a keretbe. Bár professzionális megoldásként a kártya árát tekintve a válogatás mint megoldás is simán elképzelhető.
Hardware.fr szerint a legújabb un. boost technikák inkább TDP és hőmérséklethez igazított "fékek", azaz alapvetően turbó órajelen engedik szaladni a VGA-t s akkor avatkoznak be ha szükséges.Sapphire honlapján egyébként a 8 GB-os verziónál hol 256 hol 512 bites memóriabusz szerepel
. Amiből akár arra is gondolhatna az ember (noha ehhez elegendő nagyobb kapacitású lapkát venni a memóriagyártóktól), hogy Tonga valójában nem csak a front-endet örökölte meg Hawaii-tól (2->4 Geometry proc.)...
... de komolyabb tiltásokkal tán back-endet is (ha már 5 mrd tarnzisztor van benne [vs. 28-32 CU], míg Hawaii-ban 6.2 mrd [vs. 64 CU]).Ebben az esetben paramétereit tekintve kb. 2 csonkítás nélküli Tonga XT házasságán (pl. a CU-k számából kiindulva) is alapulhatna az új giga-lapka.
4096 SP 256 TMU 128 ROP felállással.Az itteni fogalmakra keresve
Futottam ebbe a tanulmányba (még ha nincs is esetleg köztük szoros összefüggés)Prior research has shown that the most significant performance benefit of stacked DRAM is increased bandwidth [16]. This motivates the incorporation of data-parallel accelerators in the in-memory processors to effiectively utilize the available bandwidth. In this study, we focus on GPGPU execution units as the in-memory data-parallel accelerators. The programmability of modern GPUs also enables GPU-accelerated in-memory processors to be utilized over a wide range of applications. Further, the energy efficiency of GPU architectures (in terms of operations/W) also helps reduce thermal concerns for a given level of performance.
stb -
Abu85
HÁZIGAZDA
válasz
#06658560 #276 üzenetére
Szerintem a Johan Andersson, Michael Bailey, Dan Baker, Joshua Barczak, John Kloetzli, Kevin Floyer-Lea, ésatöbbi kaliberű mai top PC-s engine fejlesztők vannak olyan képzettek, hogy önállóan eldöntsék számukra mi a reálisan járható út a PC-piacon. Már csak azért is érdemes a döntést rájuk bízni, mert ők már kigondolták, hogy mi lesz egy-két év múlva, mi viszont nem látunk a fejükbe.
-
Nekem az a gyanúm, hogy a dx12 nem lesz annyira hw közeli, mint a Mantle.
Nyilván közelebb lesz a Mantle-hez, mint a dx11-hez, de az MS szerintem tuti gondoskodni fog valamennyire a teljesítmény átmenthetőségéről a különböző architektúrák között.
Ettől függetlenül biztos lesznek majd architektúránként változó ajánlott eljárások, de szerintem lesz a hw gyártóknak egy minimális réteg, ami ad nekik némi mozgásteret az utólagos reszelésekhez, ha valami nagyon gázul fut.
Ez persze, csak találgatás. -
sb
veterán
válasz
#06658560 #265 üzenetére
Szerintem te nem érted pedig elég egyértelműen írtam le:
Ha low level irányba megyünk akkor nem lehet millió (meg valósan 10-20) féle architektúra és hw. Ki kell, hogy kopjanak. Pont. (az már más kérdés, hogy ez a gyakorlatban kivitelezhető-e, de szerintem minden az - a PC hw és gaming mindig is mesterségesen vezetett fogyasztási szokásokról szólt: megvetetik veled amit akarnak)
Akkor a GCN-en fog minden jól futni és máson szarul. Ill. az AMD is beleragad egy GCN verzióba, még ők sem fognak előrelépni. Csapdába kerülnek, amiről a cikk szólt.Vagy marad a millió féle architektúra és a low level hozzáállás nem fog működni: túl sok fejlesztői erőforrással fog járni, drága lesz. Vagy nem lesz és szarul fut minden.
A két megoldási mód nem ötvözhető. Nincs ingyenebéd.
Első esetben csapda lesz és (hw, architekturális) fejlődés áll le. De helyette lesz sw-s előrelépés. Nem is kicsi.
Második esetben meg maradnak a ma is korlátozó sw-s limitek, de cserébe fejlődhet a hw architektúra. Csak ez már ma se nagyon fejlődik sehova nagy iramban, pedig most még nincs csapda helyzet.Ennyi volt a lényeg amit le akartam írni.
-
Így van, a low level apik közelebb vannak a konzolos kódhoz, mint az eddigi dx11. Jobban bírják azt, ami ott elfogadott (sok tízezer rajzolási parancs, közvetlenebb címzések, stb), emiatt várhatóan könnyebb lesz majd portolni, mint olyanná faragni a kódot, hogy az jó legyen a dx11-nek (pl tizedelni a rajzolási parancsok számát). Ez persze nem fog varázsütésre megoldani mindent, nem lesz az hogy copy-paste módon futni fog a konzolos kód, de a bizonytalan szürke területeket remélhetően felváltják a nyíltan látott problémás területek, amik ellen így a fejlesztők jobban tudnak elvileg tenni. Persze feltéve ha nem akarnak minden évben kiadni 2 új Assasin's Creed részt (mert az dx11-el is szívás lesz), tehát ha hajlandóak némi időt áldozni a fejlesztésre, meg a jelenlegi tempó senkinek sem jó (még mondom, low level apikat nem is nézve).
Illetve pl a Mantle tényleg hozzáértést igényel, így nem való mindenkinek. A dx12 valamivel kötöttebb lesz, így tágabb kör használhatja majd jóra, de a dx11 sem lesz még elfelejtve.
A leképezőt kell módosítani, azaz írni kell egy dx12 kompatibilis leképezőt. A mantle-hez már kell egy, ha van akkor az opengl-hez is kell, tehát adott esetben egy-egy játékmotor 2-3 leképezőt is tartalmazhat majd. Persze ideális, ha a motor egyéb részeit is így készítik fel (pl a mantle-hez és gyanítom a többi low level apihoz is a job-szerű felépítés a jobb, tehát pl hogy mind a 10 ezer hajó egy-egy önálló entitás, saját maga rajzolja ki magát, dönti el merre kell menni, stb, és ez nem gond, mivel a rajzolási parancsok nagy száma miatt lehetőség van rá. DX11 során meg kellett gondolni mikor rajzoljunk, miből és mit. A lehető legkevesebbet kellett, mert pár ezer felett a dx11 látványosan elkezdett haldokolni, míg konzolon a soktízezer sem volt ritka. )
-
mekker
őstag
Köszönöm a válaszokat. Tehát új API szükséges ahhoz, hogy a konzolos, és a modernebb motorral futó játékokat megfelelő erőforrás-kezelés mellett lehessen PC-n megjelentetni. Fejlesztési költséget tekintve tehát talán a konzolportoknál van előnye, mivel kevesebb trükközés, átkonfigurálás szükséges a megfelelő minőségű portoláshoz.
Én úgy gondolom, hogy először csak a nagyobb gyártók fognak átállni, akik saját engine-nal és nagyobb emberi erőforrásokkal rendelkeznek, míg a kisebb fejlesztők, sok MMO gyáros, stb. csak a későbbiekben fogják kihasználni ezt a lehetőséget.
Ennyi nagyjából lejött nekem eddig is, de inkább valahogy így értettem a kérdést:
Ha van egy adott környezet (modellek, textúrák, fények, effektek,..) és adott Dx11 API-val megírt kód, akkor azon miket kell majd módosítani/hozzáadni ahhoz, hogy Dx12 API-t használva optimalizáltabban fusson a vasakon? -
válasz
#06658560 #267 üzenetére
Garantálni emellett semmi nem garantálja (mint ahogy te sem tudod garantálni, hogy igazad lesz). Puszta logika, hogy ha tényleg sok fejlesztő mondja hogy mennyit szenved azzal, hogy a dx11-re formálja a motort, és még így is tele van szürke területekkel, ahol pontosan nem tudni hogy mi történik, akkor ha folytatódik a jelenlegi tendencia (miszerint a legtöbb nagy kiadónak vannak kis technikai csapatai), akkor bizony azok ha saját kézbe kapják a gyeplőt, legalább annyi idő alatt amit eddig hackelésre szántak, be tudják fejezni a dolgukat.
Itt nem több vagy kevesebb munkáról van szó. Itt arról van szó, hogy az a munka, ami eddig arra ment el, hogy kitalálják hogy lenne jó a dx11-nek, hogy kellene faragni a leképezést, most arra megy majd el, hogy a meglévő architektúrákból hogy lehet a legtöbbet kihozni. És ugyanúgy nem lesz mindenkinek való, viszont azt az igazán hozzáértő maroknyi embert már nem fogja a rendszer annyira korlátozni. A többiek meg beletanulhatnak.
-
válasz
#06658560 #267 üzenetére
Akkor felsorolnád azt a kismillió architektúrát, amire fejleszteniük kell egy mai AAA kat. játékot?
Segítek, GCN SI, és ezzel le van tudva mindkét konzol és a HD7xxx (sőt a fél 2xx-es) kategória. Ha hozzávesszük a nem drámaian különböző GCN VI-t is, akkor gyakorlatilag a két konzol mellett majd az összes radeon le van képezve az elmúlt évekből. A Fermi-Kepler-Maxwell architektúra sem hiszem hogy drámaian más lenne egymástól, ezzel le van fedve a teljes geforce platform is.Szóval ha a csapat csak GCN SI-hez és fermire vagy kepler-hez ért (érted, két architektúra), a piac jelentős részét le tudja fogni, mégha nem is lesz a legoptimálisabb a kód mondjuk egy maxwellen, bár annak az extra sebessége legalább kiegyenlíti, ha nem hoz még így is előnyt.
-
#06658560
törölt tag
válasz
Menthirist #266 üzenetére
Mint kiderült, kismilliónyi architektúra van, amit ismerni kell. Jelenleg eme ismeret nagy részét a hardverfejlesztő birtokolja és fejleszti a drivert. Ha ezt is a játékfejlesztő kell megírja, akkor fugyelembe véve a jelenlegi minőséget, mégis mi garantálja, amit mondasz? Pláne, hogy ki akar és fog többet dolgozni?
-
válasz
#06658560 #265 üzenetére
Nincs millió féle architektúra gpu-k esetén. Emellett így is ismernie kell az adott architektúrákat a fejlesztőnek, mivel tudnia kell a lehető leggyorsabb kódot írnia rá, hogy a dx-es soklépcsős újra és újraellenőrzés után is kellő mennyiségben maradjon a sebességből.
Tehát:
-Nem feltétlen kell lényegesen több tudás hozzá, mint amivel így is rendelkeznek, elvégre így is tisztában kell lenniük a főbb architektúrákkal a hatékony kód írásához
-Nagy studiónként pár olyan ember kell csak, aki ennyire mélyen benne van a dolgokban, a studió maradék része úgyis csak azt használja amit ez a technikai csapat megszül
-Nem kötelező low level api-kat használni mindenkinek. Viszont sokan kérték hogy legyen, tehát sokan AKARJÁK hogy legyen és abban fejlesszenek (és nem, ezt nem Abu elmondására alapozom csak). Simán csak kontrollt akarnak.Szerintem itt olyasmi lesz, hogy a nagy kiadók technikai csapatai (Frostbite team, Sony ICE, stb) kialakítják a motor teljesítménycentrikus részeit, illetve best practice-eket fektetnek le, a kiadó többi része meg fejleszti ezeken a technikai alapokon a játékokat. Jobban kézben tudják tartani a dolgokat, mégha így a felelősség is nagyobb. Viszont az van, amit a fejlesztő mond, nem pedig az, amit a fejlesztő szeretne, de a sok réteg api jelentősen késlelteti olyan kódok újraellenőrzésével és átfordításával, ami a konzolok miatt úgyis low level szinten is meg van oldva.
De ez az én elképzelésem
-
#06658560
törölt tag
Igen, tudom. Viszont vagy nem tudod, vagy nem akarod érteni. Low level esetben a programot fejlesztő fejlessze a programot, a drivert, millió architektúrára, úgy hogy messze nem ismeri a hardvert annyira, mint amennyire annak gyártója. Majd ha jön változás, azt is kövesse le. És legyen jó a kód már kiadáskor, milliónyi szegmentálás mellett is. Hibakeresés esetén bogarássza végig... Igen, reális a nagy stúdiók esetén is.
-
a virtuálist nem úgy értettem, hogy virtualizált, hanem úgy, hogy nem fizikai
OK, tehát lesz UAV (valószínűleg - sneaky little buggers, those MS people) - és ezek szerint a GM204 tud 64-et, ha akar. kérdés, hogy hány olyan eset lesz (és milyen időtávban), amikor a Tier 2 támogatás annyira szűkös lesz, hogy a Tier 3-capable kártyák jelentős előnyben lesznek. 2017-ben úgyis aktuális lesz egy új VGA (nem a mostani utódja, hanem a mostani utódjának az utódja
).
-
Abu85
HÁZIGAZDA
Lehetséges virtuális erőforrásként UAV funkciókat létrehozni, de ez lassú. Az UAV használatot az NV slotokban tárolja. A grafikus parancsprocesszorban van 8 darab slot (Maxwell 2-ben 64).
A bekötési modell a DX12-nél ismert: [link]
A fejlesztők is szenvedni fognak a DX12-vel, mert vagy a Mantel, vagy a libGNM API lesz, amiről portolnak. Na most mindkét API nem csak limit nélküli, vagyis TIER3 szintű hardverelérést tesz lehetővé, hanem egyszerűsített memory view kezelésük van. Mindent Image-ben tárolnak, és ott is akármilyen formátum írható és olvasható. Ez kellemetlen lesz, mivel a DX12 nem lesz ennyire egyszerűsített API. Maradnak a DX11-es memory view-ek a saját egyéni limitációikkal. Ez okoz majd fejtörést. -
Abu85
HÁZIGAZDA
Az a gond, hogy az új generációs konzol olyan játékokat fog termelni, amelyek frame-enként 30000-60000-et is rajzolnak. Azokat nem lehet áthozni PC-be, ha nincs low-level hozzáférés.
Hogy megváltanák a játékipart? Én nem gondolnám, hogy bármi hatása lenne ezeknek a játékipar egészére. Itt az a kérdés, hogy xy franchiseból a PC a konzolról leportolt játékot kapja-e meg, vagy az Androidról felportolt opciót futtathatja csak. A PC-gaming akkor is élni fog, ha ez az irány nem jön be, csak ultramobil játékokat kapnánk grafikailag feljavítva. -
válasz
#32839680 #257 üzenetére
az UAV legjobb tudomásom szerint virtuális erőforrás, nem tudom, mi a pontos HW háttere, hogy az nVidia 8-at enged használni, és azt sem, hogy van-e akadálya, hogy a DX12-ben többet publikáljanak (ha egyáltalán lesz benne ilyesmi). nagyon messze van még a DX12, szerintem még mindenki tapogatózik, hogy mit engedhet meg magának és mit nem - nem nagyon érdemes spekulálni, hogy mi mennyi lesz alatta. egyedül azt a gondolatot látom védhetőnek, hogy eleinte az AMD kártyák előnyben lesznek - pusztán azért, mert aki már írt Mantle renderert, az számos olyan AMD-specifikus sz**ással okosodott, amibe nV oldalon akkor kell majd belefutni.
(#259) Menthirist: a Keplerben és a Maxwellben külön vannak a DP unitok, úgyhogy a GM204 esetében valódi megtakarítás, hogy olyan kevés van belőlük. a fogyasztás-különbség 60-70W, a Furmarkot eredményeket nem érdemes nézni, mert csak a throttling hatékonyságát mutatják.
a Flops-sebességek pedig az elméleti maximumok - bár a GCN rengeteget javított a kihasználhatóságon a VLIW-hez képest, az nVidiának szerintem még mindig van valamennyi előnye ezen a téren. -
gyanítom egyébként a dupla pontosságra képes elemek számolnak szimpla pontosságra is, tehát nem csak fölös fogyasztóként csüng a gpu-n.
Illetve ha a gtx980-at nézzük a 290x-hez képest, azért a 25 watt különbségért (de még a 970-hez képest is csak 35 watt) cserébe 20%-kal kisebb a single precision sebesség (5.6 vs 4.6 TFLOPS), és 85%-kal (704 vs 114 GFLOPS) a dupla pontosság...Személy szerint azért a 25 wattért számomra inkább hagyják benne.
-
Sok időt visz el, hogy megírják low level szinten konzolokra, aztán küzdjenek egy sort a directx11-es optimalizációval (vagy hagyják a fenébe, mondván hogy építs jobb pc-t). Dx12 és mantle esetén a feladat már nem lesz annyira különböző a konzolokétól, az alapvető low level felépítés hasonlít, és megkönnyítheti az optimalizációt is (elvégre nem úgy kell megírniuk a motort hogy az jó legyen az api-nak, hanem úgy írhatják meg, ahogy ők akarják. Összességében kevesebbet kell szívniuk hogy beférjenek a limitekbe, és kevesebb a black box része a fejlesztésnek (amikor odaadsz egy adag utasítást a dx-nek, aztán majd valamikor meghívódik, de erre nincs befolyásod. Ő 3-4 szinten is újra és újra ellenőrzi hogy jó-e a kódod, ami nagy overhead-et jelent. Szóval kiadod a parancsot, aztán valamikor lefut. Így optimalizáljon az ember.
-
mekker
őstag
Nekem még mindig nem világos. Mi "garantálja", hogy ezek a low-level API-k majd megváltják a játékipart?
Extra munka, több hibalehetőség, ezek miatt pluszköltség a stúdióknak. És akkor most higgyem el, hogy mondjuk 5-ből 4 stúdió öt éven belül átfog állni az új DX-re?
Mivel bővül a munkamenet, és mivel könnyebbül meg most a dolguk? Erről lenne érdemes czikket írni és nem elsődlegesen a sw-oldali működésről. Persze azok is érdekes témák - és sokaknak sikerül ezekből a cikkekből egy felületesebb tudást összeszedniük (ergo egy hasznos dolog ez is) -, de én úgy gondolom, hogy ide inkább játékos és hardveres érdeklődésű emberek látogatnak. Tehát sokan arról szeretnének tudást szerezni, hogy a gyakorlatban hogyan is befolyásolja majd a Mantle és az új DX a játékipart.A hogyanról már annyit olvastam, de a miértről még mindig csak ködös elképzelések léteznek a fejemben.
-
sb
veterán
válasz
#06658560 #250 üzenetére
Abu összeszámolta valamelyik hsz-ben.
De lényegtelen, mert nyilván mindkét választás esetében a megfelelő architekturális hátteret kell választani.
Low level programozáshoz, ill. ha a architektúránkénti optimalizációt (vagyis jobban mondva egy architektúrára való optimalizációt) választják akkor nyilván nem célszerű 100 féle.Vagy megfordíthatjuk: Most sokféle van - magasszintű API-kal, hogy ne kelljen 100 felé fejleszteni.
De elértünk vele bármit? A hajunkra kenhetjük. Nincs mellette fejlődés. -
CybonTom
tag
Érdekes cikk, de szerintem az AMD nincs csapdában egyenlőre, hisz az átlag programok (játékok) elég messze állnak attól (részben a dx specifikációk miatt), hogy képesek legyenek kihasználni teljesen a termékeikben rejlő lehetőséget... egyedül a fogyasztás terén van lemaradása megint, de előbb utóbb tuti változtatnak ezen is...
Viszont ami felötlött bennem, hogy nem lehet, hogy ha ténylegesen beindul a dx12 és ezzel az alacsony szintű hozzáférés a hw-hez, akkor megfordul az a tendencia, hogy boldog-boldogtalan saját játék motort ír és helyette megint divat lesz az 1-1 tényleg jól megírt, dx12 képes motor licenszelése a játékok alá (persze a nagyobb stúdiók így is lehet, hogy maradnak a saját fejlesztésnél)?
-
sb
veterán
Ez most hogy jött ide? Tudtommal a GTA4-nél nem volt még GCN konzol, ami miatt össze lett volna drótozva a konzol és PC fejlesztés.
Semmi köze ahhoz amit leírtam.Szerintem a képlet baromi egyszerű. Jóval egyszerűbb mint ahogy ABU-ék leírják:
1. út:
a, Magas szintű API-k, magas overhead, alacsony kihasználtság, durva hw igény.
b, Kisebb fejlesztői erőforrásigény.
c, Szabad kéz az architektúra fejlesztésben és előrelépésben.2. út:
a, Alacsony szintű API-k, direkt programozás overhead minimalizálással, jó kihasználtság
b, Emiatt kötött architektúra.
c, És több fejlesztői munka architektúránként.Ki-ki eldöntheti melyik út mennyire volt nyerő az utóbbi időben:
- Előnye-e az architektúra-fejlesztés szabadsága amikor eddig is adott volt mégis nehezen lépkedünk előre. Ill. ma olyan korlátok előtt állunk amit nem tudunk átlépni vele. Egy sok draw call-os teszt pont ugyanolyan szar egy belépő konfigon mint egy csúcskonfigon. Jórészt sw-s problémákból adódóan. De a nyers erővel javítható cpu limit is sokkal könnyebben átugorható egy Mantle-val, mint cpu magszám duplázással.
- Volt-e a magas szintű API-k miatt kedvező portolhatóság konzol és PC között? Nem.
- Most ki lesznek-e használva az alacsony szintű API-k? Konzolon kötelező kvázi mert a régi paradigmák alapján a konzol tetű lassú. Ha adott konzolon+PC-n a lehetőség és konzolon a kényszer (és PC-n is, mert a fentiek alapján az sw-s nehézségeket hw-ből megkerülni alig lehet) akkor nem látok más utat józan ésszel.De ha mégis akkor itt jön be az amit írtam: Ha nem fonódik össze az új fejlesztési iránnyal együtt szorosan a PC+konzol akkor meg nincs megkötve az AMD keze.
-
pakriksz
őstag
Nem ferdítek, nem szokásom. Mint írtam teljesen mindegy mire van használva, butított attól még butított marad, akármennyire fáj
Miért irigykednék egy videokártyára? Ha jó lenne, megvenném, de én a legtöbbet tudó gpu-t veszem mindig.A sárga irigység téged öntött el, akkor amikor bejelentették hogy az új konzolok nem a kedvenced alkatrészeiből épülnek fel, ezért nyomod ezt a 30 fps-es marhaságot az ubi hulladékaiból kiindulva, ami egyébként pc-n se megy jobban. Később mi lesz a 1080p 30fps-ből? Hát lesz belőle 1080p 60fps(sőt már most is van az értelmesebb fejlesztők játékainál) ahogy kidobják a hulladék prevgen motorokat és megtanulnak optimalizálni. Úgy lesz egyre jobb a grafika, ahogy az előző generációnál és az azelőttinél történt
Egyébként megsúgom, konzolon nincs high grafika, nem lehet állítani. Te szerintem összekeverted a konzolt a steam machine-el.
"Megint GOTY esélyes nagycímeket kell majd tönkretenni a konzolok miatt" megint miért hány lett tönkretéve azok miatt? Miért kéne tönkretenni azok miatt? Én egy tönkretételt láttam mostanában, az arma III-at lebutította arcade fizikára a physx-el a kedvenc céged, na az tényleg tönkretette...
-
Abu85
HÁZIGAZDA
Ez nem ilyen egyszerű. Az ISA nem csak az utasításokat írja le, hanem azok formátumát/típusait, működési módokat, címzést, ésatöbbi. A memória modell ennek alapvetően a része, és ez nem csak az eszközsziktű strukturális felépítésről szól, hanem az alapvető működésről. Ez azért változik szinte mindegyik architektúra verzióban, mert ettől skálázódnak az architektúrák egy bizonyos szintig. A skálázódás hatékonyságának növeléséről van szó. A GPU-knál még ott a szinkronizációs modell is, mint extra, ami szintén minden iterációban megváltozik, mert ez szintén fontos eleme a skálázódásnak. Ha ezeken nem módosítanának a mérnökök, akkor úgy járnának ezek a hardverek, mint a Larrabee.
-
hogy amíg ők nem hajlandóak 11.0-ánál többet belrakni a VGA-ikba
ez idén szeptemberig volt így, a GM204-nek nem ugyanaz a DX-támogatása, mint a GM107-nek.
az pedig szubjektív, hogy ha mondjuk a Kepler 2012-ben DX11.1 támogatással jött volna, akkor mennyivel több úgymond modernebb alapokra épülő játék lenne. személyes tippem szerint 1 és 3 között - szóval a gyakorlatban ugyanitt tartanánk.
-
nyakdam
aktív tag
Nekem 1 gondom van az NV-vel, hogy amíg ők nem hajlandóak 11.0-ánál többet belrakni a VGA-ikba addig a játékfejlesztők sem fognak írni olyan játékot ami kihasználná a több képességel rendelkező AMD-s VGA-kat mivel túl kicsi a piaci részesedése. Így konzerválja az NV a pc grafikát és kényszerít az új hw megvételére. Az egyre újabb VGA-kban egyre több a kihasználatlan shader unit, és ezen a dx12 sem váloztat szerintem mivel a 1-es szintje=DX11-el. Ahelyett, hogy a mai hw-k lennének kihasználva driver szintjén, marad az erősebb 1 szálas eljesítmény növelés + erősebb VGA növelés kényszer. Ezz sokkal kevesebb %-os növekedést jelent+ több pénzbe kerül a user. Ülünk a kihasználatlan többmagos procik és kihasználatlan VGA-k előt.
-
TTomax
félisten
válasz
pakriksz #237 üzenetére
De most de tényleg,az a jó GPU desktop vonalon egy játékra való gépbe ami a profi vonalra van szánva?Persze,hogy a Kepler nem oda lett szánva,sokan nem is hitték jön desktopra.Csak azt nem értem ha elverte a GCN-t (mert el) akkor a GCN hova lett szánva?Továbbá,nekem mint "gamer gézának" mi a franc hasznom van abból ha egy gpu többet is tud mint amire egy játékban szükség van rá?Akkor miért is fizessek én azért?Jó nekem ez a buta cucc,csak toljon annyi fpst amennyit csak lehet,más engem a desktop vonalon nem igazán érdekel,meg úgy kb az userek 99%-át sem...
-
parampa
aktív tag
válasz
pakriksz #237 üzenetére
Vélemény: a konzolok csapdájában az AMD?
Eltévedtél egy pöppet ? Ráadásul megint ferdítesz.
Hogyan is jön a topikba a dupla pontosság ? Melyik PC gámánál használod ?
Arra ott a 7-es sorozat . A GTX 9-es : PC Desktop Gaming széria.970 / 980 -ak tökéletes Gaming GPU-k. Elönt a sárga irigység ezért savazod öket ?
Megint bajban van az AMD ? Nem alakulnak túl jól az eladások ...Konzolon talán használsz dupla pontosságú számítást ??
...vagy csak sikerült megint alulról súrolni a 20-30FPS-t 900p HIGH grafikán .Peat
-nek igaza van. Csak nevetségessé teszed magad, hiába mentek rá többen 1-re.
Mi lesz késöbb ha még az 1080p 30FPS HIGH is láthatóan nehezen megy.
1 év telt el, GPU téren nyers eröben már itt tartunk PC Desktop VS PS4: [link]
Megint GOTY esélyes nagycímeket kell majd tönkretenni a konzolok miatt ?Inkább azon kellene elgondolkodnod nem trollkodtál-e már eleget ebben az évben.
-
#00137984
törölt tag
Nem fogják vissza a PC-ben rejlő lehetőségeket... Akkor mégis miért kell egy játékos gépben 8mag 16 szálon 4GHz-en, 16GB RAM, 4-6 GB VRAM egy VGA-ra amivel még csak 4K-ban sem játszol?!!! Egy hagyományos játék PC közel 250 000 Huf pénzért bőven megfelelne a legtőbbünk igényeinek, de némelyik most érkező játék minimum gépigényéhez sem érné fel. Még ezt a kategóriát sem tudnák teljesen kihasználni, ha akarnának és tudnának optimálisan játékot létrehozni. Crysis első részének akkoriban irgalmatlan gépigénye ennek a gépnek már nem jelent megoldhatatlan akadályt, de a jelenben Assassins Creed Unity és Lords of Fallen játékokban kifújt. Egy félmilliós gép erőforrásainak közel 25-33% lenne kihasználható, de minek is törnék magukat a programozók érte. Van elég pénze az usereknek gépfejlesztésre, ezért mindent bele! A hardvergyártók meg az adott játékra hegeszthetnek drivereket és túlhajtják a hardvert minden maradék szikrát kicsiholva és ezzel újabb hibákat hoznak létre, de sokszor ez sem elég a játék normális futathatóságára. Én szivesen birtokolnák 1-1.5 milliós gépet és minden ilyen jellegű gond elkerülne, de akkor már a CFX és SLI rendszerem kihajtásával lennék gondban.
-
pakriksz
őstag
Butított bizony nem csak a 970/980 hanem úgy egészben a maxwell architektúra, tudom nehéz elhinned, de duplapontosságban nem kicsit lassabb mint a kepler (igaz hogy erre átlagos gémelésnél nincs szükség), na meg azon kívül is kikerült pár képesség. Komolyan azt hitted csak úgy a semmiből jött az a fogyasztáscsökkenés? Aranyos
Azért azon gondolkozz hogy a profi gpu-knál miért keplert árulnak még mindig.
A konzol hogy jön ide?
-
LordX
veterán
És? Új kártya, új mikroarchitektúra, mégse kell nulláról újraírni mindent, hogy jól működjön. Mint említettem, hülye lenne az AMD kiadni egy olyan kártyát, ami gyengébb lenne aktuális címekkel.
Nem azt mondom, hogy a külön optimalizálás szükségessége nem létező probléma. Én csak azt mondom, hogy túl nagy a hiszti e körül, és messze nem olyan nagy gond, mint amennyire be akarja mindenki állítani.
-
Abu85
HÁZIGAZDA
Az nem, de a memóriamodell is változott, ami szintén része az ISA-nak. Nem csak az elvett és hozzáadott utasításokról szól ez.
A 80% kihasználás a GPU-knál ma extrém álom. 65%-ért vért izzadnak a fejlesztők.
Attól lett lassabb a Tongán például a BF4, hogy megváltozott a memóriamodell. Ezért 10-15%-os mínuszt kap a rendszer a Frostbite 3 BF4-es implementációjában. Ennek persze nem lesz a jövőre nagy jelentősége, mert a motor memóriamenedzsmentjét a Dragon Age Inquisitionre újraírták. A PvsZ Garden Warware pedig már kapott Tonga optimalizálást. Azt már tudom, hogy a Frostbite 3 olyasmi memóriamenedzsmentet használ majd, mint a Sniper Elite 3-hoz írt Asura. Szépen előre allokálva lesz egy nagy memóriarész, ami a detektált VRAM 60%-a lesz. Ezen belül a blokkokat a motor explicit módon menedzseli. A blokkok törlése a motor dolga, illetve a töredezettség elkerülése érdekében a blokkokat időnként egymásra tolják, és pointer korrekciót hajtanak végre, hogy jó helyre mutasson minden a defragmentáció után is. -
#00137984
törölt tag
A PC komponensek optimális kihasználása nem érdeke azoknak a cégeknek akik szoftvereket és hardvereket fejlesztenek PC-re. Egy mai PC hasznos kihasználtsága vészesen alacsonyra lett leszoritva és feleslegesen foglalnak le erőforrásokat, amivel nem érnek el hasznos teljesitményt. Néhány példát megemlitenék. A CPU szálakat feleslegesen lefoglalják driverek és programok, ezzel nemhogy további gyorsulást, de esetenként más alkalmazások elől erőforrásokat elfoglalva teljesitményvesztést érnek el. A memóriákban feleslegesen betöltött és kihasznált adatok kerülnek, amivel megtelitve csökken annak teljesitménye. Aztán a szoftverek fejlesztőit nem foglalkoztatja a kódok és egyéb játék motorok és effektek normális megírása és beillesztése, amig megveszik a termékét és a PC hardverek lecserélésére kényszeritve a felhasználokat, ők ezt megteszik hogy használni tudják ezeket a szoftvereket. Mindenki valamilyen szinten hibáztatható.
-
Reggie0
félisten
-
HoaryFox
őstag
-
LordX
veterán
Pont azért nem értek egyet, mivel senki nem natívan programozza. Senkit nem érdekel, hogy az ISA pontosan milyen utasításokat tartalmaz, a driverben a finalizer "jól" fogja megoldani. A kikerült utasítások miatt lehet, hogy pár % teljesítmény vesztés lesz, de nem hülye az AMD, hogy fontos, nehezen kikerülhető utasításokat szüntessen meg.
A teljesítmény azonos órajelen nem fog (jelentősen) csökkenni az előző hozzászólásom miatt, csak a relatív teljesítmény, mert nem használja ki a régi kód az új dolgokat. Ha a programod a v1 kártyán 80% kihasználást ér el, és ugyanúgy 80%-ig akarod kihasználni az újat is, akkor természetesen módosítani kell a programot.
A Tongában 2x nagyobb lett a regisztertömb és új 16 bites utasítások jöttek. Most leszek-e lassabb, ha nem használok több regisztert? Leszek-e lassabb, ha nem használok I16/FP16-ot? Nem. De lehetek gyorsabb, ha átírom a kódot, és használok. Egyébként meg lehet, hogy ezt a finalizer részben meg is csinálja.
Persze olyan szempontból igazad van, hogy kisebb lett a memória sávszél. De ha a programodban az volt a szűk keresztmetszet, akkor nem fogsz vele tudni úgyse mit kezdeni (vagy ha igen, akkor már az előzőre se optimalizáltál). Ha nem, akkor meg mindegy.
-
Abu85
HÁZIGAZDA
Mert nem az. A GCN ISA folyamatosan változik. Ki- és bekerülnek utasítások, és eddig mindig módosult a memória modell. A low-level eléréssel ilyen módosításokkal, mindegyik GCN verziót specifikusan kell célozni. Az Intel esetben a Gen7.5 és a Gen8 szintén hasonló különbségeken ment át. A Gen8 memória modellje nagyon sokat változott a Gen7.5-höz képest. A Gen9 kérdéses, de a skálázhatóság miatt valószínű, hogy ehhez is jobban hozzányúlnak.
Az OpenCL, Mantle, DX12, ésatöbbi API-knak ezek az inkrementális változások már elégnek számítanak arra, hogy a kód hatékonysága úgy 10-15%-ot csökkenjen az új architektúra verzióval. 10-15% persze elfogadható, mert lehetne rosszabb is. Sokkal rosszabb.A processzor más. Ott az ISA főleg kiegészül és nem változik. GPU-ra senki sem programoz natívan, ott komolyan hozzá lehet nyúlni a rendszerhez. A low-level viszont ezt egy kicsit befolyásolja. Maga a kompatibilitás tuti megmarad, de a teljesítmény már kérdéses egy régi kóddal.
-
lenox
veterán
Amd-tol meg inteltol en se felnek, de mondjuk nv-nel ez azert mashogy van. Majd netuddmeg, hogy valtozik, at lehet fejleszteni, hogy jobb legyen, de lehet, hogy ugyanazzal a koddal per harom a sebesseg egy uj generacion. Na jo, ez talan picit tulzas, de teny, hogy komolyabb valtozasok vannak. Persze tamogatasban meg eddig sokkal jobb volt az nv, mint a masik ketto, bar mostmar az amd is kezd megszeretni.
-
LordX
veterán
Én nem értem, hogy miért kell parázni attól, hogy GCN 1.0-ra optimalizált kód miért ne lenne jó GCN 1.1 / 1.2-re is. Max lehet jobb, ha kicsit tovább optimalizálják, de rosszabb? Kizárt. Ugyanúgy Gen 7.5/8/9 között. Vagy a bármely inkrementális mikroarchitektúra-változás között.
Ha van egy Ivy Bridge-re optimalizált, AVX1-es x86 kódom, azt beteszem a Haswellt a gépbe, hirtelen gyenge lesz? Mennyi Haswellt lenne képes így az Intel eladni? kb. semennyit, úgyhogy nem fejlesztenek olyat, amire az eddigi optimalizálási javaslatok nem lennének jórészt igazak.
Haswell is tud AVX1-et, van benne legalább annyi cache, legalább annyi execution port, legalább akkora méretű ROB, stb., úgyhogy legalább ugyanolyan jól fogja futtatni a kódot, mint az előd. Ha nem alacsonyabb az órajel, akkor gyorsabban fog futni. Ja meg mellesleg extraként van benne AVX2, +x MB cache, +y port, +z elemű ROB, stb, ha van rá erőforrás, lehet vele játszani.. -
P.H.
senior tag
"Ezek is zömében egymásra épülnek, tehát a GCN-nél egyszerű lesz a konzolos C.I.-ről az S.I.-t és a V.I.-t támogatni."
Nehéz lenne leírni, hogy a pl. C.I. vagy a P. I. - pl. cikkekben is - micsoda és minek a rövidítése? Ha nem is úgy, hogy 4870 vagy 5580 vagy 7990, de legalább teljesen kiírva?
Végül is nem saját magadnak írod a cikkeket, hozzászólásokat, hanem másoknak és nem twitteren. Google-ön több releváns találat van az "AMD Volcanic Islands"-ra, mint az "AMD V. I."-re.
Bocsáss meg, ha praktikus oka van.
-
Abu85
HÁZIGAZDA
válasz
#06658560 #177 üzenetére
Valószínűleg eltérő lesz minden cég stratégiája. Ha a kiindulást nézzük, akkor a kezdetben összesen 12 architektúra IP verziót lehet támogatni. Az Intelnél a Gen7.5/Gen8/Gen9, az AMD-nél a GCN S.I./C.I./V.I., míg az NV-nél a Fermi1/Fermi2/Kepler1/Kepler2/Maxwell1/Maxwell2. Valószínűnek tartom, hogy a Fermi1-2 nem fog játszani, mert nagyon régi. Ezzel már csak 10 támogatásra váró architektúra IP verzió maradt. Ezek is zömében egymásra épülnek, tehát a GCN-nél egyszerű lesz a konzolos C.I.-ről az S.I.-t és a V.I.-t támogatni. Ez már szinte kész kód. Az Intelnél a Gen7.5 és Gen8 sem különbözik annyira, és feltehetően a Gen9 sem fog. Az NV-nél szintén a Kepler és a Maxwell iterációk hasonlítanak. Tehát igazából négy fő alapoptimalizálás kell, és abból kell elágaztatni a specifikus optimalizálást a kisebb változásoknak megfelelően. Ez mondjuk egy EA, egy Square Enix vagy egy SEGA kaliberű kiadó számára nem nagy teher. Ráadásul az Intel és az AMD dokumentál, tehát csak az NV architektúráit kell visszafejteni. Ezt például az EA már meg is csinálta a Keplerre, és tudtommal az AMD is, hiszen aligha tudták volna a Keplerre optimalizálni a TressFX-et, ha nem tudnák, hogy miképp működik az architektúra. Azt nem ismerem, hogy a jog ilyen formában hogyan fogalmaz. Ugye a visszafejtésnél szemet hunynak, ha az valami probléma leküzdése miatt következik be, és a nagyobb teljesítményre vonatkozó optimalizálás bizonyos szempontból tekinthető ennek. Viszont tudtommal az adatok másnak nem adhatók át, de valószínűtlen, hogy az AMD elutasítaná azokat a fejlesztői kérdéseket, amelyek a Kepler vagy éppen a Maxwell működését firtatják. Úgy sem tudja senki sem ellenőrizni, hogy erről történtek-e beszélgetések.
A játék kiadása után ahogy jönnek az új architektúrák úgy jöhetnek patchek. Ha csak új IP revízióról van szó, akkor az nem nagy teher. Ha teljesen új az alaparchitektúra, akkor az nagyobb változás, arra nem biztos, hogy mindenki optimalizál majd.
A kisebb fejlesztők szempontjából lesz ez probléma, mert nekik nincs meg ahhoz az anyagi forrásuk, hogy visszafejtsenek egy vagy több nem dokumentált architektúrát. Ezért kell majd nekik eldönteni, hogy akarják-e ezt az irányt ennek ellenére is, vagy maradnak a régi API-knál. -
Abu85
HÁZIGAZDA
Az MS célja elsődlegesen az Xbox One és a Qualcomm kiszolgálása. Ez a kritikus, mivel a konzol és az okostelefon a zsíros piac. Minden más másodlagos, így amire nincs elengedhetetlenül szükség, arra nem költenek túlzott erőforrást. Márpedig a multi-GPU az MS szemében egy lényegtelen tényező, abszolút nem befolyásolja a vállalat rövid és hosszútávú terveit, hogy ez a pici szegmens él, vagy támogatás hiányában kipusztul.
Az amúgy természetes, hogy nem kell nagy support hozzá. Alapszintű QoS kell a több hardver detektálásával, de ezek a technológiák nem szabványosak, mert máshogy működik az AMD és az NV megoldása. Tehát biztos szükség lesz kiterjesztésekre, még ha valami csoda folytán egy alapszintű erőforrás detektálás ott lenne az API végleges verziójában. -
pakriksz
őstag
"igen, x360-ban bika vga volt, méghozzá ati. Olyat domborított amit a legdrágább pc épphogy tudtak."
Egy sima radeon x1800 volt benne... semmi extra, ahogy a kezdeti játékok grafikája is semmi extra volt. Aztán jóval többet kihoztak belőle... pár év után.
Exkluzív vagy sem, tökmindegy ha előző generációra készült programokat adnak ki rá.
Bizony ugyan az a menetrend mint minden konzolgenerációnál, ez a tény. -
LordX
veterán
válasz
#06658560 #205 üzenetére
A "komolyabb" architektúra-váltást kb. esélytelen eseménynek érzem. Gondolj a GCN-re úgy, mint az x86-ra. Újabb és újabb mikroarchitektúrák jönnek, újabb és újabb javításokat kap, de a "nagy egész" alapvetően nem változik. Ha van egy program, ami Sandy vagy Ivy Bridge-re jól szét van optimalizálva, vajon lassabb lett-e Haswellen? Nem lehetetlen, de nagyítóval kell keresni ezt az esetet..
-
Peat;)
veterán
válasz
antikomcsi #194 üzenetére
A jelen topik íróját sehol sem kritizáltam, valamit félreértettél. Én az új konzolokról szóló, mindent elsöprő, evolúciós ugrásokat beígérő cikkek és a gyakorlati megvalósulás közti szignifikáns eltérést kritizáltam. Illetve a hozzáértés nem értem miért mentene fel bárkit is bármi alól, amit leírunk azért vállaljuk a következményeket.
pakriksz: igen, x360-ban bika vga volt, méghozzá ati. Olyat domborított amit a legdrágább pc épphogy tudtak. Most ha elindítom a (jó indulattal) középkategóriás gépemen a crysis 3-at akkor konzolon nem találok olyan címet ami többet mutatna annál. Ez tény és erre azt írod kb ugyanott vannak a mostani konzolok mint a maga idejében az x360. Ez meg a gyakorlati példákon keresztül egyszerűen nem áll semmilyen kapcsolatban a valósággal. Az hogy lefanozol engem nem érdekel, lehet én akármilyen fan akárki szemében, aki ebbe a mondatba kapaszkodik az önmagáról árul el sokat, illetve az írásai következetlenségeiből. Mindig még a prev genre programoznak, csak éppen már több exkluzív játék is megjelent mindkét oldalon, és ezek egy két effekten túl semmit nem mutattak fel, maximum felbontáscsökkentést, vagy felezést, mind a két gyártó részéről. Szerintem ez minden csak nem elhanyagolható tény. Kiemelném a tény szót. A ps3 idején is kiakaszott a hype, azért vettem x360-ot egyébként...aztán a sony gépe beért, ez is tény. De most még szkeptikusabb vagyok sajnos.
RECSKA: Neked is mehet a fenti írásom, egy az egyben. A ps3 kapcsán a blu rayt az ár miatt írtam, nem feltétlenül a cell miatt volt olyan drága amilyen drága volt, így árban a mostani konzolokkal nem lehet összehasonlítani. HSM írta hogy ennyi fért bele árban, illetve írta hogy a ps3 az ára miatt is lehetett előremutató, de ez nem annyira fehér és fekete dolog az akkori blu ray háború miatt. Jó lenne ha nem csak én követném a topikot.Ha a téma érdekel akkor követed a topikot és mások írását, ha a konfliktus akkor azt csinálod amit most. HSM érdekes módon megértette mi a problémám és normálisan reagált. Hozzá hasonlóan én is kb fél egy évet adok még a várakozással, ha még mindig csak a szent mise megy, akkor nem lesz konzolom. Sok év konzolozás után, amely korszakban marhára nem érdekel mi van bennük és mit támogatnak, csak az mit nyújtanak. Ezeknél az új konzoloknál kizárólag erőben léptek előre, ezt reklámozták, a szolgáltatások még gyengébbek mint az előző generációnál, illetve semmilyen más újítás nem történt, talán sonynál majd jön a sisak.
-
idegen lény
addikt
Szerintetek miért akarnak váltani mostanában sokan, - hirdetésekből látom -, PS4-ről XOne-ra? Vajon mi lehet ennek az oka? Érdekesebb játékok, lehet nézni YouTube-ot, minden videoformátumot lejátszik, vagy mi? Hiszen a PS4 sokkal erősebb... Vagy mégsem? Nem látszik a különbség?
-
sb
veterán
Oliverdának akartam még írni a fentieken kívül, hogy a GCN-be beragadás csapdáját sem érzem visszalépésnek a korábbi állapotokhoz képest.
Amíg nem AMD konzolok voltak addig:
- A konzolra fejlesztés külön úton járt. PC-re portolni extra munka volt és még kevesebb sikerrel kecsegtetett a durvább architekturális eltérések miatt. Vagy volt jó port, amivel PC-n is biztosítva volt a jó teljesítmény (extra munkával)
- Vagy nem volt jó port és PC-n a játék kuka volt.Jelenleg, AMD GPU-s konzolokkal és Mantle/DX12 kedvező portolhatósággal ez a "csapda" szerintem csak egy extra lehetőség:
1. Ha kihasználják a konzol fejlesztők az új lehetőségeket és a portolás könnyebbségét, vagyis GCN-re és az új API-kra szabnak mindent akkor ezzel maximum a magasabb minőség csapdájába ragad az AMD PC és konzol oldalon is a GCN-nel.
2. Ha meg nem használják ki a lehetőségeket (lásd új Assassin's Creed) akkor egy rakás szemetet kapunk mindkét oldalon. Ez nyilván nem alternatíva a kiadóknak sem, szerintem ez nem opció.
3. Harmadik lehetőségként pedig mondjuk konzolra megvan az optimalizáció, de valami bizarr gondolat miatt a PC portnál a több munkát és butítást választják, hogy ne GCN-re optimalizált legyen. Ekkor az NV külön útja előnnyé válhat. Vagyis inkább a GCN közös platform előnye veszhet el ebben az egy esetben.
Itt viszont ha az AMD úgy gondolná akkor ő is kijöhetne egy GCN-től eltérő, jobb fogyasztású architektúrával ennyi erővel és ugyanoda léphetne ahol az NV van. (persze ez most elmélet, de az elvi lehetőség adott. még költségben sem feltétlen lenne rosszabb - ha rá lennének kényszerülve.)Mindenesetre én más lehetőséget nem látok a fenti 3-on kívül.
Összefoglalva szerintem:
- Vagy minden GCN-re fog készülni és akkor nyert ügyük lehet.
- Vagy semmi nem fog GCN-re készülni... de akkor kuka a PC és konzol játékpiac is.
- Vagy konzol GCN-re, PC meg általános optimalizációval. Ez meg a legköltségesebb és legrosszabb hatásfokú út a fejlesztőknek. Ami viszont pont megszünteti a csapdahelyzetet. Ekkor az AMD is elválaszthatja a PC és konzol architektúrát. -
LordX
veterán
válasz
#06658560 #177 üzenetére
Egy ugyanabba az árkategóriába eső új kártya várhatóan gyorsabb lesz annyival, hogy ne kelljen hülyére optimalizálni, hogy ne legyen lassabb. Persze az se ideális, hogy a 2 évvel későbbi kártya nem lesz az adott címben annyival gyorsabb, csak az új címekben fog virítani.
-
sb
veterán
Egyetértek ezzel. Szerintem bőven "ki fogják húzni" ilyen fejlesztésekkel. És valljuk be, másfajta, főleg gyártástechnológiai előrelépésekre nem is nagyon van sansz a jövőben. Gyakorlatilag pont ezért választotta ezt az utat az AMD.
A cikkíró felvetése ettől függetlenül jogos, mert lehet(ne) ez egy csapdahelyzet is a jövőben, egyelőre viszont inkább választott útként nevezném csak. Épp azért léptek erre, mert ebben az útban látják az előrelépés lehetőségét.
1. Gflops/W ill. GB/s téren nagyon "lelassult" a fejlődés. (Önmagában ez nem teljesen igaz, főleg számítási kapacitásban, de ennek a gyakorlati haszna nulla kb, ami a képernyőn megjelenik.)
2. Komoly szoftveres problémák vannak. Elég a draw call limitet megnézni, a driveres (cpu) overhead-et, a gpu kihasználtságot... a fasorban sincs.Ebből a kettőből adódik, hogy az 1. pont alapján nehéz az előrelépés, a 2. pont alapján pedig a jelenlegi - kvázi leragadó - architektúrában is rengeteg a potenciál. Utóbbi valóban a fejlesztési potenciál elvesztésével jár, de ez az ami jelenleg a nagyobb hozam/kockázat felé mutat.
szerk: joysefke:
"Egy GPU architektúra egyetlen és mindennél lényegesebb metrikája a teljesítmény/fogyasztás mutató"
Szerintem ez is igaz, de nem látom ellentmondásban az AMD irányával. Most a Maxwelltől ilyen téren kaptak egy pofont - és ez az egy amire a vélemény cikk is alapoz - de attól az AMD által választott útnak is ez a célja.
Low level API-k, dwar call és cpu limit kiiktatása, a gpu kihasználtság növelése aszinkron módon, ill. kicsit más vonalon a HSA féle heterogén számítás (gpgpu-ként használva a gpu-t a jelenlegi cpu feladatokra) mind ugyanezt akarja elérni: a jelenlegi egységnyi teljesítmény/W mutatót fentebb tolni. És ebben nagyobb a potenciál, ha azt nézzük, hogy:
- valóban töredék kihasználtságúak a gpu-k jelenleg gpu feladatokra.
- szinte minden cpu mellett ott pihen egy totál kihasználatlan, de sokkal erősebb és jobb fogyasztási mutatójú IGP
- 8-10 magos cpu-k mellett is durva driveres, sw-s limitbe ütközünk render oldalon is
Új hozzászólás Aktív témák
- BESZÁMÍTÁS! Microsoft XBOX Series X 1TB SSD fekete játékkonzol garanciával hibátlan működéssel
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 16/32/64GB RAM RX 9060XT 16GB GAMER PC termékbeszámítással
- Bomba ár! Dell Latitude 7410 - i5-10GEN I 16GB I 256GB SSD I 14" FHD I HDMI I Cam I W11 I Garancia!
- Telefon felvásárlás!! Apple Watch Series 9/Apple Watch Ultra/Apple Watch Ultra 2
- Bomba ár! HP ProBook 445 G8 - Ryzen 5 5600U I 8GB I 256SSD I HDMI I 14" FHD I Cam I W11 I Gar
Állásajánlatok
Cég: FOTC
Város: Budapest