Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
Dr. Akula #182 üzenetére
Valószínűnek tartom, hogy ekkora érdekellentét mellett a piac is kettészakad, tehát lesznek olyan fejlesztők, akik az NV-vel tartanak és lesznek olyanok, akik az AMD-vel.
Bármennyire nem tűnik annak, de szerintem most tudatos stratégiákat látunk arra, hogy a PC gamingen belül egy cég egyeduralkodó legyen. -
hugo chávez
aktív tag
"Tegnap olvastam, hogy állítólag hivatalosan is megerősítve az összes win8 tulaj megkapja ingyen a win9-et, hát ezért sem fog a win7 kapni dx12-t."
Nem állítom, hogy biztosan kapni fog, sőt, valószínűbb, hogy nem fog... De ésszerű lépés lenne és a Microsoft is többet nyerne rajta, mint veszítene, ha beletenné, szerintem.
"Wddm a rendszer része, átírhatják a windows kernelt, de akkor az már rég nem win7, úgy érzem itt nagyobb lesz az eltérés mint 1.0-1.1 váltásnál."
Biztosan nagyobb eltérés lesz, de attól még valószínűleg beletehető lenne a Win 7-be, csak a Microsofton múlik, hogy akarja-e.
"Portolás: néhány hét alatt portolták a forza-t a dx12-es bemutatóra, nem hiszem hogy annyira negy meló let volna nekik."
Hehe, afölött az "apró" részlet fölött úgy tűnik átsiklottál, hogy a Forzát az Xbox One jelenlegi alacsony szintű API-jára írták meg, vagyis DX11.X-re és erről portolták át egy szintén alacsony szintű API-ra, a DX12-re, ami amúgy is a DX11.X-re épül (és amit később az Xbox is megkap majd). Ember, hát erről beszéltem korábban is! Konzolos alacsony szintű API-ra írt játékot DX12-re és így PC-re portolni könnyű, és talán még könnyebb lesz, ha a konzolon is DX12 lesz majd, ezzel szemben DX11-re meg nagyon nehéz és emiatt sok idő, ezért is nem nagyon akarnak a konzolra is dolgozó fejlesztők/kiadók pöcsölni a DX11-el.
-
Abu85
HÁZIGAZDA
Nem fogod fel, hogy nincs driver. Ezért kell tudni hogyan működik a hardver, mert a low-level API-kkal eltűnik az a réteg, ami ezt optimálisan működtette. Minden funkció, ami korábban a driverben volt az alkalmazásban lesz, és annak a kódnak kell működtetnie jelenleg 9 eltérő architektúrát. A driver pedig egy szimpla shader fordító lesz.
A helyzet az, hogy a top fejlesztők évek óta a dokumentálásra kérik az NV-t, de eredménytelenül. Azzal, hogy elmondják a fejlesztőknek, hogy mit tehetnek és mit nem, annyi történik, hogy gyorsabb kódokat tudnak írni a hardverekre. Viszont ezzel a kontroll átkerül a fejlesztőkhöz, mert ők döntik majd el, hogy milyen kód, melyik hardveren mennyire gyorsan fut. Na most ezt az NVIDIA akarja eldönteni. -
Jack@l
veterán
Kit érdekel hogy működik a hardver? Beküöldöd a kódot és majd megcsinálja a driver/kártya amit kell, úgy érzem túl van lihegve az a dolog. NV biztos kiad(ott) valami know-how-t, hogy mire érdemes figyelni a shadereknél, miket szeret/nem szeret a kártyájuk. Többet úgyse csinálnak a fejlesztők, örülnek ha bug nélkül kihoznak egy játékot...
-
Abu85
HÁZIGAZDA
Nem V-Syncet használ a Forza 5, hanem egy speciális jelenetlimitet. Erre azért van szükség, mert a felhővel így tartja a kapcsolatot, ugyanis az Azuren a Forza 5 60 jelenettel számol másodpercenként. Ennek szinkronban kell lennie a kliensgéppel, és ez az oka, amiért a játék fejlesztésénél is ugyanezt a limitet használták.
Azt pedig kitalálhatod, hogy Titánra semmilyen formában nem tudnak optimalizálni, mert senki sem tudja a fejlesztők közül, hogy hogyan működik a hardver. Az NVIDIA pedig nem mondja meg. Nem véletlenül kérték az MS-től a DX11.3-at. Nekik ez a low-level irány nem olyan jó, mert a fejlesztőkhöz kerül a kontroll. Az NVIDIA ezt nem szeretné, mert végeredményben a fejlesztő képes lenne optimalizálni akármire. -
Abu85
HÁZIGAZDA
60 fps Xbox One-on és 60 fps PC-n. Persze az Xbox One kódot nem frissítették fel, mert a konzol még nem kapta meg DX12-t, legalábbis publikusan nem.
De egyébként jelen cikk is erről szól. Olyan ez, mint az OpenCL. Ott sem vagy képes a kód teljesítményét portolni, így csak a kompatibilitást biztosíthatod két architektúra között, illetve az eltérő fordítók miatt még az sem, de a SPIR már jó irány.
A low-level API-k pont ugyanezt hozzák be. Az egész funkcionalitás a shader fordítást leszámítva átkerül user módba. Eltűnik a hagyományos értelemben vett grafikus driver, és az alkalmazás látja el annak a feladatát. Következésképpen az alkalmazásnak kell optimalizálni mindazokra az architektúrákra és alverzióikra, amelyeken futni fog. -
Abu85
HÁZIGAZDA
Titánnal demózták. És igen 1080p-n 60 fps volt, ahogy az Xbox One-on is annyi egy számítási teljesítményben harmadannyira képes hardveren. A demonstráció célja főleg az volt, hogy az eredeti kód módosítás nélkül, illetve a DX12 változásaihoz szükséges módosításokkal fut egy gyökeresen eltérő architektúrán, csak hát a sebesség.
-
Abu85
HÁZIGAZDA
Itt most ez nem attól függ, hogy CPU-d vagy APU-d van. Az egy eltérő problémakör. A DX12-vel a Microsoft célja hihetetlenül egyszerű. Lényegében lesz egy API, ami elérhető az új Windows-on, az Xbox One-on és az új Windows Phone-on. Tehát ha valamelyik platformra írsz egy kódot, akkor az a másik két platformon is futni fog (persze extra 10-15 sor kell majd az elejére, hogy milyen erőforrásokat hozhat létre).
Ha Xbox One kódot hoznak át, akkor az egy GCN C.I. optimalizált kód, mindenen lassabb lesz, ami nem GCN C.I. Akár a házon belüli GCN S.I. és V.I. is. Tulajdonképpen a memóriavezérlést legalább még nyolc architektúrára optimalizálni kell, és az érkező architektúrákra nem is lehet felkészülni, tehát ott mindenképp lassulás lesz. -
Egon
nagyúr
Nyilván architektúránként és programonként eltérő mértékben lesz lassabb a többi architektúrán.
Az igazi kérdés az, hogy adott szoftver pontosan mennyivel lesz/lehet lassabb mondjuk egy CPU+dGPU pároson, mint egy APU-n, hogy az előbbi felépítés nyers teljesítménybeli fölénye mennyire tudja ellensúlyozni az architektúrális hátrányt stb. Illetve nyilván az sem mindegy, hogy ki és mennyire hajlandó optimalizálni a PC-s architektúrákra, illetve hogy mennyire lehet optimalizálni.A személyes véleményem az, hogy néhány probléma erőteljesen fel van fújva. Adott kiadó eddig sem volt hajlandó optimalizálni a PC-s verziót (lásd GTA 4, és még hosszan lehetne sorolni), akik meg optimalizáltak, azoknál működött eddig is rendesen a portolás, nem látom be, hogy a jövőben miért ne működhetne.
-
Abu85
HÁZIGAZDA
De igen. Ez persze nem okosság, viszont az Xbox One kód szimplán átmásolható akkor, ha az nem tartalmaz semmilyen assembly vagy IR szintű optimalizálást. Ilyenkor a kód lényegében szabványos DX12 kód, de a PC-hez az elejét ki kell egészíteni nagyjából 10-15 sorral, mert az Xbox One csak egy hardver, így a PC-re bele kell írni az erőforrás-ellenőrzést.
De ez csak a kompatibilitás, így az Xbox One kód teljesítménye a Hawaii/Bonaire/Kaveri/stb. termékeken lesz a legjobb, míg a többin lassabb lesz. Esetenként sokkal. Ezért minden Xbox One-tól eltérő GPU-architektúrára újra kell optimalizálni. -
Jack@l
veterán
Level 11-re viszont biztos hogy kell jópár sort beleírni a kódba, annyira azért nem okos az api, hogy áthidalja az architektúrák közti különbséget.
-
Jack@l
veterán
válasz
hugo chávez #166 üzenetére
Tegnap olvastam, hogy állítólag hivatalosan is megerősítve az összes win8 tulaj megkapja ingyen a win9-et, hát ezért sem fog a win7 kapni dx12-t...
Wddm a rendszer része, átírhatják a windows kernelt, de akkor az már rég nem win7, úgy érzem itt nagyobb lesz az eltérés mint 1.0-1.1 váltásnál. Loha is mondta, megszűnik a win7 support 2015 januárjában, akkor még rég nem lesz hivatalos dx12, utána meg nem foglalkoznak vele. Hinni persze lehet a csodákban, csak hát...Portolás: néhány hét alatt portolták a forza-t a dx12-es bemutatóra, nem hiszem hogy annyira negy meló let volna nekik.
-
hugo chávez
aktív tag
"Eddig is voltak olyan játékok, ami hez volt dx9 meg dx11 választási lehetőség, most egy átcsúszik dx11 meg 12-re. (itt már alig van különbség a két api között, nem nagy meló mindkettőre kiohozni)"
Alig van különbség a két API között és nem nagy meló kihozni mindkettőre?
Hát, amit én tudok a két API-ról, baromi nagy különbség van közöttük és nagyon nagy meló egy DX11.x (Xbox One), vagy GNM (PS4) API-ra írt játékot portolni DX11-re, ezzel szemben DX12-re, vagy Mantle-re meg elég könnyű. A DX12 FEATURE_LEVEL_11_0 nem azt jelenti, hogy DX11-re van megírva a játék és a DX12 API-n keresztül így is működik, hanem csupán annyit, hogy ez a szint egy funkciókorlátos része a DX12-nek, azért, hogy a csak a DX11 specifikációinak megfelelő régebbi hardveren (Fermi, Kepler NV GPU-k például) is futhasson az alacsony szintű DX12 API-ra írt játék, természetesen a hardver korlátainak megfelelően, tehát butítva az API valódi, FEATURE_LEVEL_12 képességeihez mérten.
"Konkrétan tényleg van olyan funkció a dx12-ben, amihez kötelező a wddm2, anélkül nem tudnák megvalósítani azt a szintű vga trükközést.
Itt olvashatsz róla, ha érdekel a techhalandzsa (mármint a mérnöki, és nem a PR verzió):
http://video.ch9.ms/sessions/build/2014/3-564.pptx"Köszi. És azt nem is vitattam, hogy kell a WDDM 2.0 a DX12-höz.
Viszont, ha a Microsoft akarja, akkor miért ne frissíthetné akár a Win 7-en is a WDDM-et? Megtették már a Vistánál is WDDM 1.0-ról WDDM 1.1-re és így lett a Vistán is DX11.
-
Jack@l
veterán
válasz
hugo chávez #164 üzenetére
Eddig is voltak olyan játékok, ami hez volt dx9 meg dx11 választási lehetőség, most egy átcsúszik dx11 meg 12-re. (itt már alig van különbség a két api között, nem nagy meló mindkettőre kiohozni)
Win7 részesedés meg akkor fog megcsappanni a játékosok közt, mikor kijönnek az első dx12-es játékok és lesz érdemi különbség a sebességben.
UI: win7-et meg általában cégeknél tolják, de ők is migrálni fognak ha a win9 végre majd használható desktopot ad nekik, nem az unproduktív metrót tolja a képükbe.Konkrétan tényleg van olyan funkció a dx12-ben, amihez kötelező a wddm2, anélkül nem tudnák megvalósítani azt a szintű vga trükközést.
Itt olvashatsz róla, ha érdekel a techhalandzsa (mármint a mérnöki, és nem a PR verzió):
http://video.ch9.ms/sessions/build/2014/3-564.pptx -
hugo chávez
aktív tag
"Windows 7 end of mainstream support: January 13, 2015
Aztán ahogy Jack@l is írta: új drivermodel kell a DX12-höz.
Még DX11.1 sincs Win7-re..."Jó, hát sajnos én sem tartom túl valószínűnek, de az meg tény, hogy jelenleg 50% körül van a Win 7 részesedése, a Win 8+Win 8.1-é meg együtt úgy 13% körül. [link] Azt meg nem hinném, hogy ennek az 50%-nak a jelentős része rövid időn belül migrálni fog Win 9-re... Szóval azért elég nagy lesz a nyomás a fejlesztők felől, mert csinálni egy DX11.x renderert, meg egy DX12-t egyazon játékhoz senki nem fog.
"DX12 elsősorban nem a csilivili effektekről szól, és pl. egy NV Kepler tulaj FEATURE_LEVEL_11_0 -el is megkapna mindent Win7 -en, akkor mi motiválná a váltásra?"
A low level API-k elsősorban a fejlesztőknek szólnak, az ő munkájukat könnyíthetik meg a kevesebb megkötéssel és az átláthatóságukkal. Na meg a konzolokról történő jóval egyszerűbb portolás lehetőségével. A felhasználók a jobb hardverkihasználásból (és az eddig megvalósíthatalan pluszeffektekből, több fps-ből, meg hasonlókból) profitálhatnak.
Viszont a DX12 FEATURE_LEVEL-ei már pont, hogy a csilivili effektekről is szólnak. Magasabb szint, több beépíthető effekt. És nem, egy Kepler tulaj nem kapna meg mindent sem Win 7-en, sem Win 9-en, mert a hardver nem támogat FEATURE_LEVEL_12_0-t. Ha pedig az oprendszer (esetünkben a Win 7) nem támogatna magasabb szintet, csak a FEATURE_LEVEL_11_0-át, akkor azon még FEATURE_LEVEL_12_0-ás videókártyával sem fog mindent megkapni és pont ez motiválná az oprendszerváltásra azon felhasználókat, akiknek prioritás a grafika. Vagyis éppen azokat, akiket azzal, hogy ha nem lesz DX12 Win 7-re, rá lehet venni arra, hogy vegyék meg a Win 9-et.Tehát, ha kiadják Win 7-re a legalacsonyabb támogatási szintű DX12-t, attól még ugyanúgy migrálni fog a migrálásra egyáltalán hajlandó csoport, mert többet kap a Win 9-cel ebből a szempontból. Viszont így megkímélnék a fejlesztőket a DX11-gyel való foglalkozástól, tehát több és igényesebb (mármint grafikailag) DX12-es játék jöhetne és ez is növelné a Win 9-re migrálók számát, de így anélkül, hogy megint minden fórum a Microsoft szidásától lenne hangos és ezt azért a két legutóbbi (ja, meg a Vista-DX10 sincs még elfelejtve...) gigabaki óta érdemes lenne szem előtt tartaniuk, mert a renoméjuk jelenleg a béka segge alatt van... Legalábbis én így gondolom.
-
Loha
veterán
válasz
hugo chávez #162 üzenetére
Windows 7 end of mainstream support: January 13, 2015
Aztán ahogy Jack@l is írta: új drivermodel kell a DX12-höz.
Még DX11.1 sincs Win7-re...
DX12 elsősorban nem a csilivili effektekről szól, és pl. egy NV Kepler tulaj FEATURE_LEVEL_11_0 -el is megkapna mindent Win7 -en, akkor mi motiválná a váltásra? -
hugo chávez
aktív tag
Egyelőre kb. ennyit (vagyis a nagy büdös semmit) lehet tudni:
"While DirectX 12 will not support Windows XP, Windows 7 support is also a little unclear, with Microsoft only saying they weren't "discussing Windows 7 support today." [link]
"It’s worth noting that Microsoft has said nothing about Windows 7 support for DirectX 12..." [link]
Mindenesetre azt még nem mondták, hogy biztosan nem lesz DX12 Win 7-re...Egyébként a Win 8-cal, meg az Xbox One körüli cirkusszal eléggé magukra haragították az embereket, szóval lehet, hogy még egy fiaskót inkább nem vállalnak be és megkapja a Win 7-8 is a DX12 FEATURE_LEVEL_11_0-t. Így a játékok ugyan menni fognak, de nem lesznek olyan szépek, mint Win 9-en és ez ugyanúgy vásárlásra fogja sarkallni azokat az embereket (a nagy grafikus terhelésű játékokkal játszókat), akik egyébként pont csak azért vennék meg a Win 9-et, mert az már támogatja a DX12-t, vagyis a csilivili effektek miatt, tehát a bevétel meglenne. Viszont így messze nem köpködnék annyian a Microsoftot és a fejlesztőknek is sokkal egyszerűbb lenne csak egy API-ra fejleszteni.
-
Jack@l
veterán
Pont ez a baj, hogy ilyeneket olvasol itt... (aztán meg csodálkozunk hogy terjed a hülyeség mint a futótűz)
MS nem szeretetszolgálat, ezt az Xp-Vista-win7-nél már elég szépen megtapasztalhatták a játékosok. Technológiailag se igazán értem mért pont a megnyírbált dx12 lenne win7-en, mért ne lehetne akkor méár a teljes. Amúgyha jóltom a wddm is változni fog az új windowsban, az lesz a bökkenő a visszafele kompatibilitással... -
Loha
veterán
válasz
CybonTom #158 üzenetére
Ja, nekem nem kell cikket keresni, azért mert nem linkeltem neked a cikket amiről beszélsz: Csak félig lesz az új Windows kiváltsága a DirectX 12? az nem azt jelenti, hogy én nem olvastam. Nincs benne semmilyen forrás, a googlizás is megvolt, és ezek után én úgy gondolom, hogy nem volt úgy...
-
CybonTom
tag
Google a barátod, ha érdekel, utána nézel, én viszont bocsi, de most nem fogok neked cikket keresni, főleg ezután... egyébként pedig Abu-nak elhiszem, ha erről ír egy szakmai cikket, ha nem írná oda a pontos forrás megjelölést, akkor is, legfeljebb ha érdekel a téma, akkor én is gugliznék utána... szóval jó keresést.
-
CybonTom
tag
Igen, konkrétan itt volt róla cikk, hogy gyakorlatilag a dx 12 korlátozások nélkül mehetne elviekben win7-re is, ha a microsoft úgy dönt.
Ami viszont esélyesebb, hogy csak korlátozott verziót rak a win7-re, mert ugye arról váltásra akarja kényszeríteni a felhasználókat az új win-re, ha már a 8-ra nem voltak hajlandóak átmenni. -
Abu85
HÁZIGAZDA
Az biztos, hogy lesz valami lehetőség DX12-re váltani. Most a nagyon kedvező upgrade konstrukcióra van a legnagyobb lehetőség. Ezt is támogatja mindenki. A legtöbb top fejlesztő gyorsan elhagyja a DX11-et, tehát valami váltási utat muszáj bevezetni.
-
Loha
veterán
válasz
hugo chávez #148 üzenetére
Persze nem lehet kizárni, hogy a Win7 kaphat DX12-őt, csak ennek a valószínűsége nagyon-nagyon kicsi, tekintve hogy még DX11.1-et sem kapta meg, és a MS nyilván nagyon motivált a Win7 élettartamának kitolásában a Win(9) kárára.
-
hugo chávez
aktív tag
Szerencsére személy szerint engem elsősorban az FPS-ek érdekelnek, oldalnézetesek nem igazán.
Szóval így akkor lehet remélni a legjobbakat.(#144) Loha:
Volt arról szó, hogy a Win 7 is kaphat DX12-t, persze nyilván nem a FEATURE_LEVEL_12 szintet, de innentől már semmi akadálya nem lenne a DX12-es játékok terjedésének, csak Win 7-en majd pár effekt nem lesz elérhető.
-
Abu85
HÁZIGAZDA
Tudtommal a Stardock projektek fogják kiemelten támogatni a low-level API irányát. Nem mondom, hogy ebből kerül-e ki az első játék, de mivel a Nitrous alatt a DX11 sebesség kvázi használhatatlan, így a megjelent játékokat simán patch-elni fogják DX12-re. A GDC-n be is mutatták, hogy három hét alatt sikerült a Mantle-ről egy DX12 portot készíteni a StarSwarm engine tesztről. Mivel öt játékot terveznek jelenleg a Nitrousra nagyon fontos lesz, hogy ezek kapjanak DX12 portot is a Mantle mellé.
Valszeg a stratégiai játékok szempontjából lesz a legnagyobb a támogatás. Ott érződik a legjobban a limit, amit az új API-k ki tudnak ütni. Nem véletlen, hogy hirtelen minden korábbi legenda elkezdett újra stratégiát csinálni. -
Loha
veterán
Kedvező konstrukciók voltak a Win8 megjelenése után is
, de tételezzük fel, hogy bomba siker lesz az új Win(9), akkor is évekbe fog telni, mire játékfejlesztői szemmel értékelhető részesedése lesz. Az első DX12-es játék valszeg vmi nem túl friss MS játék lesz (Forza 5 ?).
-
Abu85
HÁZIGAZDA
válasz
hugo chávez #143 üzenetére
A megterhelőbbek igen. Az ilyen oldalnézetes platformerek esetében van esély, hogy nem, de ha be meri vállalni a fejlesztő azt, hogy figyeljen arra, hogy ne csináljon kárt a Windowsban, akkor egy Xbox One-ról DX12-re jóval egyszerűbb portolni, mint DX11-re. Sokkal közelebb áll a kód felépítése a DX12-höz.
(#144) Loha: Tudtommal lesznek nagyon kedvező konstrukciók a váltásra. Ha van Win 7 és 8 licenc, akkor szinte filléres tétel lesz váltani.
-
Loha
veterán
válasz
hugo chávez #143 üzenetére
Amíg nem lesz jelentős részesedése a Windows (9) -nek, addig nem nagyon várnék túl sok DX12-es játékot...
-
-
sb
veterán
Ez egy ősrégi, általános és szerintem feloldhatatlan probléma.
1. A fejlesztés iszonyú költséges.
2. Több különböző rendszerre fejleszteni így nagy extra költség.
3. Fejlesztést minimalizálni kétféle módon lehet: egy rendszerre fejleszteni vagy olyan absztrakciós (magas) szinten, ami több architektúrán is elfut egy "vastag" driverrel, API-val, fordítóval, stb...
Utóbbinál az eszközök végzik gyakorlatilag az extra fejlesztői munkát. Nyilván sokkal kisebb hatékonysággal, tehát a teljesítmény közel sem lesz optimális.Ez pedig egy ördögi kör, nem lehet belőle kitörni.
A hatékonysághoz és architektúra vagy paradigmaváltáshoz extra fejlesztés kell vagy kompletten újra kell írni a kódot.
Legyen az akár egy magról több magra váltáshoz párhuzamosítás... vagy még erősebb párhuzamosítás gpgpu-ra, vagy heterogén kód...Egyedül akkor nem kell, ha minden marad a régiben, de akkor meg nincs fejlődés. Ha jöttek volna a 20GHz-es egymagos cpu-k meg a minden évben adott TDP-ből duplázó, normál, raszteres GPU-k akkor most ott tartanánk.
De nem jöttek és nem is fognak. Most értünk el arra a kritikus szintre ahol annyira bedrágult a hw fejlesztés (egységnyi teljesítménytöbblethez), hogy olcsóbb lehet más utat választani. Így most olcsóbb elkezdeni kihasználni a meglévő vasakban eleve ott lévő erőt. Több mag, cpu helyett igp, vastag API helyett direktebb, gyorsabb kód.Pillanatnyilag ez most az olcsóbb az sw költséggel együtt is az előrelépésre. Aztán hosszú távon majd megint nem lesz az, de szvsz hosszú távon meg elkerülhetetlen a fejlődéshez az sw oldali innováció és extra költség.
Eddig az utóbbi 10-20 évben ügyesen elkerültük, de ez csak látszatmegoldás volt.Ha tippelnem kéne akkor jönni fognak az új sw megoldások az költségek ellenére is, viszont a kompatibilitást amíg lehet lesz*rják. Ha érezhetően átalakul a költségarány akkor pedig lesz fedezet a későbbi sw supportra is. Gyk. nem új hw-t veszel 2-3 évente hanem sw-t. Ma sem cserélne senki új mondjuk 1.5x gyorsabb cpu-ra, ha ugyanabból a pénzből kap új sw-t, ami a meglévő cpu-ján is (mondjuk igp-t használva) 3x gyorsabb lesz.
-
apatyas
Korrektor
Technikailag én is így gondolom, a kérdés arra vonatkozott inkább, hogy engedélyezik-e? Persze, szerencsére AMD-éknél nem divat (mert nem engedhetik meg maguknak) vmit letiltani ami egyébként működne. Szóval, ezért vetettem fel, és hitegetem magam, hogy minden szép és jó lesz, ha azt veszem meg.
-
válasz
FLATRONW #139 üzenetére
Gondolom, régebben odaírták, mert az akkori állás szerint DX12 kompatibilis volt mindegyik GCN kártya, de később rájöttek, hogy egy még készen sem lévő API-val kapcsolatban nem biztos, hogy okos dolog ilyet írni, és az újakhoz már nem írták oda biztonság kedvéért. A régieket meg jól elfelejtették frissíteni.
Persze ez csak egy lehetséges verzió.
Egyébként szerintem biztos, hogy minden GCN-es Radeon tudni fogja a DX12 Tier 3-at.
-
LordX
veterán
Van. Még nincs DX12.
"Based on our review of the Microsoft DirectX(r) 12 specification dated July 23, 2014, we are confident that devices based on our GCN architecture will be able to support DirectX(r) 12 graphics when available. We recommend that you check AMD.com prior to purchase to confirm that a particular device will support DirectX(r) 12 graphics. Note however, any changes to the DirectX(r) 12 specification after this date could impact or completely eliminate this ability – and AMD disclaims all liability resulting therefrom."
-
apatyas
Korrektor
Van annak valami oka, hogy az R5 230 - 255 adatlapján nincs feltüntetve a DX12, csak 11.2 ? Amennyire utána tudtam nézni, a Sun kódnevű chip GCN CI-s azaz második körös. A felette levő kategóriánál, R7 M260 - M265 viszont DX12 van írva, holott ez ahogy kiderítettem, Mars chipes ami még elsőkörös GCN SI. Csak marketing? Vagy valóban nem engedélyeznék rajta?
-
Abu85
HÁZIGAZDA
válasz
hugo chávez #133 üzenetére
A DX11-ről nem kedvező DX12-re és Mantle-re portolni. Nem ideálisak a feltételek. De megfelelően felépített motor esetén két hónap alatt gyorsabb lehet a low-level API kód. Három-négy hónap alatt az optimalizálás is beépíthető. Nagyjából fél év alatt megoldható minden.
Ha van a motornak PlayStation 4-re írt libGNM kódja, akkor inkább arról érdemes portolni, mert kevesebb vele a munka. A libGNM is sokkal közelebb áll a Mantle és a DX12 működéséhez, így negyed év alatt is tökéletesen lehet portolni.
A legjobb, ha van Mantle kód. Onnan csak három hét DX12 kódot írni. Ugye a Nitrous prototípus DX12 kódját két hét alatt portolták a Mantle-ről a GDC-re, és stabilan, gyorsan működött. -
flexxx2
őstag
válasz
hugo chávez #132 üzenetére
Saját tapasztalat, így van. És a crysis3 is elfut 25-30fpsel (ritkán 15re esik) high-on AA off, pedig nem mai a gépem (hd5850,q9550). A bf4 rosszabbul megy és nem olyan szép. A játékélményben viszont üti.
(#134) FLATRONW: ha így lesz, akkor vedd meg használtan az akkori generáció csúcs VGA-t
-
FLATRONW
őstag
válasz
hugo chávez #132 üzenetére
Én csak azt mondom, hogy ilyen API-nál előfordulhat az is, hogy max grafikán nagyon sokára vagy pedig soha nem fogjuk normális sebességen futtatni a játékot.
-
hugo chávez
aktív tag
Én reménykedek benne, hogy így lesz, vagyis a Mantle miatt lerövidül a tanulási periódus és tényleg hamar jönnek majd a DX12-es játékok.
Egyébként mennyi idő lehet kb. egy komolyabb játékot/motort átírni alacsony szintű API-ra? Itt arra gondolok, hogy mittudomén, van egy AAA-s játék, amit csinálgatnak már vagy két-három éve, DX11-es, mert amikor kezdték, még nem volt Mantle sem és mondjuk 2015-ben lenne kész DX11-ben. Ha most át akarják tenni DX12-re, az mennyi pluszidő? -
hugo chávez
aktív tag
válasz
FLATRONW #129 üzenetére
A Crysis-szel nem játszottam, de úgy tudom, hogy a beállításaitól függően bármelyik megjelenésekori normálisabb gépen elfutott úgy, hogy mellette nagyon jól is nézett ki. Csak éppen kimaxolni nem lehetett semmin se a grafikai beállításokat, mert olyan magasra lőtték be őket. De ettől még nagyon jól optimalizált volt.
-
Abu85
HÁZIGAZDA
válasz
hugo chávez #130 üzenetére
Abból kiindulva, hogy a Mantle-t 80+ fejlesztő igényelte, szerintem a DX12 előtt ejtik meg a tanulási szakaszt, és az új motorokat a Mantle-re építik fel. Innen a DX12-re nagyon gyorsan és nagyon hatékonyan lehet portolni. Szóval extrémgyors átállást tartok valószínűnek. Erre tényleg jó esély van, mert amit megtanulnak a Mantle-ről azt pont ugyanúgy hasznosíthatják DX12 alatt. A DX11 portok eltűnése attól függ, hogy a Microsoft hogyan oldja meg a DX12 elérhetőségét a felhasználók számára. De ha nem is tűnnek el, a legtöbb effektet még akkor sem portolják vissza, ha a DX11 elvileg meg tudná oldani.
Egyébként a COD sorozat három különböző motorra épül majd. Gyakorlatilag mindegyik fejlesztő sajátot használ majd az éppen aktuális éves epizódhoz.
-
hugo chávez
aktív tag
Ok, ez tiszta. De mi a helyzet a piac "tehetetlenségével"? Gondolok itt pl. az Activision "sikerjátékára", a CoD-ra és annak eddigi elavult motorjaira, amiket évek óta csak toldozgattak. Tehát, ha megjelenik a DX12, akkor a fejlesztők túlnyomó többsége vajon rögtön elkezdi-e használni ezt a nehezebben megtanulható, nagyobb odafigyelést igénylő alacsony szintű API-t, vagy sokan még évekig kibekkelik a DX11-gyel és annak minden limitációjával, hibájával, teljesítménygondjával?
(#100) Dr. Akula:
Igen, a "nekimenés" alatt hasonló húzásokra gondoltam én is.
(#114) Sinesol:
"Épp ez az hogy a grafikus motor végez mindent, de gondolj bele ha egy uj jatekmotor kihasználja pl az Xboxban található 16 parancslistát, akkor mégis mire megy majd a régi gcn-ek 2 parancslistájával? És ez még csak a minimum mivel ps4-ben uj radeonokban, Kaveriben akár 32-64 parancslistát is képes kezelni a gpu, nembeszélve az uj utasitáskészletekről."
Erről most az jutott eszembe, amikor sokan itt azt mondják, hogy ne legyenek átnevezések (ez mondjuk szerintem is jogos) és ritkábban, mondjuk csak 3-4 évente jöjjön ki új GPU generáció, de az akkor valódi fejlesztés és radikális előrelépés legyen. De akkor biza az arra optimalizált játékok a 3-4 évvel korábbi előző generáción vagy el sem indulnának, vagy az újabb generációt nem használnák ki eléggé, amennyiben figyelembe kéne venni a régi generációt, vagy generációkat is és akkor meg az lenne a baj. Mert vagy új hardvert kéne venni minden ciklusban, vagy pont ellenkezőleg, mégsem hozna annyit az új, mint amennyi elvárható lenne... Mert ugye több, egymástól jelentősen eltérő architektúrára megfelelően optimalizálni azért elég nagy meló és sok idő, ezt meg a kiadók nem nagyon nyelnék be. Na most az alacsony szintű API-kkal már kissé pont efelé tartunk, ahogy látom...
-
FLATRONW
őstag
Sajnos ezek után nem lesz az mint a Crysis esetén volt, hogy nem volt olyan gép ami viszi normálisan, de bíztunk abban hogy a jövőben lesz. Tehát ami most rosszul fog futni az a jövőben sem fog jobban futni vagy jóval több időt kellesz várni, hogy játszható szintet érjünk el.
-
Abu85
HÁZIGAZDA
Az eddigi játékok S.I.-re és C.I.-re lettek optimalizálva. Mostantól S.I.-re, C.I.-re és V.I.-re lesznek. Mint a PvsZ Garden Warfare.
A DX11-ben egyszerűen rossz helyen van az absztrakció szintje. Vagy lefelé, vagy felfelé menni kell, mert ez a szint teljesítményben és programozhatóságban is a legrosszabb. Kezdésnek a low-level irány került elő, mert a modellt a konzolokból ismerik a fejlesztők. A Mantle és a DX12 absztrakciós szintje megegyezik és egyben közel került a hardverhez. Az egy másik kérdés, hogy kellene-e egy magas szintű elérést, mert ez lehetséges, de senki sem foglalkozott még a kérdéssel. Azt ki kell itt emelni, hogy a Mantle és a DX12 nem old meg mindent. Ezek az API-k most a legfontosabb problémákra adnak választ, de vannak még gondok. Például a shading nyelv elavultsága.
-
TTomax
félisten
Felmerül bennem a kérdés eddig ugye az eddig elkészült játékok mante supporttal a GCN S.I.-re lettek optimalizálva,na most az ezután következőek pedig a GCN V.I.-re? És ha igen akkor az előző generáción nem fog menni rendesen,illetve lehet mindkettőre,vagy akár még többre is optimalizálni.Bár az a baj ezzel,hogy egy 2 éves játéknál SOHA nem fog megtörténni,és ezzel egy hatalmas fragmentációt indítottak el.Ugye annak idején pont emiatt lett kitalálva a DX,és terjedt is el,most meg hogy nem elég jó,nem ezt a vonalat kéne tolni tovább?Ez pontosan ugyanaz a kör mint amikor annak idején ki lett találva a dedikát vga,mert az jó,most meg megint minden vissza a prociba...
-
Abu85
HÁZIGAZDA
válasz
Dr. Akula #123 üzenetére
A GTA4 minden hardverrel így viselkedik, amit nem ismer fel. A -norestrictions szükséges. Ami miatt az újabb hardverekkel bajok vannak, hogy amelyik hardvert nem ismeri fel, arra alapból a max. grafikát adja rá a rejtett beállítások és megváltoztathatatlan grafikai opciók tekintetében. Az ismert hardverek között rengeteg a low grafikát kapja meg.
-
Abu85
HÁZIGAZDA
Akkor hogyan? Mert az MSAA egy must have követelménye a HairWorksnek. Enélkül spagetti lesz az egész hajból. A hajszálakkal tipikus gond, hogy nagyon picik, így megfelelő előmunka nélkül szinte lehetetlen a megfelelő sorrendű megjelenítése. Ezen az OIT+speckó AA vagy az MSAA segíthet. Na most az OIT+speckó AA egy igen drága compute dolog, ami például elviszi a TressFX számításigényének a felét. Az HairWorks esetében a haj leképzése már eleve ennyi idő, mint az egész TressFX számítás, tehát nincs meg a büdzsé az OIT+speckó AA-ra, mert nem futna semmin. Marad tehát az MSAA, mint must have igény, ha valami minőséget akarsz elérni.
-
Abu85
HÁZIGAZDA
A kompatibilitás miatt muszáj, hiszen a GameWorks eleve egy speciális dolog. Egy kész motorra effektet írni sokkal könnyebb, mint egy kész effektre motort írni. Utóbbi sok esetben lehetetlen, tehát a kompatibilitás megőrzése érdekében muszáj engedni a kód egyes részeinek módosítását.
Mivel mindenki az SDK megjelenésével kapja meg. Ennyi. Kiadják aztán nem kell kérni semmit, csak le kell tölteni az SDK-t és benne lesznek a specifikációk.
-
Loha
veterán
A licenc nem ér semmit. Mert nem módosítható a kód.
Rev Lebaredian (Nvidia): game developers with a source license are free to modify our GameWorks code.
Tehát módosítható a kód.A Mantle nyílt specifikációjú API. Az Intel már kérte.
Annyira nyílt, hogy az Intel hiába kérte, nem kapta meg, ha jól tudom.
-
Jack@l
veterán
válasz
pakriksz #111 üzenetére
Bakke, a negyedéves meg 1 évre vissszamenő negyedéves adatokból milyen hitkérdést akarsz csinálni? 4%-al rosszabb mint 1 éve, az azt megelőző negyedéven meg 5-el volt rosszabb, ebből jött a "nagy térhódítás" egy éppen jobban sikerült negyedévre rá. Kutya nem von le messzemenő következtetést 3 hónap eladásából.
Persze lehet mindenből hitkérdést formálni, csak nem kéne hülyének nézni...
Amúgy a köztes százalékokat nem is értettem mi alapján jött ki, valószínű a cikkíró se.
UI: jó lenne leszállni rólam mostmár -
Cathfaern
nagyúr
De itt nem az a probléma, hogy régi hardvereken nem fog elfutni az új játék. Ez eddig is így volt, ebben nincs semmi érdekes vagy különleges. A probléma az, hogy egy új VGA esetén elképzelhető, hogy arányaiban (a hardver teljesítményéhez képest) rosszabbul fog futni egy régi játék, mint a régi VGA-n. Jó eséllyel az új VGA nagyobb teljesítménye fedezi ezt, de előfordulhat olyan eset, hogy nem. Tegyük hozzá remélhetőleg ez arra ösztönzi majd a hardver gyártókat, hogy az új széria ne csak pár %-al legyen erősebb, mint a régi.
-
Sinesol
veterán
Épp ez az hogy a grafikus motor végez mindent, de gondolj bele ha egy uj jatekmotor kihasználja pl az Xboxban található 16 parancslistát, akkor mégis mire megy majd a régi gcn-ek 2 parancslistájával? És ez még csak a minimum mivel ps4-ben uj radeonokban, Kaveriben akár 32-64 parancslistát is képes kezelni a gpu, nembeszélve az uj utasitáskészletekről.
A megosztott memóriakezelést is csak az uj GCN C.I architektura tudja... Gondolom nem kell külön elmondani hogy az egész nextgen korszak alappillére megosztott memoriakezelés...
Nincs mivel ügyeskedni, mégis mit csináljon a grafikus motor ha egyszerűen hardveresen buta a regi cucc. Hogy irsz nextgen jatekot egy olyan gpu-ra ami nem tamogatja a megosztott memóriakezelést?Persze en sem hiszem hogy az lesz hogy uj game-uj vga. Gondolom a konzolokrol fogják portolni a dolgokat, és a dx12 is kb ugyanaz lesz mint a konzolok api-ja. Tehát alapjában véve a GCN C.I -re épül ez egész uj rendszer és mivel a konzolokban fixen benne van, így ez lesz a fő platform.
A konzol GCN C.I.-re elkészitik a játékot, ami menni fog PC-n is GCN C.I., vagy ujabb vga mellett simán, jó sebességgel.
A legtöbb studio simán amugyis csak portolja majd a jatekokat, vagy ha lesz is benne nehany új cucc, kb annyira lesznek létfontosságúak mint a Tresss-Fx.
A vga-k extra ereje meg arra lesz jó főleg, hogy menjen 60+ fpssel full hd felett is minden, ultrán is.Szóval aki vesz egy GCN C.I, vagy ujabb architekturájú kártyát az valószínűleg évekig meglesz vele. Viszont sok esély nincs rá hogy a regi GCN-el barki is vesződni akarna, egyszerűen hardveresen tul korai verzió.
Na persze a dx11 még eltart 1-2 évig, addig meg bőven jó a regi gcn is. De ha hosszutávra terveznék én már nem vennék régi gcn-t. -
LordX
veterán
Az összes ilyen hozzászólás ugyanaz a félinformációkból félrespekuláló eset. Egy informált ember nem írt ilyet.
Meg lehet nyugodni, minden el fog indulni, max "lassabb" lesz az optimalizálás miatt. Illetve még az se biztos, hogy a régi architektúrára az optimalizált kód rosszul fog futni az új architektúrán, egyrészt mert miért kéne (lengedezik egy olyan mítosz az optimalizálásról, hogy ha az egyik hardverre optimalizálok, akkor a másikon lassabb leszek, ez így konkrétan hülyeség az esetek 80+%-ában), másrészt meg a gyártó érdeke, hogy gyorsabb legyen, ha el akarja adni az újat. Marha nagy botrány lenne abból, hogy az új kártyán nem futnak dolgok, garantáltan senki nem fog ilyet meglépni.
-
flexxx2
őstag
-
LordX
veterán
Felejtse már mindenki el ezt a hülyeséget.
Az alacsony szintű API nem arról szól, hogy mostantól minden egyes grafkártya saját, másikkal inkompatibilis API-t kap, hanem arról, hogy az API nem akar 12875681276538531 dolgot csinálni az alapfeladatok mellett, hanem csak azt. A maradékot meg a grafikus motor fogja csinálni.
-
flexxx2
őstag
Azért én néha előveszem régi játékokat, főleg amikor ínséges idők vannak új játékokban.
Az "jó" lesz, ha egy 4 v. akárhány éves játék az új kártyámmal lassabban, és csúnyábban fog kinézni. Akár szaggathat is, mert annó fullhd-s monitorom volt, akkor meg akár 4k-s lesz. -
CybonTom
tag
Én nem értem, mire fel az a pánik, hogy jaj, új játékhoz új vidkártya... most komolyan, egy olyan játék fejlesztése, amiben ez a hiba/különbség előjönne, nem 1 évig tart (pld aaa-s játékok), hanem általában 2-3 évig minimum (vagy több), annyi idő alatt, pedig simán bele kerül a menet közben kijött újítások támogatása is, míg a régebbiek eleve benne lesznek, hiszen a játék még azokra íródik (a későbbi újítások által elérhető effekteket meg szimplán nem fogod bekapcsolni egy olyan játék esetében, amihez nem írták meg a szükséges optimalizációt, így nem is biztos, hogy észreveszel bármi teljesítmény csökkenést)... lehet, hogy lesznek tucat játékok, amiknél se pénz, se idő rá, hogy azokon megcsinálják, de az meg elenyésző módon fog csak jelentkezni szerintem... a low level hozzáférés jóval több előnyt fog hozni, mint amennyi hátrányt csinál...
-
Abu85
HÁZIGAZDA
A licenc nem ér semmit. Mert nem módosítható a kód. Enélkül is vissza lehet fejteni a forráskódot.
Nem izgatja már az Intelt a DX11. A DX12-re készülnek. Ott kellenek jó dokumentációk, hogy a fejlesztők tudjanak optimalizálni.
Bekapcsolhatod az Intel IGP-n csak lassú lesz.
A Mantle nyílt specifikációjú API. Az Intel már kérte. Amint lesz DX12 SDK béta ki lesz adva a Mantle SDK benne a specifikációval.
-
Loha
veterán
Akinek kell licenszelheti a forráskódot:
Many NVIDIA GameWorks components including tools, samples and binaries are freely available to all developers. For other binary or source code access please contact us at Game Works Licensing: VisualFX-Licensing@nvidia.com
Az Intel driverfejlesztési büdzséje nem azért kevés, mert nem futná többre, hanem mert nem tartják fontosnak a drivert, és a hosszú szoftveres támogatást, tehát nyilván nagyon izgatja őket a a GameWorks.
Vmi ilyesmi gyakorlati példát várnék, hogy: nem kapcsolhatom be a HBAO+ a Watch_Dogs-ban Intel HD4600-on, mert túl lassú a kód Intelen...minden zárt kezdeményezés megy a levesbe
Gondolom itt a Mantle-re gondoltál...Dr. Akula: "az Intel ezt a helyzetet meg fogja unni"
Akkor elnézést, az hittem, hogy a helyzet már jelen időben fennáll, és csak az unás fog bekövetkezni a jövőben... -
Abu85
HÁZIGAZDA
A GameWorks mindenkit szívat, hiszen nem teszi láthatóvá a forráskódot. Az Intel csak azért szív jobban, mert a driverfejlesztési büdzséjük töredéke annak, amit az AMD a szoftverbe belerak, tehát egyszerűen nincs meg a kapacitásuk ahhoz, hogy a D3D bájtkódot visszafejtsék (amit zárt kóddal is láthatnak már), majd egyedileg optimalizálják a shadert, amit driverben kicserélnek. Az ilyen munka esetleg egy évig is eltarthat, ha a játékban sok és hosszú zárt shader van (a GameWorks szándékosan 4000-6000 soros shadereket használ), ami az Intelnek már azt jelenti, hogy nem is érdemes ebbe belefogni, mert mire kész lesz az optimalizálás, addigra lejár a hardver mainline támogatása. Illetve erről az Intelnek zéró tapasztalata van, hiszen nem rendezkedtek be D3D bájtkód visszafejtésére, mert sosem volt rá szükségük.
Egyébként nem fog itt történni semmi gyártói NV-s kitiltás vagy ilyesmi. A DX12 megold egy csomó dolgot, szóval egy évig elvannak, aztán már itt az új API, és minden zárt kezdeményezés megy a levesbe. Az Intel arra fog koncentrálni, hogy a fejlesztőket meggyőzze arról, hogy a DX12 alacsony szintű kódot a saját hardvereikre szabják.
-
Loha
veterán
válasz
Dr. Akula #100 üzenetére
Ezzel elsősorban csak magát szívatná meg az Intel, mert felértékelődnének AMD APU-s gépek, a notebookgyártók meg visszaállnának a hardveres átkapcsolóra a jelenlegi szoftveres helyett, vagy csak a dGPU vezetnék ki.
Egyébként érdekelne egy konkrét példa, ahol a GameWorks az Intelt szívatja a gyakorlatban.
-
Dr. Akula
félisten
válasz
hugo chávez #91 üzenetére
Az Intel is meg tudja szívatni az Nvidiát, pl. "véletlenül" nem fog működni a videokártya átkapcsolás, onnantól az Nvidia elfelejtheti a notipiacot.
-
pakriksz
őstag
Tudom persze, amit te mondasz az tény, nem agyatlan fröcsögés, ellenben ha valaki nem ért veled egyet, az az
ott volt pár hete a cikk a +tizen százalékos amd növekedés, és nvidia csökkenésről. Ha a ph-n értelmes keresés lenne és nem csak 3 éves híreket találna még meg is lehetne keresni.De szerecsére a gugli még tud keresni: [link]
-
Abu85
HÁZIGAZDA
válasz
hugo chávez #91 üzenetére
Csak megvárják a DX12-t. Azután a legtöbb fejlesztő visszatér a régi "rakunk pénzt a PC-be vonalra", mert lesz értelme. Nem lesz útban egy elavult API. Innentől kezdve nem lesz túl sok értelme zárt kódokban utazni. Szóval ez automatikusan megoldja a helyzetet.
-
mikk2000
őstag
És igen, lassan visszajön a DOS korszak, amikor a játék elején ki lehetett választani hogy milyen grafikus kártyád van. A magasszintű programozás hátránya mindig a lassúság, meg ha valami gáz van a futtató környezettel, meg vagy lőve.
Itt az a fő kérdés, hogy egy újabb (generációs) kártya alatt az esetleges sebességcsökkenés ellenére gyorsabb lesz-e a mantle/DX12 játék, mintha mondjuk maradtak volna a DX10/11-nél.
-
AAAgold
senior tag
válasz
hugo chávez #91 üzenetére
"az Intel ezt a helyzetet meg fogja unni. Akkor vajon mi lesz,"
felvásárolják az NV-t
-
hugo chávez
aktív tag
"A GameWorks leginkább az Intelt szívatja, mert az ő hardvereiken fut messze a legrosszabbul az NV által írt kód, és az NV is tudja, hogy nincs erőforrásuk arra, hogy visszafejtsék, átírjanak a 4000-6000 soros shadereket. Egyszerűen nem rendezkedtek be erre."
Ahogy egyre erősödnek az IGP-ik és egyre több játék menne rajtuk elfogadhatóan, az Intel ezt a helyzetet meg fogja unni. Akkor vajon mi lesz, nekimennek az Nv-nek, vagy ráfekszenek a szoftveroldalra, esetleg mindkettő?
-
Goblin12
őstag
(#82) Goblin12: A CF/SLI-re most nem lehet értelmes támogatást csinálni. A Mantle-ben például van teljes QoS a gépben tárolt GPU-k működtetésére. Ha ezt átmentik más low-level API-k, akkor a multi-GPU új szintre emelkedhet.
Szóval akkor a multiGPU jelenleg azon áll vagy bukik, hogy kap e támogatást DX12-ben vagy nem? Mivel ahogy mondtad Mantleban benne van szóval mondjuk egy Thiefben egy R9 290X CF közel a dupplája teljesítményt nyújtja egy singl R9 290X-el szemben?
-
tatararpad
őstag
válasz
Dr. Akula #88 üzenetére
Hát, nézzük csak meg a szereplőket:
-AMD, mint a Mantlevel az egész szellemi atyja, jelenlegi konzolbeszállító: PIPA
-Microsoft, aki már az eladott konzolon is keres, százalékot kap a konzolos játékeladások után, ellenben a PC-vel: PIPA
Még meglátjuk mi sül ki a dologból, de könnyen megeshet, hogy a PC egy nagyon szűk réteg játékszere lesz ebben a körben, pont emiatt a hecehurca miatt. -
Dr. Akula
félisten
válasz
bbTamas77 #81 üzenetére
Kisebb fogyasztás 300+W-os csúcskártyáknál??
tatararpad:
Ez pc piacon nem nyerő stratégia, ha minden játékhoz másik kártya kell, akkor a júzer megunja és vesz konzolt, aztán majd pisloghatnak a VGA gyártók ki fogja megvenni a szajréjukat.TTomax:
Az MS-nek nyilván jó, mert VGA-t nem ad el, ellenben konzolt igen. Az Nvidiának 100% nem jó, mert neki meg konzolban nincs biznisze. Az AMD talán, bár ki tudja van-e annyi haszon a konzolcsipeken mint egy zsíros 100+k-s VGA-n. Egyedül az Intelt nem érdekli, se konzolban nem versenyez se komoly VGA-ban, aki őket választja, az nem gémer, neki mindegy. -
Abu85
HÁZIGAZDA
Csak elméleti választ tudok neked adni. Azt megadom. Lehetséges, hogy ha veszel egy új hardvert, az a low-level eléréssel bizonyos játékban nem fog annyit tudni, mint a régi. De ez nagyban függ a játéktól, a architektúrától, az új hardver sebességétől, stb. De lehetséges. Viszont szerintem is ad annyi előnyt a low-level elérés, hogy ez a fejlesztőket ne érdekelje túlzottan.
(#77) Duck663: A GameWorks leginkább az Intelt szívatja, mert az ő hardvereiken fut messze a legrosszabbul az NV által írt kód, és az NV is tudja, hogy nincs erőforrásuk arra, hogy visszafejtsék, átírjanak a 4000-6000 soros shadereket. Egyszerűen nem rendezkedtek be erre. Illetve eleve az Intel IGP-k terméktámogatási ciklusa annyira rövid, hogy egy játékra vonatkozóan nem fognak hozzá egy évig is eltartó optimalizálási munkának. Egyszerűen mire kész lesz a teljes optimalizálás, addigra megszűnik a hardver terméktámogatása. Szóval az Intel ellen ez a modell nagyon is ütőképes. Pont ott forgatja bennük a kést, ahol nincs rajtuk páncél. Illetve ez stratégia is. Még a sokkal lassabb GeForce-okat is érdemes berakni az Intel IGP-k mellé, mert a GameWorks játékokban ezek akkor is gyorsabbak, ha 3DMarkben csak feleannyi pontra képesek.
A fejlesztők többsége már döntött arról, hogy részt vesznek-e benne. Akik nagyon tehetősek és sok büdzséjük van a PC-re azok kimaradnak belőle, de akiknek szükségük van nagyon a pénzre azok részt vesznek benne.(#82) Goblin12: A CF/SLI-re most nem lehet értelmes támogatást csinálni. A Mantle-ben például van teljes QoS a gépben tárolt GPU-k működtetésére. Ha ezt átmentik más low-level API-k, akkor a multi-GPU új szintre emelkedhet.
-
TTomax
félisten
Konzol felé tolnak minket... MSnek is jó,AMDnek is...
-
Gainka
őstag
Maguk alatt vagjak a fat.
Mert igy majd sokan ugy lesznek vele mint is ha ez lesz hogy marad a regi vga regi jatek enyi. -
tatararpad
őstag
Az lesz mint most a processzoroknál: ha jön egy újabb processzordesign, vehetsz új alaplapot. Jön egy újabb játék, vegyél majd új kártyát is hozzá, jobb esetben ha minden effekttel játszani akarsz, rosszabb esetben egyáltalán ha játszani akarsz. Csak ne dobd ki a régit, ha valamikor játszani akarsz majd egy régebbi játékkal. Persze majd jön egy magas szintű API és megoldja a gondot, mint anno. A kapitalizmus kemény dolog ám, ha a cégek kipakolnak Kínából Vietnámba csakhogy 2 fillért spóroljanak, nekem nem lennének illúzióm itt az architektúrák széles körű támogatásáról
-
Goblin12
őstag
Ahogy olvastam ezt a cikket még1x, meg ezt itt mellé: Kutatják a fejlesztők a több GPU-s rendszerek kihasználhatóságát Teljesen ellentmond a kettő, azt akarják, hogy folyamatosan vegyünk újabb és újabb VGA-kat, de így nem lehet az Cross/SLI-re értelmes támogatást csinálni.
-
bbTamas77
aktív tag
válasz
Dr. Akula #78 üzenetére
AMD kártyái erősebbek, az Nvidia csak lightosabb terhelésnél hozza ugyanazt (vagy 1-2%-kal jobbat, hogy elmondhassa csakazértis első lett
Ez finoman fogalmazva sem így van.
Lehet papíron jobb az AMD, meg a csapból is lassan Mantle folyik, és a teszteken lévő százalékokban is lehet, hogy jobb (de ez szerintem nem igaz), de nekem stabil FPS és a stabil illesztőprogram, kisebb fogyasztás többet ér mint ezek.
Elég csak a GTX 680 esetét megemlíteni, vagy a GTX 750-t.
-
Goblin12
őstag
Ez már nekem annyira zavaros, hogy nem is tudom követni. . . bőven elég lesz ha kijön egy kacat leteszteli ka vga-kon amelyiken jobban fut azt kell megvenni. VAGY mind2 oldalról az aktuális csúcsot megvenni és cserélgetni a kettőt, vagy venni egy olyan lapot ahol fizikálisan kapcsolgathatóak a PCI-E sinek és belerakni mind2 vga-t és amelyik kell arra kapcsolsz.
-
tatararpad
őstag
Hát remélem akkor a drágalátos fejlesztők is jól dokumentálják majd a munkáikat, hogy ha már 3 év múlva neadjisten játszanék egy régebbi játékukkal de "nincs kapacitásuk" optimalizálni azt egy újabb architektúrára, akkor legyen legalább valami modder team aki ezt megteszi. Mert azért a fejlesztő sem magának dolgozik, ha a kiadó azt mondja hogy erre meg erre nem adok több keretet, akkor nem lesz megcsinálva. Nem vagyok jós de ilyen lesz dögivel szerintem. Kellett volna az API-ba egy magas szintű absztrakciós réteg is, aminél a gyártóknak esélye van optimalizálni ha a fejlesztő már tojik a játékra.
-
Dr. Akula
félisten
-
Duck663
őstag
Szerintem az nv féle lélegeztetés, csak ideig óráig működhet, ugyanis ott van egy Intel nevezetű kis vállalatocska, aki tojik erre, és gőzerővel fejleszti az iGPU-it, dedikáltakkal nem is foglalkozik. Ha pedig arról van szó a fejlesztők felé is elég jó kis tőkét ki tud tolni, hogy Fakeworks-öt (gameworks) felejtsék el. Optimalizáljanak, kutassanak... Az AMD-nek pedig ez is jó, dokumentált hardvereik vannak az iGPU-kkal meg előnyben vannak.
Ami meg "a fejlesztőknek megmondják hogy mit meg hogy", ezt vajon meddig fogják megengedni a fejlesztők? Mikor fogják azt mondani, hogy bocs... főképp ha az Intel is komolyan színre lép?
-
Abu85
HÁZIGAZDA
válasz
Dr. Akula #65 üzenetére
Szerintem ennek jóval mélyebb gyökere van. Már 2010-ben is látható volt, hogy a piac szűkülni fog. Az NV készített is egy tanulmányt, amiben saját maga vázolta fel, hogy a különálló gyorsítók idővel eltűnnek. Mivel ezt biztosan felismerték hamarabb, így lehet azért tenni, hogy ha egy piac már nem kap levegőt, akkor ráköthető legyen egy lélegeztető. Mesterséges beavatkozásokra mindig van lehetőség, és úgy gondolom, hogy a fejlesztőktől való elzárkózás egy lélegeztető. Az elzárkózás eleme a GameWorks, ami nem egy szimpla effektgyűjtemény, hanem az NV saját "mostantól én mondom meg, hogy milyen sebességgel futhat a játék" környezete. Nem véletlenül szállítják zártként, amihez a motort kell hozzáigazítani, mert a forráskódot csak felügyelet mellett lehet módosítani, csak jobb kompatibilitási céllal.
A lélegeztető pedig elkezd működni, és ha az NV azt mondja, hogy xy effekt olyan terhelést fejt ki, hogy csak 780-on fut, akkor azon fut. Ha a fejlesztő szerint ez nem igaz, akkor sem tud mit tenni a DLL-ekkel tarkított zárt SDK-val. Szimplán nincs lehetőség optimalizálni a kódot, a fejlesztők dokumentáció hiányában azt sem tudják hogyan kell Kepler és Maxwell architektúrákra optimalizálni. A legjobb amit tehetnek, hogy elhiszik azt, amit az NV mond. Még ha érzésre nagyon lassan fut, akkor sem tudod őket megcáfolni, mert nincs a birtokodban olyan eszköz (ISA/hardver dokumentáció és forráskód), hogy bizonyítsd az igazad.Most a háttérben a piaci kontroll áll. Mindenki kontrollálni akarja a VGA-k szegmensét, mert enélkül már nem éri meg. Az NV-nek van erről egy elképzelése, és ugyanúgy az AMD-nek is, hiszen pont úgy érinti őket ez a probléma, mint az NV-t. Az AMD csak más oldalról közelíti meg. Szerintük a PC problémája abból ered, hogy a kiadók lelőtték a kutatásokat, mert szimplán a PC-s szoftverkörnyezet nem felel meg ahhoz, hogy ide pénzt öljenek. Tehát az AMD elvi megoldása, hogy lecserélik a PC-s szoftverkörnyezetet és a kiadók számára újra reális terep lesz a PC a kutatási vonalon, akár PC exkluzív effektekkel, eljárásokkal, stb. Ez is egy lélegeztető, hiszen eladást fog generálni, mivel az új kutatásokat a gyors hardverekre alapozzák.
Végeredmény ugyanaz. Az NV megmondja, hogy az új saját effekt csak az új hardveren fut. Nem tudsz vele vitába szállni. Az AMD olyan effekteket akar, amelyek csak az új hardveren futnak. Nyilván stúdiószintű fejlesztés, tudod róla, hogy oda készítetted. Végeredményben tehát mindkét opcióval hardvert kell venni. Lehetőség szerint VGA-t.
(#74) Jack@l: A textúrák mérete a Garden Warfare játékban ugyanakkora, mint a Battlefield 4-ben. Persze a megfelelő beállításokkal, mert ez is változtatható. A poligonszám is kb. azonos.
Még egyszer mondom, hogy egy hardver nem nézi, hogy egy játék rajzfilmszerű dizájnt használ. Az adatokat dolgoz fel, és ennek tekintetében a Garden Warfare és a Battlefield 4 terhelése egységnyi jelenetbeli komplexitás mellett megegyezik. Az tök mindegy, hogy a tartalom milyen, ha a feldolgozásra váró adatok mérete megegyező, és az effektek is ugyanazok a két játékban. -
Jack@l
veterán
Aha, nyilván ha nem 5 rétegű anyagokkal dolgoznak, hanem valami tök egyszerű, kis felbontású rajzfilmes textúrákkal/modellekkel, akkor is ugyanúgy eszik az engine. Te ezt tényleg komolyan gondolod?
Azt hiszem itt fejeztem be az ezzel kapcsolatos nem kicsit népbutító diszkurzust. -
Abu85
HÁZIGAZDA
Igen erről beszélünk. Ennek a grafikája egy dizájn, és lényegében pont ugyanazt csinálja, mint a BF4, csak több adattal dolgozik. Illetve a Garden Warfare már a motornak a kezdetleges PBS verzióját kapta meg. Majd a Dragon Age Inquisition kapja meg teljesen ezt a fejlesztést.
A grafikai dizájnból sose indulj ki. Az egy döntés, és technikai szinten semmit sem változtat egy motor működésén. Márpedig a motor szempontjából lényegtelen, hogy realisztikus vagy rajzfilmszerű textúrákkal számol. A számítás maga ugyanaz lesz.
-
Jack@l
veterán
-
smkb
őstag
Na majd ha eljutsz egyszer addig, hogy valamit tényleg alacsony szinten programozz, akkor talán leesik a tantusz, hogy miről is van szó a cikkben. Nekem még volt szerencsém trident 8900 és wd paradise vgakat regiszter és megszakítás szinten gyepálni assemblyben, de sokat nyüstöltem őket az akkori dosos szabványos vesa2.0 apin keresztül is. Azért elég jól meg kellett küzdeni a vassal ahhoz akkoriban, hogy 640*480-ban egy zsírfolytonos parallax scrollt írj, és nem volt egyszerű bármilyen hw dokumentumhoz jutni, amikor még sehol nem volt a net.
Kár, hogy nem érted meg, hogy minél hw közelibb egy api, annál rögzítettebb a hw funkcionalitása, ha az apit nem akarjuk felette mozgatni. Ha egy program alatt a hw jobban teljesít egy szabványos apin, mint a gyártó sajátján, az azt jelzi, hogy a hw dizájn elmozdult a saját apitól, azaz nem azt tartja szem előtt. Aztán ebből már lehet követeztetéseket levonni.
Az meg külön vicc, hogy pont a BF4 fut rajta szarul, akiknek a fejlesztőivel az AMD együtt készítette a Mantlét
Pont ez a cég nem rendelkezett egy darab Tonga gpus vga példánnyal sem, hogy indulásra kiadhassanak egy pecset hogy ne legyen oltári nagy blama?
Lényeg, hogy erre sem áldozott az AMD, vagyis nagy ívben tojik a Mántlira már, nemi fogja ahhoz igazítani az architektúráját.
-
Dr. Akula
félisten
Majd ha elkezd mindenki AMD-re fejleszteni, akkor észbe kapnak hogy nekik is kéne doksit generálni. A bevételcsökkenés nagy úr.
Btw, nem tudod hogy a GTA5 pc-s verziója Radeonra lesz írva (ha már az összes nextgen konzolban is az van, logikus lenne), vagy ugyanúgy szopni fogunk vele mint a 4-nél?
-
Jack@l
veterán
Na jó, elég lesz mára a hülyítésből... Még mindig egy ilyen gagyi indie szintű játékról beszélünk:
https://www.youtube.com/watch?v=0c6Qd4Rck1o -
LordX
veterán
válasz
Blindmouse #61 üzenetére
Eléggé üldözésmániás felfogás, szerencsére nem ez van mögötte.
Egy Q9550 és egy i7-4770 között olyan 2x a különbség. Ha nem csúcsprocesszorokat nézed, még kisebb. Egy 2007-es, tökéletesen belőtt (se nem CPU, se nem GPU limites) játék ha 50% CPU-t használt grafikára eddig, és csakis és kizárólag a grafika változott akkor 2014-ben 3x több CPU időt tud használni (50% -> 150%). Ha 90%-ot, akkor csak 2,1x (90%->190%).
Egy 8800 GT és egy R9 290 között 4x-4,5x nyers teljesítménykülönbség van. A millió dolláros kérdés: 2x-3x több rendelkezésre álló processzoridővel hogyan tudsz 4x-4,5x több feladatot adni a grafkártyának?
-
Blindmouse
senior tag
Ha jól értem mivel nem sikerült előrébblépniük hardver terén az elmúlt három évben, és kb ugyanott topog a teljesítmény, és kb még egy 8800 Gt-vel is lehet játszani a mai játékokat és emiatt csökkentek az eladások...
Ezért csináltak egy alacsony szintű APIt amire majd "optimalizálják" a játékokat, cserébe vehetsz 1-2 évente új videókártyát, mert a régebbire nem lesz optimalizálva. -
"A fejlesztők szerint nagyon fontos lesz, hogy az új érában mindenki dokumentálja az architektúráit. A programozóknak pontosan tudniuk kell, hogy ezek mire képesek, hiszen csak így lehet rájuk optimális kódot írni. Amennyiben ez nincs meg, akkor nem tudnak bizonyos nem dokumentált architektúrákra optimalizálni, mert egyszerűen nem ismerik azok működését."
ebben a paragrafusban, ami egyébként igen erőltetetten kapcsolódik a cikkhez, név szerint valóban nincs megemlítve...
(#49) schawo: sajnos semmit...
-
Abu85
HÁZIGAZDA
A látványvilág egy dizájn döntés. Ettől még ugyanolyan elemekből áll, mint a BF4, és bizony több VRAM-ot és rendszermemóriát is eszik.
(#51) leviske: Töredezett nem lesz, mert a kompatibilitás garantált. Nem csak elméletben.
Áthozhatják a konzol kódjaikat, csak nagyon lassan fog futni az NV és Intel hardvereken. Az elméleti lehetőségeket nem feltétlenül kell követni. Ez alapvetően az MS ötlete, de számukra mindegy, hogy melyik hardvergyártó architektúrája domináns. A fejlesztőknek nem feltétlenül az. A piac érdekeit előnybe helyező fejlesztők biztosan átírják a kód kritikus részeit, hogy kedvezőbb legyen a PC ökoszisztémának.
(#54) Kotomicuki: Akár hiszed akár nem, van róla szó, hogy a low-level API-kra húznak egy high-level réteget. De előbb a low-level kérdést akarják megoldani a fejlesztők problémáival, aztán az onnan már kiegészíthető bármivel.
(#58) AAAgold: Anno 15 éve igen. Ma viszont túlkoros ez a modell. Mindenképp kell az új.
Több dolgot kell beírni a low-level API-val, de nem nehezebb, mert látható a teljes kód. Most az a gond, hogy ha lassú a kód, akkor hibakeresés helyett inkább érdemes újraírni. Nem lehet kideríteni a teljesítménygond okát, mert a driver túl sok mindent elrejt.(#60) gbors: Egyetlen általam megkérdezett fejlesztő sem tért ki hardvergyártókra. Nem is akartam belekeverni ezt egy elméleti dologba. De ha itt tartunk, akkor a Qualcomm sem dokumentálja a hardvereit. Ők is támogatják a DX12-t. Viszont a dokumentálás kell, mert senki sem tud ismeretlen működésű hardverekre optimalizálni low-level kódokat. Ez túlmegy az akarat problémáján. Még ha akarják sem képesek rá.
-
AAAgold
senior tag
"A GCN V.I. az fix, de ha írsz egy kódot PC-re, akkor annak még futnia kell a többi GCN-en, a Kepleren és alverzióin, a Maxwellen és annak alverzióin, illetve a különböző Intel IGP-ken. És ezt mind egy alacsony szintű elérésből."
pont emiatt volt directx, hogy sokkal könnyebben lehessen sokfajta kártyára kompatibilisen fejleszteni - nem?
ha kiiktatják a nagyfokú kompatibilitást, hogy gyors legyen, akkor viszont jön vele az, hogy sokkal többmindenre kell figyelni fejlesztés közben, ami idő és egyéb erőforrás - nomeg sok kicsi fincsi bugocska
-
haxiboy
veterán
Az API-re akarják fogni a fejlesztők hogy sz@rul írják meg a kódot??
-
-
Rebourne
aktív tag
A szoftver frissítését nem kötelezően a játékfejlesztőnek kell végeznie, ha third-party middleware-t (engine-t) használ, akkor jó eséllyel egy ideig licencelhet frissítéseket is - amiket a middleware fejlesztője különben is elkészít, ha versenyképes akar maradni.
Ennek igazából az lesz az eredménye, hogy többe fog kerülni a saját engine, kevesebb stúdió engedheti meg magának, és a middleware-k több hangsúlyt kapnak. Ez a közepes nagyságú stúdiókat sújtja majd jobban, a kicsik úgyis Unity-t, Unreal-t, vagy valami hasonlót használnak már most, a nagyok (EA, Activision) meg több enginet is fejlesztenek maguknak.
Szóval lesznek változások, de ez elsősorban a fejlesztőket érinti, és a legtöbb játékfejlesztőnek lesz megoldása rá. A 30-40%-os lassulás az nonszensz.
-
Kotomicuki
senior tag
Akkor most majd egy magas szintű API-t is fejleszteni kell, hogy az alacsony szintű API(-k) által keltett zűrzavart orvosolni lehessen - és ezzel nagyjából uo tartanánk, majdan, mint most?!
Mégiscsak le kellene cserélni a PC gyors részeit összekötő, lassú elemeket, mert azzal mégsem keletkezne ekkora káosz és a teljesítménynövekedés is meg volna oldva - egy ideig...
-
leviske
veterán
Magyarán hosszú távon ez még komolyabb töredezettséget fog okozni a piacon, mint ami Android vonalon jelen van? Az tényleg frankó lesz, ha majd egy 2016-os kártyán nem fog futni normálisan egy 2013-as játék, mert már nem érkeznek hozzá patch-ek, de majd a 2013-as kártyán se futnak majd a 2016-os játékok, mert "milyen ósdi változata az adott architektura vonalnak".
Eddig arról volt szó, hogy a fejlesztők majd jól áthozzák a konzolos kódjaikat PC-re, most meg már ott tartunk, hogy ilyen problémák jönnek majd még "generációkon" belül is?
Remélem, hogy ez csak a 2011-es és 2013-as (konzol) GCN variáns különbségeiből fakad és nem lesz általános a későbbiekben, mert más esetben tényleg még a végén kiderül, hogy járhatóbb út az nVidia-féle GameWorks.
-
Abu85
HÁZIGAZDA
Meg sincs említve a hírben az NVIDIA.
(#35) Duck663: Semmi. Az elméleti lehetőség adott, és nem nehéz. A gyakorlatban a fejlesztők múlik.
(#37) Rojik: Két éves távlat elég nagy, és általában a fejhasználók úgy váltanak, hogy legalább 40%-kal gyorsabbat vesznek. Tehát normál fejlesztési ciklusok mellett mindenképp gyorsulás lesz. Azok számíthatnak lassulásokra az új érában, akik évente négyszer is cserélnek. A tipikus hardcore réteg.
(#42) Jack@l: A Garden Warfare memóriaigénye nagyobb a BF4-énél.
-
kezdenek ezek a cikkek a jó öreg Cato szónoklataira emlékezni. mindegy, hogy miről beszélt, a végén mindig odaszúrta, hogy Karthagónak pusztulnia kellene.
ezen konkrét esetben ez most egy kicsit ügyetlenül fest - végül is a cikk egy olyan kapitális PR-baklövésről szól, ami még az AMD-től is váratlan. nem lehetne legalább ez egyszer nem ekézni az nVidiát? -
pakriksz
őstag
rosszul érted. kevésbé fog jobb teljesítménnyel futni, mintha optimalizálták volna rá a játékot. 2x olyan gyors kártyány nem fog lassabban futni mint az előzőn, csak nem 2x olyan gyorsan hanem csak másfélszer olyan gyorsan. Ha optimalizálják akkor meg 2x olyan gyorsan fog.
-
Akkor, ha jól értem, ha veszek 2 év múlva egy Videókártyát és mellé egy DX12-es játékot. Ha rá 2 évre lecserélem a kártyámat nem fog a nagyobb teljesítményre képes kártyán gyorsabban futni a játék, mivel változik az architerktúra? De persze ha akkor veszek egy játékot, akkor az a játék jobban fog futni, mint a régi kártyán futott volna?
Valamint, ha én 5 évvel később előveszem a már 5 éve megjelent DX12-es játékot 100%, hogy el fog indulni a gépen?
Remélem érthető, hogy mit akartam kérdezni.
-
Duck663
őstag
"Bár amelyik architektúra már megjelent és jól dokumentált, arra gyorsan lehet optimalizálni."
És mi a garancia, hogy meg is fogják tenni? A legtöbb fejlesztő sz@rik bele a hibajavításokba az eladások után, a Batman Origin fejlesztői mit mondtak? Hogy a DLC-kkel foglalkoznak, nem a hibajavításokkal az Codemasters 1 éve ígérte hogy portolják a kihaló GfW-os játékkaikat Steamre, a Dirt3-at mindenképpen, azóta is sz@rnak bele, a CM fórumán már nem is reagálnak rá. Nem is tudom ezek után valahogy vannak kétségeim, hogy a fejlesztők miután megvették a juzerek a játékot még bármennyire is foglalkoznak majd az újabb generációkkal, hiszen ha a hardver megfelelő, futni úgy is fut fog, futni meg majd fut ahogy.
És megint a juzer szív.
-
TTomax
félisten
Azt nekem elég nehéz elhinni,hogy nem volt egy tesztpéldány a DICE-nak és nem tudtak egy patchet készíteni a 285 rajtjára,főleg hogy gaming evolved játék...
-
Abu85
HÁZIGAZDA
Régen egy picit más volt. Ott még a Glide egyes verziói sem voltak teljesen kompatibilisek. Ezért volt nagy átállás az általános API-kra.
Ma azért történik az átállás, mert az elmúlt 10 évben bevetett hatékonyságnövelő DirectX újításokból semmi sem működött. Ezért lesz a következő általános API, vagyis a DirectX 12 low-level. Kvázi ugyanazokat a megoldásokat hordozza magában, mint a Mantle. És ugyanazok is lesznek a problémái.
-
pakriksz
őstag
A glide (ami ugyan ilyen low level api volt) azért tűnt el, mert maga az azt használó cég tűnt el (3dfx)... de amíg volt mindíg az volt a legjobb választás, annyira hogy ma is van glide emulátor, mert egy csomó akkori játék ebben a módban futott a legjobban, és így nézett ki a legjobban.
És az optimalizációval de főleg a debuggal manapság többet kell foglalkozni, ugyan is amikor valami gáz dolog történik, alig lehet kideríteni hogy mi az, ha kideríted akkor is lehet hogy nem tudod befolyásolni, mert játékfejlesztőként sem a directx-be, se a gpu driverbe nem tudsz belenyúlni. Low level api-nál ilyenre kicsi az esély, könnyebb debugolni, és ha valami nem jó, akkor te cseszted el, de ezen könnyen lehet javítani.
Tudod gyakorlatilag a 2000-es évek elejéig hasonló programozás volt a divat mint ami a low level apikkal lesz. És valahogy én úgy emlékszem, hogy az akkori játékok éppen a maiak ellentétei voltak... mindent kihoztak a gépből amit lehetett. -
arn
félisten
Most irhatnam, hogy ez mennyire amds dolog... De a gaz az lesz, hogy a fejlesztok celjanak annak kellene lennie, hogy a piacon levo hwek nagy reszen megfeleloen fusson. Ha most az egyiken hulladek lesz, akkor kenytelenek lesznek vagy lejjebb skalazni a dolgokat, vagy tobbet foglalkozni vagy az optimalizacioval, vagy a testreszabassal, hogy eladhato legyen a jatek. Szep uj vilag... Mar egyszer volt ilyen kor a gyorsitos vilagban, kiutessel gyozott az altalanos api.
-
Abu85
HÁZIGAZDA
Ha az alacsony szintű kód optimalizálásakor nem vették figyelembe azt az architektúrát, ami épp neked van (és mázlid sincs), akkor igen, a meglévő architektúrád is "büntit" fog kapni. Bár amelyik architektúra már megjelent és jól dokumentált, arra gyorsan lehet optimalizálni.
A hardverek elavulása mindenképp felgyorsul. Elsősorban azért, mert azt az R&D büdzsét, amit pár éve minden kiadó megszüntetett a PC-vel kapcsolatban hamarosan visszarakják a piacba, mivel a low-level API kiszámítható. Ez fel fogja gyorsítani azoknak az új hardveres képességeknek a kiaknázását, amelyek csak úgy hirtelen bevetődnek a semmiből. Akár day0 szinten is lehetséges, hogy egy játék egy új hardverrel együtt érkezzen és egy effektje használja a hardver egy új képességét.
Írd nyugodtan. Jó gondolat volt.
-
saelin
veterán
válasz
VaniliásRönk #24 üzenetére
Gondolom nem a casual gamereket vette alapul és az átlag pistákat, hanem akik komolyabban játszanak.
-
Sinesol
veterán
Akkor ez kvázi felgyorsitja a hardverek elavulását?
Ha pl van egy 280x-em, a dx12-re meg például egy a Tonga utáni gpu-ra optimalizalt jatek jön ki, akkor hiaba van egy elvileg erös vga-m ami gcn-es, mindenképpen döcögni fog a program az optimalizacio hianya miatt?Gondolom a fejlesztök az aktualis architekturara fognak fejleszteni mindig. Mindez ahhoz vezethet majd hogy nyers erőtől függetlenül, cserélgessük gyakrabban a vga-kat mert hiaba erős a regi ha nincs benne egy uj feature.
Ezt nem kritikanak szanom egyébként, csak igy eszembe jutott.
A vga - piac szempontjabol igencsak érdekes -
VaniliásRönk
nagyúr
"Manapság a PC-s játékosok számára teljesen világos, hogy az alacsony szintű hardverelérést biztosító grafikus API-k jelentik a jövőt..."
Ezer medvebocs és anyamedve, de a legtöbb PC-s játékosnak lövése sincs erről az egész felhajtásról.
-
pakriksz
őstag
Annyi a történet üzenete hogy agyhalott fanboyként a cikket igazából el sem olvastad, csak már habzik a szájad, kihasználod az alkalmat a gyűlölt ellenség ócsárlására. Pedig ez nem csak a mantle-ről szól hanem a dx12-ről, is ugyan az lesz a probléma azzal is.
De nem olyan nagy probléma mivel ezt a lassúságot úgy kell érteni hogy 20-30%-al lassabb lesz mint ha arra az architektúrára optimalizálnák a low level elérést. Tehát ha az ember vesz egy 20-30%-al gyorsabb kártyát mint ami van, és arra nincs optimalizálva a low level elérés. Akkor úgy úgy fog futni a játék mint az előző kártyán. De ha 60%-al gyorsabb kártyát vesz, akkor már gyorsabb lesz 30-40%... ha a játékfejlesztő kiad egy patchet az új hardverre akkor már meg lesz a 60%.
Nem újdonság ez, pl a sok éves dx-re írt játékoknál is előfordulnak az új hardverből adódó teljesítményproblémák.
-
Abu85
HÁZIGAZDA
A DX12 pont ugyanazon az absztrakciós szinten van ahol a Mantle. Vagyis, ami a Mantle esetében probléma az pont ugyanúgy probléma lesz a DX12-vel is.
A DX12 driver is csak egy shader futtatását lehetővé tevő réteg. Minden más, ami korábban a driverben volt a DX12-vel is bekerül az alkalmazásba. Kisarkítva ezt az alkalmazás válik egy általános driverré.(#18) Sinesol: Nem. A DX12-vel és a Mantle-lel eltűnnek a profilozások. Mindent az alkalmazás fejlesztője ír bele a programkódba. Ahogy az működik úgy működik mindenen. Ha rosszul működik, akkor csak az alkalmazás fejlesztője lesz képes javítani.
(#9) adamssss:
-
Sinesol
veterán
Igen jó az út, az egyértelmű, csak az a 20 -30 százaelék elég soknak tünik.
Az kb annyit jelenthet, hogy egy uj architektura erkezesekor az uj top gpu az elözö gen közepkategoriat fogja hozni, ami elég csunyán mutat majd a tesztekben. Ha meg az ujabb gen-hez igazitjak az api-t akkor a regi lesz rossz.
Vagy esetleg ugy lesz megoldva hogy az api-n belül külön profilok lesznek az elterő architekturakhoz?
Vagy magukhoz a jatekokhoz is külön profilok lesznek?Viszont ha "szétprofilozzák" az egész api-t az nem lesz egy idő után nagyon nagy terhelés a programozóknak?
-
Abu85
HÁZIGAZDA
Azt kihangsúlyozta mindenki, akit megkérdeztem, hogy a kompatibilitás biztosított. Tehát ha jön egy nulláról fejlesztett új architektúra, akkor az is működni fog. A low-level kód miatt viszont lehetséges a teljesítménycsökkenés. Én erre 20-30%-ot kaptam maximum. És ez szerintem is abszolút reális, bár feladatfüggő. Viszont mindenki úgy látja, hogy a low-level elérés így is előnyös, mert kedvezőbb a hardverkihasználás.
Azt nem írtam bele, de a DX11 nem azért nem jó, mert magas szintű API, hanem azért mert a megfogalmazás szerint az absztrakció szintje túl magasan van ahhoz, hogy gyors legyen, de túl alacsonyan ahhoz, hogy hatékonyan lehessen programozni. A Nixxes szerint ez a legrosszabb kombináció, ami létezik. Innen muszáj elmozdulni.
-
smkb
őstag
Ez előre borítékolható volt. Halvaszületett dolog volt az egész Mantle. Ilyen az alacsonyszintű api. Ezért nem kódol senki már assemblyben, csak a demo scene tagok. Mivel a Mantle AMD saját apija a saját vasai fölé, így az ő dolga lenne, hogy a saját apijára írt kód jól fusson a saját vasán. Amennyiben nem, akkor meg üvölt a dologról, hogy nem is cél az AMD-nél, hogy a Mantle-ra lőjön, az csak egy marketingmaszlag volt, hülyíteni a népet.
Másrészt nem kellene az AMD szaros gatyáját mosni a DX12 sárba lehúzásával. A DX12 egy szabvány api lesz, az OS szerves része, ami alá minden gyártó a saját terméke és a DX12 közti köztes réteget írja, illetve ahhoz tervezi eleve a gput.
A fentiek fényében szimplán arról van szó,hogy az AMD-nél a Mantle nem volt más mint egy parasztvakító tákolmány az épp aktuális GCN architektúrájú gpukra marketing céllal,de nem koncepció, így nem is követik már, és egyáltalán nem a Mantle irányra lőnek, nem is cél hogy az új modellek frankón megfeleljenek a Mantle igényeinek, hanem a DX11.2/DX12 vonalnak.
Ennyi a történet üzenete.
Még inkább előjön, hogy ki lenne az a hülye nem lefizetett fejlesztő aki ennyi energiát fecceljen egy apiba, hogy minden egyes vga modellhez külön reszelgessen a kódon, miközben ott a szabvány DX11 és jön a DX12.
-
Sinesol
veterán
Bizonyos szempontbol nézve a dx12 es a mantle is hatraltato tenyezö lehet hosszu tavon.
Mi van akkor ha egy architekturan elérik a határokat, nem skalazhato tovabb? Egyáltalán ki mer majd komolyabb fejlesztésekbe belevagni egy low level api mellett, amikor boritékolható hogy barmit raknak bele gyengebb lesz a teszteken....
Hiaba jön egy sokkal fejlettebb architektura egyszerűen a low level api miatt lassabb lesz mint az elavult régi?A Tonga nagyon jo példa, sokkal fejlettebb a piacon levö megoldasoknál és az elavult, de univerzális Dx11 mellett gyorsabb mint a low level Mantle alatt.
Ha a gcn verziok miatt is ekkora gond van, akkor mi lesz ha esetleg valami teljesen uj architektura lesz?Ott a példa, Xbox One melé is raknak a gépbe egy 360as hardvert, mert egyszerűen lehetetlen futtatni a regi apira irt jatekokat az uj api-n.
Meg ha ennyire gcn orientalt az összes low level api, akkor nemsok tér lesz az architekturalis fejlesztesre, ráadásul külön optimalizalni is kell minden ujitasnal.
Fejlesztöket megértem hogy nem aggodnak, nekik az a lenyeg vedd az ujat...
-
Abu85
HÁZIGAZDA
A GCN V.I. az fix, de ha írsz egy kódot PC-re, akkor annak még futnia kell a többi GCN-en, a Kepleren és alverzióin, a Maxwellen és annak alverzióin, illetve a különböző Intel IGP-ken. És ezt mind egy alacsony szintű elérésből.
A Qualcomm sem dokumentálja a hardvereit. Az NV csak azért pofozzák a fejlesztők, mert ők régebben megtették, illetve PC-n ez szokás volt. Ma már nem teszik meg. De nem ők az egyetlenek. Ma az AMD, az Intel, az ARM és a Broadcom dokumentál. A többiek nem igazán. Szóval ez felhívás mindenkinek.
Most az SLI/CF mindegy. Az egy másik történet, ott is lesznek bajok, de az független ezektől. Arról van szó, hogy a konzolban mindenkinek ugyanaz a hardvere, míg a PC-n ez nem igaz. Egy csomó gyártó csinál GPU-t, és azokon is jól kell futnia a low-level kódnak.
-
Goblin12
őstag
Üdv,
Teljesen egyértelmű, hogy alacsony szintű eléréssel sokkal egyszerűbb egy fix hardvert célozni a konzolokban, míg sok PC-s konfigurációnál szimplán nincsenek konkrét elemzések több architektúra hatékony programozásáról. A GCN V.I nem FIX?
Maga az architektúra az gondolom fix, és nem az számít, hgy msot r7 270 vagy r9 290x vagy tévednék?
A fejlesztők szerint nagyon fontos lesz, hogy az új érában mindenki dokumentálja az architektúráit. A programozóknak pontosan tudniuk kell, hogy ezek mire képesek, hiszen csak így lehet rájuk optimális kódot írni. Amennyiben ez nincs meg, akkor nem tudnak bizonyos nem dokumentált architektúrákra optimalizálni, mert egyszerűen nem ismerik azok működését. Ez eddig is fennálló jelenség volt, gondolom itt kifejezetten az NV-ről van szó.
a több hardveren futtatható alacsony szintű elérés teljesen új terep Ez most pl. SLI/CF vagy új architektúrára épülő hardwarere utal? A probléma csupán az, hogy még senkinek nincs elég tapasztalata ezzel kapcsolatban, tehát a kutatások a fenti jelenség enyhítésére vonatkozóan csak most indulnak be. Ezzel a mondattal hozzá nekem nagyon SLI/CF szagú a dolog.
Jó irányba halad ez a sok fejlesztés, nagyon tetszik.
-
Abu85
HÁZIGAZDA
Azért kapott a Battlefiled 4 egy memóriafigyelőt, hogy lekérdezhesd, hogy a játék mennyi memóriát használ. Én csak az MSAA-t kapcsoltam ki, és semmi anomália nincs 270X-szel, a memóriafigyelő 2 GB környéki használatot ír. Single-ben kétszer, multiban háromszor gyorsabb a DX11 kódhoz képest.
A Thiefet csak most kezdtem el (időhiány, ez van). Azzal SSAA nélkül szintén semmi gond. Sokkal jobban fut.
A Tonga ugyanezekkel a beállításokkal nem olyan gyors, mint a 270X. Picit lassabb nála.
A PvsZ: Garden Warfare esetében semmi gond, az jól műxik mindennel, bár az eléggé speckó játék. -
En csak arra gondoltam h amikor 7870-em vol es utana lett egy 280-om 3 gb-al akkor minden anomalia megszunt a mantle-al. Es errol nagyon sokan beszamoltak a Thief hazai es kulfoldi topikjaiban. Persze lehet h most mas a hiba forrasa, de lehet h a memoria meret is kozbeszolhat bizonyos esetekben.
-
Abu85
HÁZIGAZDA
A memória itt és máshol sem számít, mert ahhoz beállítható a grafika. Itt azzal van a gond, hogy a motorban a memóriakezelést rászabták a GCN S.I./C.I.-re, de nem szabták rá a V.I.-re. Például ott a PvsZ: Garden Warfare, nincs semmi gondja, mert amikor azt írták már volt GCN V.I. mintájuk a fejlesztőknek. A BF4 ebből a szempontból egyszerű, mert csak vissza kell portolni a játékba a PvsZ backendjét.
-
Lehet kenni a dolgot az api-ra de itt az amd-vel van a baj. Nem 2gb-al kellett volna kiadni a 285-ot es akkor nem lenne problema. A 7xxx-es szeria tagjai is csak 2 gb folott profitaltak a Mantle-bol.
-
bbTamas77
aktív tag
Ez nem megoldás, egy több éves játékhoz nem lesz javítócsomag.
Nagyon hallgatnak arról, mi lesz ha kijön egy teljesen új architektúra és mi lesz akkor.
Nem hiszem, hogy csupán 20-30%-os sebesség csökkenésről lesz itt szó.
Nem fognak a fejlesztők minden architektúrát kitanulni, szerintem ha kettőt akkor már sokat mondtam.
-
saelin
veterán
Ha csak fps-t veszít a játékban és elfut, akkor szvsz nincs baj, mert egy patch megoldja. A baj ott jön elő, hogy ha egy low level api-s játék már több éve kint van és nincs hozzá már support... De az ilyen játékokat a gog meg felkarolja és belenyúl úgy, hogy az új hw-eken is elinduljon. Nem látom a problémát, ez eddig is így volt.
Új hozzászólás Aktív témák
- Asus Dual GeForce GTX 1650 OC Edition 4GB Garanciával!
- 3x ASUS Turbo RTX 2080 Ti (11 GB) / Frissen pasztázva / Igény esetén + EKWB vízesblokk.
- Asus RTX 3050 8GB /Jótállással!/Dobozos!/Posta ok!
- PowerColor Red Devil RX6700 XT 12GB eladó
- Gigabyte GTX 260 OC 896MB GDDR3 448 bit PCI-E videokártya -- augusztus 15.-ig jegelve!
- Fujitsu USB Port Replicator PR09 docking station (1x5K vagy 2x4K felbontás) (DisplayLink)
- HP ZBook Studio 8 WorkStation i7-11850H 16GB 256GB Nvidia Quadro T1200 15.6" FHD IPS 1 év garancia
- Akciós Windows 10 pro + Office 2019 professional plus csomag AZONNALI SZÁLLÍTÁS
- HIBÁTLAN iPhone 14 Pro Max 256GB Silver -1 ÉV GARANCIA - Kártyafüggetlen, MS3147
- Bomba ár! Dell Latitude 5490 - i5-8GEN I 8GB I 256GB SSD I 14" HD I HDMI I Cam I W10 I Gari!
Állásajánlatok
Cég: FOTC
Város: Budapest