-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
nonsen5e
veterán
Mentve, 10 év múlva ha írok jöhet a 3 luxus Ferrari a házam elé.

Én személy szerint hiszek benne, hogy a Mantle elindított egy új utat, és ha nem is idén, nem is jövőre, de meg fogjuk látni az eredményét az egész új rendszernek. Ami játék támogatja már lehet látni a változást, az más kérdés, hogy kevesen építenek rá.
-
Crytek
nagyúr
Az a baj ,hogy felesleges ez a szájkaréta ami itt megy.
Bárkivel bármibe fogadok hogy az elkövetkezendő 10 évbe semmi nem fog változni. Ugyanúgy ömlenek majd a ps2 kinézetű (semmi nem indokolja a gépigényt) NASA gépen is akadozó **arok csak MERT azért. Minden másra ott a konzol akinek nem tetszik nem veszi tangára! -
Abu85
HÁZIGAZDA
Te is pontosan tudod, hogy a programfejlesztés elmélete mennyiben különbözik a gyakorlattól. És itt jön elő az anyagiak problémája. Természetesen az egész levezethető egy elméleti alapon, hogy bizonyos, alapvető optimalizálással nem elérhető, de igazából szabad erőforrások hozzáférése mennyi munkaórát, pénzt, programozót igényel. Erre bárki képes, aki tapasztalt a modern játékfejlesztésben. És mivel jutunk előrébb, akkor, ha kiderül, hogy tudnak +10%-nyi erőforrást nyerni, ha még egy évet optimalizálnak? Maximum az EA engedheti meg magának, hogy erre pénzt áldozzanak, mert őszintén szólva +10%-ért baromira nem éri meg belekezdeni.
Ha a Nitrousból való ábrákat felhoztad, akkor érdemes kiemelni, hogy ez egy három éves fejlesztés. Három év alatt jutott el oda a motor, hogy DX alatt az erőforrásokat úgy kihasználja, ahogy a képen van. Ezzel szemben a Mantle erőforrás-kihasználása hat hetes munka eredménye volt akkor. Tehát mit is várunk tőlük? Hány évet öljenek még bele az optimalizálásba? Ha egy kiadó lenne a hátuk mögött, aki időpontra kérné a programot, még ilyen kihasználást sem érhettek volna el, mert nem engedték volna őket három évig dolgozni. Egyedül Brad Wardell fanatizmusának köszönhetik, hogy minderre meglett az anyagi lehetőségük. Valljuk be a mai világban nem sok Brad Wardell szaladgál, inkább Bobby Kotick kaliberű cégvezetők vannak a szoftveriparban. És amíg ez az egész egy nagy üzlet lesz, addig nem fog ez a felállás megváltozni. Bobby Kotick is azt fogja nézni, hogy a low-level kóddal ötödannyi erőforrást sem kell befektetnie, kellenek a halálnak a pénznyelő API-k. Mostantól még olcsóbb lehet a következő Call of Duty, hurrá.Nem kell ahhoz várni, hogy meglásd mennyit fog fejlődni az AI. Csak elő kell kapni pár konzol exkluzív játékot. Ezeknél már rég túlléptek a PC-s szinten.
-
(@HSM: elég komoly a különbség, az alábbiak miatt: )
érdemes lenne a fogalmakat rendbetenni. ha fizikailag nem elérhető az erőforrás (mert valaki lockolta), az egy dolog, ott sok mindent nem lehet tenni. viszont ha "csak" arról van szó, hogy van esély arra, hogy összeakadjon a program a driverrel, akkor ez az esély (nevezzük kockázatnak) számszerűsíthető - mind az összeakadás valószínűsége, mind a hatása (ie. mennyi időt veszít az ütköző processz). sőt, még hierarchizálni is lehet - mennyi az esélye az ütközésnek 1 szálon, 2 szálon, stb. ebből fel lehet építeni egy modellt, amiből kiesik, hogy mennyi CPU-időt érdemes "feláldozni" a driver számára a beakadások minél nagyobb részének elkerülése érdekében (mert ugye Windows-on 100%-os elkerülésről eleve nem beszélhetünk). ez az engine (és részegységei) toleranciájától legalább annyira függ, mint a szóban forgó drivertől - más szóval, nem törvényszerű, hogy a valamelyik lenti ábrán kisraffozott erőforrás senki számára semmilyen célra nem hozzáférhető.
időzítés tekintetében: vélelmezem, hogy csak az utóbbi időben jutottak el odáig a különféle cégek fejlesztői (és nem feltétlen mindenki), hogy már több magot is odadobnak a drivernek. az biztos, hogy a 2013-as Crysis 3 még úgy tekerte az akkori 2500K-m mind a 4 magját, mint a szél. szóval továbbra is marad nyitva a kérdés, hogy 2007-ben mi más okuk lehetett a fejlesztőknek / kiadóknak az AI hanyagolására, mint a spórolás és / vagy a valós user igények hiánya

amúgy meg lehet nézni a kérdést a másik irányból is - lássuk meg, hogy a low level API-k elterjedése után mennyire fog fejlődni az AI. nagy összegben mernék fogadni, hogy néhány lelkes próbálkozáson túl csak kisebb inkrementális előrelépések lesznek. a fizikára több esélyt látok.
-
Abu85
HÁZIGAZDA
Pont ez a baj, amit leírsz. A driver önmagában nem félelmetesen sok processzoridőt, viszont a kiszámíthatatlan működésével hozzáférhetetlenné teszi azt. Ha optimális lenne a driver processzorkihasználása, akkor nem kellenének új API-k, mert elveszi magának az erőforrást, és amit nem használ az csak úgy elérhető lenne. Mindenki boldog lenne egy ilyen modellel, csak nem ez történik, hanem elveszi az erőforrást és ennek következményeként hozzáférhetetlenné tesz még egy csomó processzoridőt, amin valóban kimutathatóan nem csinál semmit, csak ettől még ez a processzoridő nem lesz elérhető a programnak. Lásd a korábbi slide-ok.
Maga a rendszer black box jellege kiszámíthatatlanná teszi az egész feldolgozást, programozóként nem leszel ura a hardvernek, és így pedig borzasztóan nehéz elvárni a stúdióktól, hogy újítsanak.
-
HSM
félisten
Én nem látok itt ellentmondást. Ott az erőforrás, de nem tudod használni, mert összeakadsz a driverrel és rossz lesz az eredmény.

Tehát a driver elveszi az erőforrást, hiszen fenn kell neki tartani, tehát nem férsz hozzá, nem tudod használni.
Tehát a jelenlegi modell rossz hatékonyságú emiatt. Ráadásul ott van még az API overhead-je is. -
gondolom, nem szándékosan, de ezzel a hozzászólással némileg felülírtad a korábbi érvelésedet. eddig az volt a mondásod, hogy a driver elveszi az erőforrásokat, és a programok nem férnek hozzá - itt most ez arra módosult, hogy a driver CPU-használata kiszámíthatlan, és ezért a fejlesztők félnek hozzányúlni a CPU-erőforrás egy bizonyos részéhez, mert benne van a pakliban, hogy ütköznek a driverrel, és kontrollálhatatlan belassulások keletkeznek. maradjunk ennél a verziónál?

-
Abu85
HÁZIGAZDA
Az erőforrás tényleges elzárásához nagyon ritkán nyúlnak a mai driverek. Profil nélküli játéknál nem is alkalmazzák.
De az elzárás nem is szükséges ahhoz, hogy gond legyen. Önmagában az is baj, hogy a driver feladatai szimplán futnak a program mellett. 2006-ban már készültek olyan driverek, amelyek 2 szálat is futtattak és ma az 5-7 szál az általános. A fejlesztőknek ezzel az a baja, hogy ha még nem is zárják el az erőforrást, akkor is összeakadnak a programszálakkal, és a driver annyira feketedoboz jellegű rendszer, hogy semmilyen lehetőség nincs a működését normális keretek között kontrollálni.
Ezért alakult ki az az igény az új API-knál, hogy ne legyen kernel driver. A DX12-ben ugyan lesz, de az csak egy fail-safe dolog, vagyis csak azt biztosítja, hogy a program lefagyásától ne fagyjon le az operációs rendszer. Valójában nem fog erőforrást elvenni, mert tényleges számítást nem csinál majd. -
-
-
válasz
letepem
#8686
üzenetére
persze, hogy nem, hiszen nem az volt a kérdés. lefordítva köznapi példára:
K: mennyi volt az infláció 2007-ben?
V: manapság 2-3%-os inflációval kell számolni.szerinted ez válasz?

a piti személyeskedés terén pedig javaslom a saját eredeti postodat megtekinteni. mégis mire számítottál válaszként?

-
Crytek
nagyúr
Abu85: A Get Even játékról lehet tudni bármit is kinek a "logoja" alatt érkezik (amd/nv) lesz-e benne fizika bárminemű interakció vagy akármi ?(ugye Ethan Carter is hasonló megoldás abban ugye nem volt szinte semmi)
-
stratova
veterán
Csak azt nem értem teljesen a kialakult vita egy mellékszálában, hogyan lehet egyáltalán összevetni az Alien Isolation és a GTA IV CPU igényét, amikor az előbbi egy csőjáték, utóbbi pedig egy open world játék tele n+1 egységgel és NPC-vel.

Mindemellett valóban szép a fény és részecskerendszer Alien Isolation-ben. -
letepem
aktív tag
Szerinted az nem válasz, ha leírja Abu, hogy mamár nem csak a dx működése és a program futtatása emészt fel erőforrást, hanem a növekvő kritériumok miatt még az aggresszív driver működése is? Valamint dx működéséből fakadóan a fejlesztő nem is látja a rendszer egészét rgo meg van kötve a keze! Emiatt választani kell, hogy az eyecandy grafikát választod, ami messzemenően túlnyúl a jelenlegi dx működésén vagy megtartod a szuper játékmenetet és ai-t. Gondolom észrevetted merre mentek el a stúdiók.
Nekem ez jött le a mondanivalóból, a piti személyeskedést pedig inkább felejtsük el! Köszi! -
na, még a végén eljutunk valahová

Viszont a driverek már 2006-ban több szálon működtek, tehát az erőforrást elvették
tényleg itt a probléma forrása - ez a következtetés ebben a formában nem állja meg a helyét. a többszálúsítás egy lehetőség, egyáltalán nem jár szükségszerűen resource lockkal. ha jól rémlik, kényszerű lockolások nVidia oldalon a FW 300-as szériában bukkantak fel - volt is gond az első driverekkel akkoriban.
-
Abu85
HÁZIGAZDA
Akkor itt a félreértés. A deferred context nem feltétlenül kell a többszálúsításhoz, az csak a parancslistát kreálja több szálon, de a beírást már amúgy is egy szálon végzi. Az immediate context manuális többszálúsítással jobb eredményekre képes, és innentől kezdve az egész probléma megszületik, mert a kezdetektől ezt az irányt választották a fejlesztők, ehhez még DX11 sem kellett. A DC csak egy alternatíva volt, ami nem működött végül. Viszont a driverek már 2006-ban több szálon működtek, tehát az erőforrást elvették.
Igazából a low-level API-k előnye nem is feltétlenül a többszálú modell megújítása, az is nagyon jó, de a legfőbb előny az, hogy a grafikus kernel driver nem futtat szerver szálakat a programszálak mellett, így az erőforrást sem veszi el. -
a DX11-et akár még el is hiszem (bár jóval kevésbé sarkított formában, mint ahogy itt szerepel), a többit nem, tekintettel arra, hogy évekig azért szidták a DX-et, mert egyetlen szálat használ.
az pedig, hogy az Uncharted és még 1-2 exkluzív játék készítői igényesebbek az átlagnál, nem jelenti azt, hogy a PC-ben van a hiba...(#8679) letepem: komolyan?
feltettem ugyanazt a kérdést kb. 5x 2007-tel kapcsolatban, és 5x visszakaptam, hogy a DX11 ígymegúgy. ha ez Neked válasz, akkor javaslok egy értelmező olvasás tanfolyamot. -
letepem
aktív tag
Ezt alá tudom támasztani igaz még csak az uncharted 1-gyel játszom, de miden vagy hardon az AI nagyon jól reagál: kitér, máshol bújik ki, pattintva dobja elém a granyót. Szóval meglehetősen szemetek
Pc-n ilyet nem láttam soha pedig egy 2007-es játek (grafikája is f@sza ahhoz képest, hogy 7-8 éves)gbors részedről pedig csak kötekedés minden kommented, megkapod a választ, de az számodra elfogadhatatlan és szajkózod tovább
-
trufa12
addikt
Sziasztok, jövőre várható valami új vga család?
-
Abu85
HÁZIGAZDA
De volt rengeteg előrelépés. Csak nem PC-n. Ez a fontos. A PlayStation 3-on pár exkluzív címben sokkal jobb AI van, mint ami PC-n valaha is létezett. Ezzel példálóznak a fejlesztők évek óta. Nem tudják igénybe venni az elméletben létező erőforrást, ha gyakorlatban nem érhető el, és ezért ma egységesen a DX API, jelenleg DX11 van hibáztatva. Aztán ezt vagy elhisszük nekik vagy sem, de tény, hogy a PS3 és Xbox 360 exkluzív játékokban valamiért tudnak jobb AI-t csinálni, míg PC-n nem.
-
azt nem lehet érteni, hogy miért nem a problémával foglalkozol, és miért az aktuális vesszőparipádat hajtogatod helyette
utoljára: a probléma az, hogy a FEAR óta semmi AI fejlődés nem volt. tegyük fel, hogy a DX11 mostanra tényleg annyira szar lett, mint ahogy lefested - ez akkor sem magyarázat arra, hogy 2006 és 2010 között miért nem volt semmi generál előrelépés AI-ban. számítási erőforrás volt, szakértelem valószínűleg szintén volt - marad az, hogy nem szántak rá pénzt. szinte senki. -
Abu85
HÁZIGAZDA
Még annyit tennék hozzá az egész nagy API leváltós vitához, hogy természetesen bizonyos értelemben megbomlott az egyensúly, illetve az a stabil alap, amit a Microsoft és a Khronos biztosított a DX és az OGL API-kkal. Két cég nyerészkedni akar a váltáson, amit egyébként az MS a DX12-vel és a Khronos az új OGL bejelentésével akceptál. Az Apple és az AMD időben felismerte a problémát, és mertek reagálni egy-egy saját API-val. Nyilvánvaló, hogy ennek lesz hatása a piacra olyan értelemben, hogy a többiek nem mertek lépni, mert például nem akarták megbolygatni a piac számukra megfelelően stabilitását. Egy ideje bizonyosan azon megy a vita a konkurenseknél, hogy "van ez a két marha", akik vágtak magunknak egy saját ösvényt, és több fejlesztőpartnerüket beterelik majd.
-
Abu85
HÁZIGAZDA
Én igazából azt nem értem, hogy a problémán mit nem lehet érteni. Kiindultunk abból, hogy a FEAR AI-jához képest a mai PC-s játékok AI-ja hasonló szintű. Ezt a fejlesztők azzal magyarázzák, hogy a DX11 nem teszi lehetővé, hogy a processzoridőnek a nagy részét kihasználják. A konzolon ott az Uncharted 3 sokkal jobb AI-val, amivel a FEAR rendelkezett. Ott tehát működik a dolog. Mi az oka annak, hogy számos bizonyítékkal a hátuk mögött nem hisszük el a fejlesztőknek, hogy nem ők a bénák, hanem tényleg a rendszer dolgozik ellenük PC-n? Még ha egy fejlesztő lenne, aki az ellenkezőjét mondja, de nem, mindenki szerint rossz az a programozási paradigma, amit a DX11 rájuk kényszerít.
-
HSM
félisten
válasz
Bandi79
#8672
üzenetére
Persze, az igénytelen portokkal ez a helyzet.

Mondjuk szerencsére nekem nem volt ezekkel gondom, az Ubisoft játékai alapból nem tetszenek, itt már sok hajam megúszta a tépést.
Normálisabb játékok pedig szépen elfutnak már egy közepes i5-ön mondjuk egy 7950/r9 280 szintű VGA-val, ami azért már nem megfizethetetlen.Ja igen, én a GTA4-et nem tartom a közvélekedéssel ellentétben igénytelen portnak, épp ellenkezőleg, szerintem nagyon széles skálán állítható a grafika, amivel akár már akkoriban se túl izmos PC-ken is szépen eldöcögött megfelelően beállítva. Megjelenésekor egy Core2 Quad Q6600-al és egy 4850-es Radeonnal toltam, ami messze nem volt csúcsgép, mégis szépen szaladt kellően megnyirbált grafikával.
-
Bandi79
aktív tag
Szerintem megegyezhetünk annyiban, hogy hiába veszi meg az ember a legerősebb PC-s hardvert amit a pénztárcája megenged, a "megírom konzolra, mert abban van a zsé, aztán hamagyorsan átportolom PC-re, aztán ha nem megy, kiadok hozzá pár patch-et / veszel 8 gigás GPU-t 12 magos CPU-val" hozzáállás miatt manapság rengeteget lehet szívni.
-
Abu85
HÁZIGAZDA
válasz
daveoff
#8666
üzenetére
Pedig de. Mondok egy példát rá az Alien: Isolationből. A modern GPU-s részecskerendszer, amit használ teljes mértékben mentes a többletrajzolás problémájától. Ez az első mozaikos alapokra épített algoritmus, és kapaszkodj meg ... legalább ötször gyorsabb azoknál a GPU-s megoldásoknál, amelyet ma az egyes játékok használnak, és a még szintén használt CPU-s megoldásoknál nagyjából százszor gyorsabb. Persze a CPU-s megoldások eléggé le vannak butítva, ahogy a GPU-sak is, hogy a többletrajzolás ne okozzon gondot, de az Alien: Isolation motorja koncepció szintjén védekezik ellene. Több tucat ilyen trükkből tevődik össze az Alien: Isolation sebessége. És az oka a nulláról írt motor.
-
HSM
félisten
válasz
Bandi79
#8668
üzenetére
1.0.4 volt, azaz a 4. patch, tovább nem frissítettem, mert ami utána jött nem jött annyira be.
Az eltűnedező út és hasonló hibák nagyrészt a döglődő windózom számlájára írható, amit már rég újra kellett volna tegyek, csak nem jutott rá időm. Commandline semmi extra nem volt, csak a norestrictions és nomemrestrict, bár elvileg az se kellett volna, mert befértem a limitekbe.Az 1680*1050 majdnem annyi pixel, mint a FHD, ha nem alapon megy az 5850, hanem húzok rajta picit, ugyanez az FPS lett volna FHD-ban is. Amúgy tévedsz, full max grafikán ment [link] csak a textúrák voltak mediumon, mert 1GB videóramba nem fért több.
Ami az Ubisoftot illeti, ők akármilyen platformra tudnak hulladékot gyártani, az ő bénaságuk szerencsére nem általános. De tény, ha valaki extrém tehetségtelen, egy tetrist is el lehet rontani fix hardverre is.

-
Bandi79
aktív tag
Hányadik patch ment maxon és hány command line parameter kellett hozzá ?

Medium textúra + visszavett látótávolság az nem max, és nem is FHD-ban, meg i7-tel...Én is be tudtam úgy állítani, hogy 40 FPS körül menjen, de nem 3 perc alatt, meg fel kellett húznom 4 GHz-re a procit, mert a GTA4 egyszerre volt GPU és CPU zabáló.
Amúgy még a linkelt videókban is el-eltűnik az út, meg a korlát... Ezt a hibát nálam a + RAM elég jól megoldotta... 4 gigát nem ette meg, de 12-re bővítés után gyorsabban és hiba nélkül töltődtek be a tereptárgyak... Fene se érti...
Optimalizálva vannak a mai játékok konzolokra ? Hmmm....
Tetris PS4-re (Ubisoft):
Assasins Creed is 22 FPS-sel hasít PS4-en...
Valóban optimalizáltak...

-
HSM
félisten
válasz
Bandi79
#8665
üzenetére
Nálam maxon ment a tiédhez elég hasonló gépen (1GB Vram miatt csak "medium"-nak gúnyolt remek minőségű textúrákkal) és semmiféle teljesítményprobléma nem volt, nemhogy diavetítés.
A bal felső sarokban látható a "diavetítés" FPS értéke, és a második videó végén a settings ablak, ha valaki hitetlenkedne. [link]
Textúrahibák és tolerálható mértékű FPS esések ritkán előfordultak, de memory leak és durvább gondok marhára nem voltak.
Az optimalizálás is jól meg volt csinálva, csak rád bízták, hogy állítsd be a gépedhez. Pl. a CPU-igényt igen durva mértékben lehetett a látótávolsággal szabályozni. Ja, igen, optimalizálás, mutass már a 2008-as játékok közül mégegyet, ami kitűnően skálázódott 3 magra. Nem sok volt.
Képzelem, hogy örülnél ma olyan grafikának, ami 1Mhz CPU és 64k ramon elfut.
Ma amúgy amikor csak egyféle hardver van, úgy hívják konzol, és arra optimalizálva is vannak a játékok. -
daveoff
veterán
válasz
Bandi79
#8665
üzenetére
Ha összességében nézed a grafikát szerintem nem szép, teljesen a régi játékokra hajaz. Az az egy-két effekt tényleg gyönyörű, de a részletek...
A másik meg az optimalizáltság, ne gondoljuk már, hogy az optimalizáltságtól lesz az egyik játékban 300fps, a másikban meg 40fps, ezért ez elég szélsőséges tartomány. Valami oka csak van, hogy 300fps-el szalad a játék, pl. hogy az effekteket leszámítva elég sivár, és gyenge a grafika....
Persze én nem értek hozzá közel sem annyira, mint a fórumtársak, engem egyszerűen csak a látvány tud megfogni. -
Bandi79
aktív tag
válasz
daveoff
#8657
üzenetére
Ha el is fogadjuk, hogy 5-6 éves grafika (szerintem nem), akkor hasonlítsuk a GTA 4 PC portjához (2008):
GTA 4-et ha fel tudtam volna tenni maxra (1 giga VRAM maxon kevés neki), akkor kb diavetítést nézek, Alien Isolation meg röccenés nélkül megy. Nincsenek hatalmas FPS esések, textúra hibák, memory leak stb...
Ez a különbség az optimalizálatlan és a jól megírt között.
Régi C64-es időket sírom vissza, akkor még a játékkészítők tudtak programozni. ~1MHz CPU + 64K ram. Ennyi van, erre írj játékot. Nem volt "minimum" és "recommended" specs

Ennyi off elég is, köszönöm a válaszokat !
-
Abu85
HÁZIGAZDA
A driver mindig igényelt erőforrást a működéshez. Másképp aligha tudná ellátni a feladatait, a baj, hogy egyre több kell neki. Viszont ennek nem kellene úgy lennie, hogy erőltessük a DX11 határain túllépő PC-s grafikát. Elfogadhatnánk azt is, hogy ebben annyi van amennyi, és akkor lenne erőforrás a gameplay szimulációra. Viszont ezt nem fogadtuk el, és ennek az a következménye, hogy a fejlesztőknek nincs több erőforrásuk a programra, mint sok éve.
De mondhatjuk azt, hogy a fejlesztők szimplán bénák DX11-ben, a Microsoft is csak félrebeszél, amikor nem ajánlja a deferred contextet, és a Mantle is csak azért működik, mert annak a 3000-4000 soros kódnak a beírását a fejlesztők tehetségesebb "skizofrén" énjük hozta össze. -
Abu85
HÁZIGAZDA
Melyik erőforrásért? Amit a driverek elvesznek? Szapulhatjuk a fejlesztőket, de valójában a többszálú feldolgozásra van egy olyan rendszerük a DX11-ben, amit ma már a Microsoft sem ajánl használatra, mert káros hatásai vannak. A problémára az elvi megoldás valóban a deferred context, ami viszont a gyakorlatban a programfejlesztők és a Microsoft szerint sem működik. Érteném a logikát, amit írsz, ha valaki azt mondaná, hogy márpedig ez működik csak ki kell nyújtani a "kezet", de nem. Ilyet még soha senki sem mondott. De olyat már sokan mondtak, hogy: nézzétek, a konzolon ki tudjuk nyújtani a kezünket! És 2014-ben ki lett kiáltva bűnösnek az API, így kaptunk négy új low-level API-t, vagy egy részükre bejelentést, hogy készülnek.
-
Abu85
HÁZIGAZDA
válasz
daveoff
#8659
üzenetére
Igen. Játszottam már vele. Első osztályú a megvilágítási modell és a részecskerendszer. De ezt eddig is tudtuk, hiszen a fejlesztők már jó előre elmondták, hogy a legjobban implementálják, ami létezik és bevethető. Majd később a többiek is bedobnak valami hasonlót.
A Creative Assembly előnye, hogy ezt a motort a nulláról építették fel. Úgy választhatták össze a működéshez szolgáló komponenseket, ahogy azt jónak látták. Persze sok pénz volt, de amikor valami mindig a nulláról készül el, az előnyt élvez egy darabig, mert a többi motorba az új technikák nem feltétlenül építhetők be problémamentesen. Ez az oka annak, hogy ebben a motorban van most a legjobb indirekt fénykezelés és részecskerendszer. Egyedül a CryEngine közelít hozzá. -
daveoff
veterán
Valóban van egy-két effekt, ami jól néz ki, füstök, árnyékok tényleg nagyon jók, de összességében szerintem nem üti meg a mai játékok szintjét. Te játszottál már vele? Ez a kép nagyon jó, de ez valami photoshoppolt játék reklámozó képnek néz ki, nálam nem így néz ki a játék FHD kimaxolva. Majd keresek valami jelenetet, ahol van tűz, füst meg minden, és lövök pár képet.
-
Abu85
HÁZIGAZDA
válasz
daveoff
#8657
üzenetére
5-6 éve a seggünket csapkodtuk volna a földhöz ilyen minőségű GI és particle effektek, illetve anyagárnyalás láttán:

Azt a fény-árnyék kezelést, részecskerendszert és radiosity modellt, amit az Alien: Isolation használ, még több mai játéknak sem sikerült elérni. Persze no para, majd később más is megkapja azokat az effekteket, amelyeket ez a játék alkalmaz.
-
Bandi79
aktív tag
Egy kérdés többé-kevésbé a témához kapcsolódóan: az Alien Isolation milyen engine-t használ ? Azért kérdezem, mert a jelenlegi optimalizálatlan f@sok között ez a játék röhögve fut 50 fps-sel FHD-ban minden maxon a közel 6 éves i5 750 + HD5850 masinámon... Nem kicsit lepődtem meg.

Ennyi találtam róla: "We built our own in-house engine specifically for Alien: Isolation"
-
Abu85
HÁZIGAZDA
#1 2007-ben kezdtek el normálisan terjedni a többmagos procik. Elsősorban kétmagosok. Viszont a program nem jutott több erőforráshoz ezekkel sem.
#2 2010 után annyi változott, hogy a grafika fejlődött, és a DX túl lett terhelve, tehát olyan driverek kellettek, amelyek a 2010 utáni grafikát is megjelenítik, vagyis még több erőforrást elvettek a programtól. Ez a folyamat tart máig. Összességében nincs több processzoridő a szimulációra, mint régen.Két tény: a fejlesztők azt mondják, hogy a probléma az API. A Microsoft nem konkrétan a DX11-et látja gondnak, hanem azt, hogy a fejlesztők túlterhelik, és a gyártók ehhez igazodnak a driverekkel. Ez is bőven igaz. Az API tud valamit, és ahhoz lehet butítani a grafikát, de ezt fentebb megbeszéltük, hogy miért nem jó a PC-s gyártóknak.
-
jó ez a beszélgetés.
#1 mi volt 2007-ben?
#2 hát 2010 után az a helyzet, hogy ...
#3 goto #1úgy nem nagyon fogunk előremenni, hogy mindig a DX11 problémáit hozod fel, amikor a megelőző időszakról van szó

amúgy meg, ha minden shooterben olyan AI lenne, mint a FEARben, akkor hajlanék rá, hogy valami összefüggést sejtsek, annak ellenére, hogy a négymagosok megjelenésével az egyszálon üzemelő API miatt pont keletkezett extra CPU power, és a mostanában általad rengeteget emlegetett CPU time locknak még híre-hamva nem volt. azonban a legtöbb AI lényegesen ostobább, úgyhogy kénytelen vagyok továbbra is arra gondolni, hogy szartak rá. és a többség most is szarik, maximum a DX11 bajait kényelmes felhozni ürügyként.
-
Abu85
HÁZIGAZDA
Akkor sem szartak rá, de nem nehéz meglátni az időpontok összefüggéseit. A FEAR 2005-ös. Tekintsük úgy, hogy ahhoz hasonló AI van a mai PC-s játékokban is (most ne számítsuk a picit jobb-picit rosszabb dolgokat, a konzolt meg pláne, mert ott jelentősen jobb AI is létezik). Ha Daniel Baker API-s előadásait megtekinted (amit ajánlok, mert ő az egyetlen játékfejlesztő, aki GAB tag, és iszonyatosan nagy rálátása van az egészre, hiszen ő maga is részt vesz a DirectX fejlesztésében), akkor láthatod, hogy szinte mindig elmondja a saját hipotézisét, hogy szerinte mi csúszott félre. Ezt az alábbi ábrán jól prezentálja:

Ugye a narancs a GPU-k teljesítménye a GFLOPS oszlophoz mérve. A piros a batch teljesítmény a Batch/Frame oszlophoz mérve, ami a driverekből jön/jött, míg a szaggatott vonal a terv, ami nem jött be.
És az egész pont az általad megjelölt 2007-2008 körül kezdődött, amikor a több mag elkezdett terjedni.
És itt tartunk most:
Az a kis kék rész maga a program, és az elméleti processzoridő pár százalékán fut, a maradék "Unused CPU Time" pedig azért van piros csíkokkal lesatírozva, mert nem lehet hozzáférni. A DirectX 11 és az API-hoz készült mai modern driverek nem teszik elérhetővé. Programozóként láthatod a profilozóban, de nincs semmilyen mód, hogy hozzányúlj ehhez az elméletben szabad processzoridőhöz.
Ezek után mondhatjuk azt, hogy a fejlesztők a bénák, és ezért nincs fejlődés, de valójában igazságtalanok vagyunk velük, mert ők a DX11-gyel jelenleg egy olyan programozási modellre kényszerülnek, amellyel az elméletben elérhető erőforrások nagy része elérhetetlen.
Ezt Daniel Baker bizonyította az alábbi képpel, hogy ne csak a levegőbe beszéljen:
Látható, hogy egy alpha kóddal is képes használatba venni az elméletben elérhető processzoridő ~50%-át, de ehhez nem a DX11-et, hanem a Mantle-t használta. Ezzel bebizonyította, amit sokan sejtettek, hogy a probléma forrása a DX11 és a hozzá tartozó modern driverek.
És amikor a lustaságról beszélünk, akkor vegyük figyelembe, hogy Daniel Baker már elérte a 85%-os kihasználást is az új motorverziókkal, ugyanis zölddel van jelölve az az "Unused CPU Time" rész a képen, vagyis optimalizálással a gyakorlatban is hozzáférhető, és a nagy részét már hasznosította is. Nehéz azt mondani rá, hogy lustaság miatt nem csinálja ezt meg a DX11 alatt. Főleg úgy, hogy a Nitrous, vagyis a saját motorja sokkal hatékonyabban működik DX11 alatt, mint akármelyik más fejlesztő motorja. Kvázi ő az egyetlen programozó a világon, aki nagymértékben optimalizál DX11-re. -
nagyon informatív ez a kisregény, csak éppen semmi köze ahhoz, amit kérdeztem. 2007-2008-ról van szó - akkor DX11 még nem volt sehol. akkor is szartak a fizikára és az AI-ra, most is. nehéz ebben nem közös okokat látni, még akkor is, ha jelenleg nem csak a lustaság az akadály.
-
Abu85
HÁZIGAZDA
Nagyon nehéz meghúzni azt a határt, ahol a driver már káros hatásokat fejt ki. Önmagában nagyon egyszerű a helyzet, hogy a DX11-ben 2000 batch/frame a limit és azt nem kellene túllépni. De túllépjük, és minden problémának ez az alapja. Teoretikusan levezetve rengeteg lehetőség van arra, hogy a driver az elérhető processzoridőt valamilyen módon hasznosítsa. Az egyik a flip-queue mérete, amivel előre több jelenet lesz felkötegelve és így nő a GPU kihasználtsága. A másik a single queue/multiple queue modell. Utóbbi növeli a GPU kihasználást, olyan compute feldolgozás mellett, ahol az adott motor még elavult puffermenedzselési modellre épül. A valós idejű shader fordítás is egy optimalizálási terep. Gyorsan gyors kódot nem lehet fordítani. Szóval meg kell találni az optimális értéket, vagy bevállalni, hogy sok processzoridőt vesz igénybe a valós idejű shader fordítás. És milliónyi apróbb optimalizálási terület van, ahol azt kell mérlegelni, hogy mi az a processzoridő, amit a driver elvehet, ugyanis ez drámaian csökkenti a program által elérhető, szimulációra használható processzoridőt.
Arra Daniel Baker már 2010-ben felhívta a figyelmet, hogy a grafikus driverek pár év múlva túlzott processzorigényekkel fognak rendelkezni, és borzalmasan nehéz lesz kinyerni a legújabb processzorokból is azt a processzoridőt, ami egy évtizede elérhető volt, vagyis a PC azért, hogy a grafika szinten tarthassa magát, a játékmenetbeli butításokkal fog fizetni. És a helyzet az, hogy pokolian igaza lett, mivel ma mindenki arról beszél, hogy nem lehet befogni a gyors processzorok teljesítményét, és közvetve ennek az az oka, hogy a driverek elveszik a processzoridőt a program elől. A mennyit az kérdéses. Én ebből a szempontból a Microsofttal értek egyet. A DX11-nek megvannak maga a korlátjai, és azon belül kell maradni. E korlátok kiterjesztése lehetséges, az MS sem tagadja, de drámaian csökken a program által felhasználható processzoridő is. -
HSM
félisten
No igen. Ezt én is megtapasztaltam BF4 multiban. A cél kb. 70FPS tartása volt, és DX alatt le kellett butítanom a grafikát Ultra+4X MSAA-ról High + 4X-es MSAA-ra, mert különben néhány helyen procilimitbe ütközött és leesett az FPS az 50-es tartományba. Mindezt egy i5 4690K-n, 4,4Ghz-en, 4*4GB 2133Mhz-es rammal, tehát egy igen erős, modern rendszerrel. Mantle-n ezzel semmi gond nem volt, simán tartotta az elvárt szintet Ultra+4X MSAA grafikán is.
Nálam szerencsére a BF4 DX alatt is meglehetősen stabil volt, nem voltak fagyások 1-2 óra alatt sem.
Ami viszont érdekes, bár nem szorosan a témához kapcsolódik, hogy Nv-n Dx alatt nem esik le ennyire az FPS a tulajok beszámolója szerint. Ott vajon mivel trükközik az Nv/Driver, vagy mit csinál rosszul az AMD-s DX driver? Erre gondolok: [link]
Főleg Shanghai mapon a ledőlés után mutatott siralmas FPS-eket nálam a DX, amíg Ultra-n tesztelgettem, tehát magam is tapasztaltam, hogy ott beesik.
-
Abu85
HÁZIGAZDA
Erről beszélnek kb. jó ideje a fejlesztők. Hiába nő a teljesítmény, ha ahhoz nem lehet hozzányúlni, mert valami megakadályozza. A DX API akadályozza meg ezt alapból, de ez a probléma többszintű, mert a DX API nem lenne annyira korlátozó tényező, ha a mai grafikus driverek úgy működnének, mint három éve, csak akkor meg a grafikát kellene lebutítani. Régebben nem igazán törődtek azzal a fejlesztők, hogy mik a grafikus driver igényei. Ma ezek annyira máshogy működnek, hogy követni kell a gyártók ajánlásait, mert más irányból megközelítve rossz lesz az eredmény. Főleg az NVIDIA ajánlásait érdemes követni, mert a GeForce driver nagyon agresszívan kisajátítja az erőforrást, így ha DC mellett nem kap három, illetve IC mellett kettő magot, amihez a program onnantól kezdve hozzá sem nyúl, akkor sok esetben káros lesz a sebességre és a stabilitásra a driver működése. Persze ezt nem minden modern motor követi, például a Frostbite 3 csak egy magot ad a drivereknek, és azért éri el így is azt a jó teljesítményt, amit tud, mert minden lehetséges módon megakadályozza a drivert abban, hogy elvégezze a feladatának egy részét. Azt a részét, amelyet amúgy a Frostbite már elvégzett, tehát felesleges lenne még egyszer erőforrást pazarolni rá. A Frostbite 3 ma az egyetlen motor, amely például DX11 alatt az állapotváltások szűrését csak egyszer futtatja, és azután a rendszer elzárja az adatokat a DX API és a driver elől, hogy az a programszál, amely arra létrejött ne futtasson több szűrést ezeken. A driver szimplán várakozásra van kényszerítve, és addig vár az adatra, amíg a program fut. Nem elegáns megoldás, mert ez a várakozás programfagyást eredményezhet (sőt egyszer biztosan fagyni fog, de kb. 20 óra után, ameddig nem sok ember játszik egyhuzamban). A BF4-nél vagy a PvsZ:GW-nél a DX11-es kód igen sokáig bírja anélkül, hogy a Frostbite 3 driver működését akadályozó modulja device hung hibát eredményezne, amivel ugye kilépne a program. A DA Inquisition az ellenpélda. Ott DX11 alatt sajnos igen sűrű a fagyás. Jelenleg 15% az esélye, hogy a program egy óra játék után device hungot dob és kilép. Ezen nagyon dolgoznak a fejlesztők, mert ez sokkal rosszabb arány, mint ahogy a korábbi játékok működtek, igaz azok nem a legújabb Frostbite 3-at kapták meg.
Felelősöket nem érdemes keresni, mert a probléma többszintű. A legtöbb fejlesztő az új grafikus driverek agresszív erőforrásigényét nevezik meg problémaként, de valójában az, hogy ma öt-hét szálat simán futtat egy driver annak az eredménye, hogy a DX11 2000 batch/frame-es limitjét nem teljesítik a fejlesztők, tehát az NV-nek és az AMD-nek sincs igazából sok választása, valamilyen módon meg kell oldani, hogy meglegyen a 3000-5000 batch/frame-re is a teljesítmény. Nehéz azt mondani a fejlesztőknek, hogy márpedig butítsátok le úgy a PC-s port grafikáját, hogy beférjen a DX11 limitjébe. Saját maguknak ásnák a sírt, ha ezt mondanák a PC-ből élő gyártók, mert a konzolon ezt nem kell megtenni. Szóval a probléma alapja egyértelműen a DX11, amely képtelen kompromisszumok nélkül kiszolgálni a fejlesztők igényeit.
Jelenleg nagyjából három opció van a fejlesztők előtt DX11-re:
- betartani a DX11 limitjeit, így maga az API optimálisan működik, tehát viszonylag sok erőforrás marad a szimulációra, de cserébe a grafikát a konzolos szint alá kell belőni
- túllépni a DX11 limitjeit, így a drivernek rengeteg magot adni, hogy egyáltalán optimálisan működjön, azaz hozható legyen a konzolos grafikai szint, cserébe a szimulációra nem lesz több erőforrásod, mint amennyi tíz éve rendelkezésre állt, sőt, lehet, hogy kevesebbel kell kalkulálni
- kidolgozni egy olyan rendszert a motorba, amely nem engedi a grafikus drivert működni, így sokkal optimálisabban lehet a hardver kihasználása és grafikai butítás nélkül is lehetőség lesz több erőforrást kinyerni a szimulációra, cserébe nem lesz stabil a program, illetve egy ilyen rendszert csak a leggazdagabb fejlesztők engedhetnek meg maguknak, mert extrém mértékű tesztelést igényel
És igen, az utolsó pontot fel lehet úgy fogni, hogy csak pénz kérdése a dolog, de valójában cseppet sem optimális az, hogy meghúzol egy határt, hogy mennyi potenciális fagyást tekintesz még elfogadhatónak. Hidd el pont annyira káros a PC-s játékosoknak, hogy DX11-ben 15% az esélye annak, hogy az új Dragon Age lefagy egy óra alatt, mintha lebutították volna a grafikát. -
ez nekem már x-akta. írod, hogy a FEAR AI kb. a PC-s csúcs - ugye mindezt egy magon. azt is írod, hogy egyre nő a HW-ek ereje -> magasabb IPC és több mag. sure. ezek után meg írsz egy olyat, hogy az extra számítási kapacitást nincs lehetőség befogni. ugyan miért nincs? ki akadályozta meg pl. a Cryteket vagy a 2K Bostont, hogy a 2007-es játékaikba erősebb AI-t tegyenek több CPU-használat árán? szerintem azon kívül, hogy sajnálták rá a pénzt, semmi...
-
Z10N
veterán
válasz
LonGleY
#8642
üzenetére
Sajnos nem. Anno hasonloan probalkoztam 785G/RS880 chipsettel: HD4200 + 6850 (SPU: 40+960), de sikertelenul. Pedig a HD4200 mellett van ugye integralt 128MB DDR3 is a lapomon. Jo lett volna, ha mukodik. Foleg eyefinity-ben, ha lekapcsolt volna a dVGA. Amugy ITT a topikja.
Ui: ISO-kat csinalsz meg?
-
Abu85
HÁZIGAZDA
PH-nak.

Egyébként csak egy példa: Kevin Floyer-Lea - sok mántlis szöveg ... stb ... de a lényeg:
- ...
- Scope for increasing scene and world complexity
- Ability to increase the CPU budget for other systems like AIThe last two points are more relevant to our future games, ...
Tehát jelenleg a Rebellion, független stúdióként is elkezdte kutatni a jobb AI és jelenetkomplexitást, amire mostantól lehetőségük van.
Egyébként a FEAR pont jó példa. Annál komplexebb AI-t PC-be nem igazán implementált játék, rosszabbat vagy közel hasonlót kaptunk, tehát lényegesen jobbat nem. És a FEAR 2005-ben jelent meg. Azóta kvázi nincs előrelépés, és nem a hardverekkel van baj, mert azok gyorsulnak, csak nincs lehetőség ezt az erőt befogni. És persze ebben benne van, hogy a DX11-nek a többszálúsítása az MS szerint is rossz, illetve nagy egészében vizsgálva az elmúlt nagyjából egy évtizedben a potenciális megoldások sorra elvéreztek a gyakorlatban. Ezért látjuk most a radikális megoldások előretörését, mint például az AMD és az Apple low-level API-ja.
Viszont azt távolról sem lehet mondani, hogy a FEAR viszi az AI-ban a csúcsot. A PC-ből kilépve ott a PS3, aminek van Uncharted szériája, ahol a 2-3. részben például iszonyatosan látszik, hogy az AI csapatban dolgozik, bekerítenek, amíg páran folyamatosan tüzelnek. Visszadobják a gránátjaidat, és nem mindig rád, hanem esetleg a környezetre, hogy az rád omoljon. Megsemmisítik rakétával vagy gránáttal a potenciális fedezéket. Folyamatosan zárótűzben tartják az előnyös helyeket, hogy ne juss el oda. Tehát nem a programozók bénák, van lehetőség jó AI-ra, ha hozzátudsz nyúlni a gép erőforrásaihoz.
-
LonGleY
veterán
[ IGP + VGA = ? ]
Van valamilyen módja az ASUS M5A88-V EVO alaplapon található integrált HD 4250-nak a dedikált kártyával (HD 6870) való együtt működtetésének? A segítségére lehet, vagy értelmetlen az integrálttal bármilyen szinten is foglalkozni?
-
"nem tettünk?" no mesélj csak, melyik cégnek vagy a beépített embere?

úgy látom, megint gond van a memóriáddal. a 4 magos CPU-k közel 8 éve vannak velünk, tavaly pedig pont Te nyomattad a leghangosabban, hogy a DX milyen szar, mert csak 1 szálon képes dolgozni (leszámítva a deferred contextet, ami - szintén Tőled idézve - bukta). akkor most hol van az a cirka 6.5-7 év, amíg parlagon hevert a legtöbb játékban legalább 2 mag?
(#8638) HSM: biztosan léteznek kivételek, de ezek pont azok, nem pedig trendsetterek. a legtöbb shooterben még mindig gyengébb AI van, mint a 2005-ös FEAR-ben.
a PhysX pedig jelenleg nem fizika, hanem eye candy. én a magam részéről nagyon szeretem a jól sikerült implementációkat, de ettől még ez csak vizuális extra. -
Abu85
HÁZIGAZDA
Sokkal jobban izgatja őket a Mantle, mint a TrueAudio. A grafikus API problémája sokkal kritikusabb, mint a hangok feljavítása.
Egyébként a VR-nél majd ráállnak erre is. Ott fontos lesz, hogy a füled is azt a térbeli információt kapja, amit a szemed lát, különben rossz lesz az agyadnak. -
HSM
félisten
Én azért ezt nem így gondolom.

Az AI is azért fejlődgetett az utóbbi években és a fizika is. Pl. a BF4-ben is elég komoly a rombolható környezeti elemek, ilyen azért korábban nem sok volt... A fizika is fejlődő pályán van. A mai napig ott figyelnek pl. bizonyos játékokban a PhysX effektek, amik bár annyit nem érnek, hogy Nv-t vegyek, de igen szép dolgokra lehet felhasználni jó sok év óta, és fel is használják.
(#8637) Abu85: Igen, pontosan így látom én is.
Jut eszembe a gameplay dolgok vs CPU témáról, a TrueAudio-ról mi hír a fejlesztők oldaláról? -
Abu85
HÁZIGAZDA
Nyilván van egy törekvés arra, hogy a lehető legjobban biztosítsd a szoftvert megvásárló rétegnek.
Az AI-ra és a fizikára nem tettünk magasról, csak nincs esély komplexebb számításra. Egyrészt lassú a processzorok fejlődése, másrészt a driverek egyre több processzoridőt igényelnek, hogy értékelhető sebességű legyen a megjelenítés. Tehát az elérhető processzoridő szempontjából effektíve évek óta nincs nagyobb teljesítmény a gameplay elemekre, sőt konkrétan romlik a helyzet. Eközben a kutatások futnak, bár nyilván csökkentett kiadások mellett, hiszen úgy sem lehet beépíteni az eredményüket.
-
Abu85
HÁZIGAZDA
válasz
ALONSO11
#8634
üzenetére
Írtam nemrég egy hsz-ben, hogy beszéltem az AMD-vel, illetve egy képviselőjükkel. Azt tudom, hogy lesznek a CES-en új mobil VGA-k, stb. Amúgy nagyjából marad ez a termékskála az év elején.
Azért nincs 285X, ha erre vagy kíváncsi, mert a Tongát az Apple is veszi. Nekik oda kell adni a lapkákat. Na meg a 280X készletek is megvannak még. A 280 készletek lényegében kiürültek, de ezért jött a 258. A 4 GB-os 285 opció volt, de annyira voltak rámozdulva erre a gyártók idén, így tipli lett. Még a 8 GB-os 980-akra is húzták a szájukat. Magasnak tartják a memóriák árait. Ez elfogadható indok.
Low-level API-ban nyilván számítani fog, hogy a konzolból áthozott kód már eleve GCN-optimalizált, de a többihez is lehet optimalizálni azt.
-
Abu85
HÁZIGAZDA
Azt is tudják a fejlesztők, csak a 285 túl új termék. Viszont arra állandóan panaszkodnak, hogy a mai gépvásárlási norma eltolódott a VGA-k felé. A fejlesztők összevont statisztikát is kérhetnek, és abból látszik, hogy akinek drága CPU-ja van az többnyire olcsó, illetve akinek olcsó CPU-ja van az többnyire drága VGA-t használ. Nagyon kevés a kiegyensúlyozott gép. Abszolút nem igaz az a norma a valóságban, hogy a drága VGA-k mellett drága proci van. Ez egy éve még rosszabb, mert az USA-ban elterjedőben van az a tévhit, hogy a konzolban gyenge proci van, és erős a GPU, tehát a PC-be elég a legolcsóbb proci, hogy minél több pénz maradjon a GPU-ra. És nem tudod megmagyarázni egy átlagembernek, hogy a konzolt máshogy programozzák.
-
HSM
félisten
Igenám, de az Intel vezérlőit leszámítva kellően kiforrottak a mai architektúrák alapjaiban, ilyen téren drasztikus változásokra nem számítok, persze, ettől lehetnek. De ha annyira más cuccok jönnének, akkor ott más API-kkal is lehetnének gondok.
Vész esetére pedig lehetnek alternatív renderelési módok.A második bekezdésben erre próbáltam reagálni: "sure, elvi síkon szép, hogy pusztán szoftveres úton a legolcsóbb CPU-k is alkalmasak játékra, thanks to AMD...."

-
-
HSM
félisten
A low level API-k esetében ez az architektúrára optimlizálás nem tűnik akkora érvágásnak, mint amennyit nyerni lehet vele. Meglássuk, majd mi sül ki belőle.

Azt felejted ki az érvelésedből, mennyi mindent csinálhatna az erősebb CPU is a felszabaduló CPU-időben. Gondolok itt komolyabb fizikára, AI-ra, csomó mindenre lehetne használni. De nem lehet, mert a DX esetére meg szabadon kell hagyni.

-
Abu85
HÁZIGAZDA
Elmondom, hogy a Square Enix Steames felmérése szerint a Thiefet megvásárló személyek 72%-ának van az enyémnél gyengébb processzora. Sarokeset lenne tehát? Maximum egy szűk rétegnek, akik azt hiszik, hogy mert megengedhetik maguknak az erős négymagosokat a világ nagy része is ezt fogja venni. A statisztika viszont nagyon jól jön a fejlesztőknek, mert a Steam megmondja, hogy ki milyen gépet használ.
Takarékra van véve a render. Az a gond, hogy a drivert nem akarják befolyásolni, mert úgy járnak, mint az EA. Le fog fagyni a program, ahogy a Dragon Age is fagy DX11 alatt. Ez rosszabb, mint a kávészünetnyi lépésidő. Ezért mondják azt ezek a fejlesztők, hogy a DX11 nagyon rossz API, mert kompromisszumra kényszerít.
-
nem a CPU-kkal van a gond, hanem azzal, hogy játék szempontból sarokesetek, és velük akarod bizonyítani a Mantle világmegváltását. sure, elvi síkon szép, hogy pusztán szoftveres úton a legolcsóbb CPU-k is alkalmasak játékra, thanks to AMD, de ez nem egy széles körben létező igény (még szűkben is alig). továbbra is várom az első földbedöngölést (ami az első driver fix után is az marad) - legyen mondjuk a viszonyítási alap az én konfigom (i3-3220 + GTX660).
2T/8C-vel csak vicceltem. Civ-et nem akarom átíratni a fejlesztőkkel, de amíg az AI-t számolja, addig bátran takarékra lehet tenni a renderert és a VGA-kommunikációt.
(#8615) HSM: erre most két részben:
1. még messze nem tartunk ott, hogy hányféle verzió, 2015 végén lesz egyáltalán IHV-független API. ezt hogy a jó égbe' lehet az egyik IHV számlájára írni?
2. low level API mellett minden architektúrára külön kell optimalizálni, a low level API hype cycle-jében ez a felismerés (ill. amikor a felismerés alapján dolgozni kell) lesz majd a disillusionment trough.VLIW-re valóban nehéz lehet optimalizált renderert írni, de ennek semmi köze a DX10-hez. a G80-ra pl. shader fronton kifejezetten komfortos lehet.
-
HSM
félisten
Természetesen működik a HT, nem mondtam egy szóval sem, hogy nem működik. Csak elveszi a szoftveres priorizálás lehetőségét, amiből könnyen gondok sülhetnek ki. Ugyanakkor ha jól van párhuzamosítva az API/Driver/játék, akkor jelentős extra teljesítményt hoz.

A notis procimban is ki-be kapcsolgatom, mikor mire van épp szükség. Sajnos ez ilyen... -
Abu85
HÁZIGAZDA
Igazából magas szintű nyelvben írod a shadert, tehát túl sokat a hardver működéséből nem veszel majd észre. Persze lehet magas szintű nyelvben is alacsony szintű működére optimalizálni, de ez nem olyan nehéz. A fordító pedig a többit elvégzi.
De te is írod, hogy maga a DX11 a probléma és nem a HT. Igen elavult API-kkal a HT sokszor hátrányos, de ezért a HT-t nem hívhatjuk problémának, mert az új API-kkal meg megjavul, tehát maga a HT működik.
Valójában a DX12-ben lesz egy TIER3-nál is magasabb szint a bindingre, amit csak az Xbox One esetén lehet elérni. Főleg az exkluzív alkalmazásokhoz lehet lekérni, hogy ne kelljen egy rakás erőforrással tökölni, így a memória az valóban memória lesz. Ez a működés a PS4-es GNM-hez és a Mantle-höz fog közelebb állni, de PC-re nem jön.
-
pp193474
csendes tag
Köszönöm a gyors választ!
Megpróbáltam ahogy tanácsoltad, de semmi eredmény. Az eszközkezelőben megvan a két videokártya de nincs ott a Dual Graphics jelző.Az asrock biosában nincs külön IGP funkcio viszont a memóriát auto-rol átálítottam 1GB-ra a,pci-express az elsődleges és engedéjezve van Dual graphics.A videokártyáról megy a monitor.
A legújabb illesztőprogram csomag van fent (14.501.1003-141120a-177998c)
De semmi eredmény.Arra gondoltam hogy újrarakom a windowst ha lesz egy kis időm.,kb már fél éve fentvan,hátha az segít.
Eggyenlőre még semmi ötletem...

-
HSM
félisten
Ugyanakkor amennyire tudom, még mindig nem könnyű bizonyos kódokat hatékonyan futtathatóra megírni VLIW-re. Bár nyilván, ha a fordító adott, azért egy fokkal könnyebb a helyzet.

Tévedsz viszont a HT-vel. Az nem erőforrás kezelés, ez a probléma. Az erőforrás megosztás. Arra való, hogy a memória-eléréseket és pipeline kiürüléseket megelőzve gyorsuljon a végrehajtás. Ugyanakkor pont emiatt folyamatosan nyomja mindkét szál a parancsokat, amiket a hardver oszt be magának, innentől pedig az OS időszeletes ütemezője értelmét és működőképességét veszti. Ahogyan a %-os terhelésmérő is. Egyszerűen át van verve az OS, hiszen 4 magot lát, pedig csak 2 van.
A HT jó lesz, ha eltűnnek a kritikus, soros részek, és jól párhuzamosítva lesz minden, de amíg ez nem áll fenn (DX11), könnyen lehet hátrányosabb, mint előnyös. Volt alkalmam megtapasztalni.
(#8621) daveoff:Meglátjuk. Legalább lesz végre valami közös alap, ha nem is közös tudás. Mivel a DX12-ből is csak a a tervezett közepes szintet tudja a Maxwell, míg a GCN a magasat.
-
Abu85
HÁZIGAZDA
A VLIW nem számít, mert maga a fordító még mindig a driver része marad.
Maga a Hyper-Threading jó, ha figyelembe veszed, hogy ez egy virtuális erőforrás-kezelés. A gond az, hogy az API-k alapja state machine dizájnú. A DX ezt már átdolgozta, de sokan sajnos így sem ér. Ez rendkívül hátrányos a többszálú optimalizálásra vonatkozóan és különösen hátrányos a Hyper-Threadingnek. Ugyanakkor, az új API-k már ezt az elavult dizájnt nem használják, tehát a Hyper-Threading is úgy szuperálhat, ahogy kell. Nem rossz ez a technika, csak rossz a programozási modell, amit a fejlesztőkre kényszerítenek az elavult API-k.
-
HSM
félisten
Befejezhetnéd már érvek helyett a személyeskedést...

Van API, Mantle-nek hívják, de maga az API nem sokat ér, amíg nincsenek rá játékok. Márpedig játékok addig nem igazán fogják kihasználni, amíg valahogy az Nv-re meg nem oldódik, hogy használható maradjon a játék.
Az Nv-nek pont, hogy ez áll érdekében, rövid távon a lehető legtöbb, lehető legolcsóbban előállítható GPU-t eladni. Márpedig ahhoz remek egy ilyen lecsupaszított, nem túl okos, de emiatt keveset fogyasztó, de a mai igényekhez piszok gyors Maxwell.
-
Crytek
nagyúr
Hehe attól még hogy a fél világnak nvje van nyugodtan jöhetne itt mindenféle API meg stb.
Azt hogy nem lépik meg mert nem éri meg nekik nehogymár az nv legyen a hibás.
Szánalmas ez a felfogás.
Biztos vagyok benne ha meglépnék nv is változtatna, de amig nincs miért minek erőlködjenek? -
HSM
félisten
Nagyon írod, mekkora fail így meg úgy, de még azt se nagyon értetted meg, amit leírtam.

Csak nézd meg a történelmet... Mindig közösen ment a fejlődés, API/hardver téren, és a gyártók is többé-kevésbé hasonló tudású GPU-kat gyártottak. Ma viszont ez rendkívül kiegyenlítetlen, az API is egy őskövület. Mivel nem szerencsés a fejlesztőknek a potenciális vásárlóbázis kb. felétől elesni, így az Nv korlátaival kell elkészíteni a játékokat mind a mai napig.
Nézd meg a StarSwarm-ot, mi történik vele Nv-n és Dx-en, összecsinálja magát röviden, mivel azt már úgy írták, hogy kihasználja a GCN és az alacsony elérés lehetőségeit. Nem véletlen, hogy az AMD saját API fejlesztésére adta a fejét, ez is eléggé példátlan, de nyilvánvalóan elkerülhetetlen volt a fejlesztések szempontjából.(#8610) gbors: Írjál low-level API-t egy VLIW architektúrára, nagy élmény lesz.
Még az Ati-nak is hosszú hosszú évek kellettek, mire megtanultak rá jó drivert írni.
A 8800-at nem vágom annyira, de ott talán jobb a helyzet.Te iparági töketlenségről beszélsz, én viszont mást látok. Az iparág a profitról szól, tehát ha az Nv a piac kb. felével leragad egy szinten, akkor nem adhatsz ki semmit, ami azon a szinten meg se mozdul. Márpedig üzletileg nem kifizetődő gyártani egy Nv verziót, meg egy AMD verziót, ugyanis ha igazán ki akarnád használni a GCN lehetőségeit, egész más működésű motor és low level API is kell, ami horror költség. Ezért van a mai Mantle játékokban is, amik alapvetően Dx alá készültek, csak mérsékelt előnye a Mantle-nek.
(#8611) Abu85: Persze, hogy nem jó a HT, egymástól veszik el a szálak a fizikai erőforrást priorizálhatatlanul, ami maga a halál egy sok ponton soros, kritikus szálat futtató API-nál és sok háttérfolyamatnál.

-
Abu85
HÁZIGAZDA
válasz
pp193474
#8613
üzenetére
Hybrid CrossFire már nem létezik. Évek óta kikerült a driverből. Dual Graphics mód létezik helyette. Ezt a meghajtó automatikusan engedélyezi. Az eszközkezelőben látnod kell a két VGA-t, de a Dual Graphics módnál az egyik mögé oda lesz írva a Dual Graphics jelző.
Ha nem jelenik meg, akkor a BIOS-ban aktiválni kell a multi-monitor módot, és a VGA-ra kösd a kijelződ. Az elsődleges kártya szempontjából kérd a BIOS-t, hogy a PCI Expressen keresse. Az IGP-t pedig ne autó módban válassza ki, hanem kényszerítetten. Az IGP memóriája legyen annyi, amennyi a VGA memóriája. A te esetedben 1 GB. -
pp193474
csendes tag
Sziasztok!
Segítséget szeretnék kérni,vagy legalább valami infót,hogy "mé" nem megy a gépem Hybrid CrossFireX™-ben.
Mikor minden feltétel adott elméletileg.A legújabb bios van az alaploapon,a legújabb Ati driverek vannak feltelpítve.Biosban állítgattam,windowsban ujratelepítettem a drivereket.De a Crystalist Controll centerben, nem jelenik meg az opció hogy engedéjjezni tudnám a crossfiret.sehol sem találom.Mind a két videokórtyát (HD8570D és HD6670) frankón felismeri a rendszer,önállóan szuperül működnek de miért??? nem tudom crossfireben összekapcsolni őket? mikor elméletileg minden adott a dolgohoz....
Pedig direkt ez miatt "építettem" ezt a rendszert....
A konfig a következő:
Adott egy AMD A8 6600K Blackbox Edition, egy ASRock FM2A85X Extreme4 alaplap és egy Sapphire Radeon HD6670 1GB 128bit DDR5 PCI-E
Windows 7 ultimate Sp1 64Bit rendszeren
elméletben menniük kéne...gyakorlatban viszont mégsem megy ...mi lehet az oka???
Elszomorító hogy időt,energiát és pénzt beleölve sem működik....
Kérem segítsen valaki aki találkozott a problémával..
köszönet és kellemes ünnepeket. -
Dtomka
veterán
Szerintem a 970-et simán le fogja nyomni a 380x, A 390x a 980 és ha lesz Ti majd azt is, legalábbis teljesítményben, fogyasztásban lehet több lesz. Jó lenne ha így lenne, mert akkor beindulna az AMD szekere és akkor (még) komolyabban vennék őket. Több pénzük lenne, és az nekünk is jobb lenne, mert így is ők tesznek többet a játékosokért (annak ellenére, hogy a Nvidia-hoz képes milyen "kicsik") a többi konkurensekhez viszonyítva.
-
Abu85
HÁZIGAZDA
De mi a probléma ezekkel a CPU-kkal? A teljesítményük egy normális, hangsúlyozom normális API-val nem limitált. Nem a hardver a rossz, hanem a DirectX 11! Ma azért fizetsz, mert tíz éve képtelen a Microsoft összehozni egy olyan API-t, ami nem pazarolja el az elérhető erőforrás 90%-át.
Az a baj a driverrel, hogy borzalmasan rosszul működik a virtuális szálakkal. Azért nem javasolják ma a minimum gépigényeknél az i3-at, mert a grafikus drivernek nem jó a Hyper-Threading. Ez persze nem a hardver hibája, hanem a DirectX 11 kényszerít a fejlesztőkre egy rossz programozási modellt. És egyszerű innen azt mondani, hogy változtassanak rajta, de a Civ6 azért olyan amilyen, mert a rendkívül rossz kialakítású szoftveres réteg mellett ez a valóban nevetséges működési mód a legjobb.
-
és esetleg Atom N2800-zal nem próbáltad? ne komolytalankodjunk már

amit a driverekkel kapcsolatban írtál, az elég vicces - majd veszek olyan CPU-t, ami 2C8T felállású (ie. mindkét fizikai maghoz 4-4 logikai szál tartozik)
ettől függetlenül, amikor a Civ az AI-t számolja, akkor a balanszon éppen lehetne állítani...(#8601) HSM: ne haragudj, de kevered a szezont a fazonnal. low level API-t simán lehet csinálni bármelyik DX10-es VGA-n, maximum convenience feature-ök hiányoznak mondjuk egy 8800-ból vagy 2900-ból, amitől hatékonytalan lenne programozni rájuk. a DX11-gyel való szenvedésnek az a fő oka, hogy a nagyon kényelmes és sokáig olcsó raszterizációs modellhez és multilevel API-hoz ragaszkodott mindenki, amíg lehetett. most már sokaknak fáj, és még ez sem kényszerítette volna ki a DX12-t, ha az AMD meg nem lépi a Mantle-t (amiért, hangsúlyozom, nagyon tisztelem őket - a b@szogatás az eredményességnek szól, nem a koncepciónak). hogy a félig CPU jellegű GCN mennyivel jobb low level API-hoz, azt nem tudom megítélni, de ez nem is fontos - ha lenne standard API, akkor lehetne rá fejleszteni, és kiderülne, ki a legény a gáton. az nVidiának ebben a versenyben a Maxwell az első tétje - ők vállalják ezzel az esetleges kockázatot, teljesen irreális emiatt rájuk kenni az iparág töketlenségét.
-
Crytek
nagyúr
válasz
gainwardgs
#8608
üzenetére
Már csak annyit kell kihúzni a veterán gépemnek hogy kiderüljön a 380X jobban megéri-e majd mint 970!És akkor beindul a nagy game dömping évekre visszamenőleg újra végigviszek mindent ami eddig akadt és nem ment maxon.Előre sírok az örömtől

-
Sondi1986
addikt
Ha ez tényleg igaz, és az AMD kiadja ezt a kártyát HBM memória nélkül, kemény veszteség után nézhet, mivel csak év végere lehet kész a 16nm esetleg a 14nm amire rá tudna állni, és meg tudja mutatni az új architektúra képességét is ha csinál addigra.
egyskacc Nem jót helyre írtad ezt. Különben a tápod nem lehet a ludas?
-
egyskacc
újonc
Üdv, egy fura kérdésem lenne hozzát, egy új venti befolyásolhat egy videókártyát a normális működésben??
Hogy meg is értsétek mi a gond, elmagyarázom.
Tehát van egy ati 5970 es kártyám, amihez jó áron, viszont használtan jutottam hozzá, egy ideig minden jó volt, de 2 hónap után nagyon csunyán el kezdett zörögni benne a venti( gondolom csapágyas lett), keresgéltem a neten ventit hozzá, de ebay en találtam csak 15 dollárért, és annyit meg nem akartam érte adni.A lényeg az h a végén mégis lett bele egy venti, mivel a haveromnak volt egy 8800 gtx ventije, néztem az átmérőt jó, 4 pines a ventije, ez is jó, annyi volt a különbség h a csavarhelyek nem ott voltak ahol az atis ventinél. Kis pillanatragasztó és akkor elkészült a csoda, ami igy néz most ki

A gondom csak annyit hogy mikor belépne a win be, a win7 felismeri a kártyát, viszont azt irja h driver nincs hozzá, és amint el kezdem telepiteni a drivert, azonnal lekapcsol a kártya, a venti 100% ékon pörög és elmegy a kép, a gép csak akkor áll helyre, ha kikapcsolom majd vissza be, de ezután már a win töltésénél meghal.
Szerintetek ?? Vélemény??
Valamit a bioszban kellene működni talán ??
Viszont azt hozzáteszem hogy a haver gépében tökéletessen megy, itthon meg nem, de van egy 4850 esem, amit jelenleg használok, az viszont gond nélkül megy, tehát még az is kizárható h a lap vagy esetleg a pci-e ment volna gajra.... -
Abu85
HÁZIGAZDA
Más, hasonló teljesítményű CPU-val is így viselkedik. Athlon 5350-en is kipróbáltam, amivel DX11-ben csak 13-15 fps-t kaptam, de az AMD API-jával maradt 40 fps körül.
Sajnos a mai driverek nem úgy működnek, mint a régebbiek. A Civ5-höz képest számos korlátozást kapott a Civ6. A mai driverek ahhoz, hogy elfogadható teljesítményt nyújtsanak nagyon agresszívek többszálú optimalizálásokat kaptak, ami azt eredményezi, hogy kíméletlenül elveszik a processzoridőt az alkalmazástól. Ma az az optimális, ha a legalább három magot kap a driver (ez az NV előírása, és az AMD is hajlik efelé). Ezért is ajánlanak ma minimum 4 magot a friss játékoknak, de inkább 5-6 kell. Így lesz a legjobb az általános folyamatosság. Persze a minimumok nagyon esni fognak, de a DX11 ma a kompromisszumról szól.
-
Crytek
nagyúr
PFF. Megint itt vagyunk. És mire ment az AMD ezzel, továbbra is kérdem.
Azt meg hagyjukmár hogy előrébb tartana.
Ezek szerint gyakorlatilag azt állítod, hogy az nvidia a nonplusszultra meghatározó tag a VGA ipaban akinek az MS is becsókol és a NV-re alapoz őt várja a szavakun csüng. Hát epic fail megalol baromság ez.
Az AMD az egész gcn-estül egyenlőre egy nagy "0" abból a szempontból hogy több éves technológiai előnnyel sem képes úgymond semmire. CPU fronton meg ugyanez igaz rá csak negatív értelemben ott kb 80 éve nem csináltak semmit. -
Abu85
HÁZIGAZDA
válasz
daveoff
#8592
üzenetére
A mai programok még DX11-re vannak tervezve. Kivéve a Frostbite 3, ami sajnos egyre instabilabb DX alatt, ahogy nő a motorverzió. Ezt mondjuk nem tartom jó ötletnek. Tudom, hogy fél az EA attól, hogy mit szólnának a játékosok, ha a DX grafikát butítanák/sebességet visszavennék, de az instabil program a legrosszabb döntés: [link]
Azért mondtam példának a StarSwarmot, mert az olyan program, amerre megyünk, és ott már nem csak 2000-et rajzol a konfig. Ez a 2000-es határ a DirectX 11 miatt él, és nem azért, mert "hú de elég" ez a mennyiség.
Nem kell, hogy meggyőzzön téged. Nem te fogsz erre az API-ra programokat írni. -
HSM
félisten
Én a jelenről beszélek elsősorban... 3 éve jelent meg a Tahiti, DX12 Tier 3 azaz full tudással. Ehhez képest, az Nv a mai napig nem képes ezt nyújtani a legfrisebb Maxwell csipjeivel sem. Sőt, még dokumentációjuk sincs.
Korábban, ahogy jöttek az okosabb hardverek, jöttek hozzá az okosabb API-k is rövid időn belül. Ez most megszakadt, ugyanis az egyik játékos a kvázi kétszereplős piacon nem igazán akarta tudásban követni a másikat, így semmi kényszer nem volt a Microsofton, se senkin. A játékfejlesztőknek pedig évekig együtt kellett élni a DX11 nyűgjeivel, amit mára már nagyon kinőttek a nagyobb koponyák. Gondolj bele, olyan talán még sosem volt, hogy ott legyen a HW-ben a tudás (GCN, ahogy mondtad korábban, "túl okos"), amit a mai napig nem lehet DX alól kb. semennyire kihasználni, és legkorábban a kiadás után 4 évvel lesz hozzá alkalmas API, a DX12....
Ha az Nv is meglépte volna már a Keplernél, hogy okosabb csipet tesz le az asztalra, már rég előrébb járhatna ez az egész API-s történet és a PC játékok az én véleményem szerint.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Nagyakkus, mobilnetes - Dell Latitude 5330 i3-1215U 6mag! 16GB 512GB 13.3" FHD 1 év gar
- Tablet felvásárlás!! Apple iPad, iPad Mini, iPad Air, iPad Pro
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RX 9070 16GB GAMER PC termékbeszámítással
- HIBÁTLAN iPhone 13 256GB Pink -1 ÉV GARANCIA - Kártyafüggetlen, MS3733, 91% Akkumulátor
- HIBÁTLAN iPhone 15 Pro Max 256GB Black -1 ÉV GARANCIA - Kártyafüggetlen, MS3495, 91% Akkumulátor
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: Promenade Publishing House Kft.
Város: Budapest


tényleg azt gondolod, hogy ez nem sértő?






), de jó térbeli effektezett, realisztikus hangok, na azok már jöhetnének.





