Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
TTomax
#33746
üzenetére
Igazából arrafelé tart.

Ez valóban elkészült prototípus szinten. Most azt csinálják, hogy elkészüljön kiadható termékként. Előbb szerver, majd asztali és mobil vonalra. Az Intel dettó ugyanilyenen dolgozik. Nem a Kaby Lake-G-vel, hanem a saját lapkáival. A Kaby Lake-G csak egy kényszertermék.Szóval az Intel és az AMD hosszabb távú tervei nem változtak. Szépen a tokozásba egy-két erős CPU, majd egy erős GPU, és viszlát PCI Express. Ha tetszik, ha nem ez lesz. A Windows 10 1803 is tartalmaz olyan kísérleti funkciókat, ami ilyen hardvert igényel. Például a Tiled Resources TIER_4.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#33729
üzenetére
Nem teljesen. Inkább a Windows aktuális HDR pipeline-jának "mellékterméke", ami bizonyos hardver összeállításokat jobban érint, míg más konfigurációkat kevésbé. Amint betöltesz egy olyan tartalmat, ami gyakorlatilag letiltja a szoftver oldalról nem kezelhető tényezőket, a jelenség teljesen megszűnik. Az más kérdés, hogy ehhez olyan hardverek is kellenek, amivel ez az egész kikerülhető a játékok alól.
Amelyik gyártó HDR implementációja a Windows pipeline-ját használja az érintett lehet ettől a problémától, akár súlyos formában is, és ezt nem lehet kívülről, egy hardvercserével kezelni. A Microsoft talán tudna tenni valamit, de ahhoz is új pipeline kell, és ugyanúgy a rengeteg eltérő hardver miatt nem kizárt, hogy az meg más problémás jelenségeket hoz elő. Egyedül a FreeSync 2 kerüli meg a Microsoft saját rendszerét, így az ebben lévő úgymond mellékhatásokra nem érzékeny. De ezzel az a baj, hogy nem szabványos, tehát te például el sem tudod érni. De mivel nagyon korlátozott a hardveres támogatás, így arra a korlátozott hardvere jól meg lehet csinálni, azzal a pár szoftverrel, ami támogatja is.Ezek azok a dolgok, ami miatt az iparág elkezdte vizsgálni azt, hogy a rendszer esetleg beolvashatná a kijelző paramétereit, és ezt figyelembe véve állíthatná elő a HDR-t is. Gyakorlatilag ez így egy szabványosított FreeSync 2 lenne, ami működne mindenen, mármint minden új kijelzőn, mert az aktuálisaknak mindegy.
Végeredményben ez a jelenség már egy éve létezik: [link] - Nem igazán bugról van szó, nem lehet csak úgy fixálni. Új pipeline-t kell tervezni, de leginkább el kellene érni, hogy az alap HDR is úgy működjön, ahogy a FreeSync 2. Szépen össze kell ülnie az iparágnak (szoftver, GPU, kijelzőgyártó) alkotni egy tényleges szabványt a FreeSync 2 mintájára.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#33724
üzenetére
Nem bugos. A probléma az, hogy az aktuális HDR szabványokat nem játékokra tervezték. Meg lehet csinálni, de mindegyik szabványos pipeline csinál egy extra tone mapping lépcsőt azután, hogy a PC-ről elküldte a program a képet a kijelzőre. Az a kép akkor igazán jó, ha a kijelző képességeiről az adott játék információt kap, és abból az információból kiindulva csinálja a tone mappingot, majd az így keletkező képet küldi el, amit a kijelző lehetőség szerint már nem módosít egy extra tone mapping lépcsővel. Effektíve így működik a Samsungnak a három HDR kijelzője, amit a játékosoknak szánnak, de ezeken kívül semmi más nem támogatja ezt a formát, vagyis a HDR a játékokban az említett kijelzőkön kívül minőségtorzító hatásban részesül. Egyszerűen a HDR10 és Dolby Vision nem alkalmas arra, hogy a játékokba tegyen jó minőségű HDR-t. Ezért is dolgozik a háttérben az ipar egy olyan gaming kiegészítésen, amelyek szabványosan is megoldják a kijelző adatainak beolvasását, és ebből a közvetlen tone mappingot, csak ez még évek kérdése ugye, mert szabványosítani kell.
A Samsung alapvetően egy nem szabványos megoldást használ, a FreeSync 2-t, amit a PC-n csak az újabb Radeonok, míg a konzolpiacon az Xbox One S és X támogat. Mivel ez nem szabvány így könnyű építeni rá támogatást, csak magát az alapproblémát egy nagyon szűk részterületen oldod meg vele. És ez is játékokra van bontva, például a Far Cry 5 ezt a formát már támogatja, de ha nincs Samsung FreeSync 2 Gaming monitorod és újabb Radeonod, akkor a Microsoft szabványos HDR pipeline-ját használja a program, aminek a minősége sokkal rosszabb. Az Xbox One S és X is hiába támogatja, konzolon a Far Cry 5 nem tudja használni a FreeSync 2-t.
Szóval nem bugos a dolog, nagyon korlátozott hardverek használata mellett működik, de általánosan a szabványos pipeline-ok nem játékokra vannak kitalálva, és ha ilyen HDR-t használsz, akkor nyilván nem lesz jó eredmény a kijelzőn, maga az extra tone mapping fázis lehetetleníti el ezt. És ez egy full szoftveres probléma, hardverből nem oldható meg. -
Abu85
HÁZIGAZDA
válasz
Televan74
#33721
üzenetére
Igen, csak a 4K-s HDR tévék nem a játékokhoz készültek. A tipikus HDR10/Dolby Vision pipeline nem veszi figyelembe, hogy a játékok esetében csak árt a utófeldolgozásnál a tone mapping. A játékba bekérhető az adott kijelző specifikációja, és annak megfelelő tartalmat lehet rá számolni, amivel kiüthető az utólagos tone mapping is. Ezzel lényegesen kisebb lesz a megjelenítés késleltetése, illetve a képminőség is jobb lesz. A normál tévék ezt a módot nem támogatják, mert nem a játékosoknak készültek.
Ez egyébként szerencsére szabványosítás alatt van, tehát később lesznek HDR Gaming kiegészítések, de ez még évek kérdése. Addig a Samsung által alkalmazott módszer az egyetlen megoldás. Mondjuk jó hír, hogy az Xbox One S és X is támogatja, tehát a jövőben akár a tévékben is megjelenhet. -
Abu85
HÁZIGAZDA
válasz
Televan74
#33719
üzenetére
Nem. Az újabb panelek már nem Full HD-sek. De van C27HG70, ami WQHD-s és HDR-es. Viszont még ez is majdnem 200 rongy, ugyanakkor nagy előnye, hogy támogatja a játék által számolt tone mapping megjelenítését, míg a legtöbb HDR-es kijelző nem igazán a játékosoknak készült, így a szabványos HDR futószalagot használják, ami extra tone mappinggal jár.
-
Abu85
HÁZIGAZDA
Ezernyi oka lehet. Például a tévépiac VRR választása. A Samsung a HDMI-s FreeSync-et és a HDMI VRR-t, míg sokan az utóbbit választották. Mindkettőt csak Radeonnal lehet jelenleg használni. Az AMD-n kívül más gyártó vagy nem kínál támogatást, vagy nem is jelentették be azt.
A nemsokára még azért elég messze van, és nagyon sok régi VGA is megmarad a mostani palettából. A memóriagyártók annyira szétkartellezték magukat, hogy borzalmasan kevés az új szabványokhoz való memória. És nyilván nem a telefongyártók fogják ennek meginni a levét, hanem az olyan piacok, amelyek a memóriagyártóknak nem különösebben számítanak. Például a VGA-k.
-
Abu85
HÁZIGAZDA
válasz
rumkola
#33712
üzenetére
Nem teljesen. Ez úgy van, hogy itt igazából sok gyártó nincs, maximum sok dobozoló.

Az egyes gyártók vásárolnak maguknak jogot, hogy mely piacokra lehet a termékeiket elvinni. Ebből a szempontból például az ASRock és a Colorful, de még a Sapphire és a Zotac igényei is lényegtelenek, mert nem ők gyártják magát a terméket. Egyszerűen ezt megkapják a partnerüktől. A Sapphire és a Zotac a PC Partnertől, az ASRock és a Colorful pedig egy kimondhatatlan nevű (nem tudom a latin betűs jelzést) kínai üzemből. Na most ezek a valós gyártók szereznek jogot az egyes piacok ellátására az AMD-től és az NV-től. Az ASRock és a Colorful azért nincs itt, mert magának az ellátónak nincs joga nyugatra gyártani. Ha mondjuk ez a két cég mondjuk a TUL-lal vagy a Foxconnal gyártatna, akkor jöhetnének Európába, mert a Foxconn rendelkezik ilyen jogokkal. Azt egyébként nem tiltja senki, hogy az a kínai gyártó, aki az ASRocknak és a Colorfulnak gyárt, ne döntsön úgy, hogy szerez jogot a nyugati piac ellátására is. Nincs probléma belőle, ez egész csak pénz kérdése. Viszont maga a gyártó eziránt nem érdeklődik (nyilván az EU-ba eltérő minősítéseket kell szerezni, mint Kínába). Innentől kezdve az ASRock és a Colorful keze is meg van kötve, amíg nem mennek át egy olyan gyártóhoz, amelynek van joga ellátni a nyugati piacokat. Hiába kérik az AMD-t és az NV-t erre, ők a minősítések hiányában nem adhatnak engedélyt nekik. De ha ez megvan, akkor természetesen az AMD és az NV engedélyezi a szállítást ide is, innentől kezdve a dobozolás során már csak a megfelelő dobozokat és leírást kell biztosítani. Nyilván a nyugati piacnak angol/német/francia/stb. nyelvű leírások kellenek.
A másik lehetőség a szürkepiac. Ez már egy érdekesebb kérdés, mert ilyenkor gyakorlatilag EU-s engedélyek nélküli terméket hoznak be ide. Ez nem teljesen legális, de végeredményben mire valamiről kiderül, hogy az engedélyek nélkül nem forgalmazható, addigra a legtöbb bolt már eladta a készletet, tehát maga a piac ebből megél.Egyébként ha valaki AMD Radeont akar építeni szerintem leginkább a TUL-t érdemes megkérni rá. Sokkal drágább, mint a többi gyártópartner, de a gyártósoruk olyan, hogy minden piacra tudnak engedélyt kiállítani. A PC Partner se rossz, de ők igazából a saját leányvállalataikat szolgálják ki elsődlegesen, míg mondjuk a TUL egy OEM beszállító is, tehát effektíve mindenkit ugyanolyan szinten kezelnek, annak ellenére, hogy nekik is van saját márkájuk PowerColor névvel. Az NV-nél a Palit hasonló gyártó, mint az AMD-nél TUL, ők is tudnak mindenhova engedélyt kiállítani. Ők még relatíve olcsók is.
Azt egyébként el tudom képzelni, hogy az ASRock esetében a partnert is az AMD intézte, és gyakorlatilag direkt olyan gyártót választottak, akik csak Kínát célozzák. Ebben az esetben nyilván már előre tudható volt, hogy máshova nem is jönnek az ASRock VGA-i. Az persze nagyon meglepő lenne, hogy erről az ASRock esetleg nem tudott.
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#33684
üzenetére
Vagy azt, hogy a Valve megint úgy döntött, hogy önhatalmúlag kivesz egy nagyobb mintát, mert azzal szerintük jót csinálnak.

---
(#33686) Raymond: "plusz ebben a honapban a Valve is tekert a Kinai internet cafe-k szamolasan"
Ez csodálatos. Igazi reprezentatív mérés. Ha nem tetszik az eredmény, akkor tekerünk rajta.

-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33676
üzenetére
Nem véletlen. Az id (Bethesda) abban az időben tapasztalt szakembereket keresett. Szinte minden stúdiótól csábítottak el erőforrást. Valahonnan sokat. Innentől kezdve ez már piacgazdaság, ahol nagyobb a fizu oda megy a programozó. A Zenimaxnak megéri, mert befektet a tudásba, amivel később lesz egy jól használható motor minden stúdiója számára. A Cryteket is leszívták korábban.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33672
üzenetére
Megkérdezném, de már nincs kit. Mind a négy ember elment onnan, akikhez van/volt elérhetőségem. 2015-2016-ban nagyon sokan leléceltek az id software-hez (páran a Sony-hoz). Ez már nem ugyanaz a Nixxes, mint két-három éve volt, újak az emberek.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33670
üzenetére
Jobban tudják, mint mi.

De nem nehéz összerakni a részleteket. A Rise-t a Nixxes bejelentette, hogy csinálja, aztán mégse került fel referenciának, aztán lett egy DX12-es mód, ami pár effektet nem tartalmazott, amiről kiderült, hogy a Nixxes csinálta. Tehát van kétféle API, olyan különbséggel, hogy konkrétan effektek is hiányoznak. Aztán soha az életben nem hozták szóba bejelentésben a PC-s portot, megismétlem, referenciaként sem került ki a Nixxes oldalára, holott a RotTR Xbox One X, 360 és PS4 portjuk ott van. Csak a PC-s portot hagyták le. Vajon mi történhetett? Minden rendben a terven szerint lezajlott? Ha igen, miért nem rakták ki referenciának, mint a másik három portot? Nem lehet, hogy kivételesen tényleg jobban tudja egy "külsős", hogy volt probléma a háttérben?
Felőlem egyébként elhihetjük, hogy hivatalosan minden rózsaszín volt, és aki közel volt a projekthez az hazudott róla, a Nixxes pedig azért nem rakta ki referenciának, mert ... nem tudom. 
-
Abu85
HÁZIGAZDA
válasz
FollowTheORI
#33667
üzenetére
Az AMD-nél a Bethesda és a CIG bejelentéseire várnak. Ezeknél a stúdióknál készülnek az idei fő projektek. Az egyik legfontosabb projekt most a Bethesda új IP-je, amiért tudtommal elég sokat fizettek. Hogy mire azt nem tudni. Pletykák vannak, hogy túlmegy majd a normál együttműködési formán az AMD és a Bethesda, és eléggé szoros lesz a kapcsolat üzletileg is. De tényleg csak tippelgetni lehet, hogy mit találtak ki.
Azért a DX12-nél eléggé nehézkes a Square Enix nyugati részlegének a dolga. Eleve két különböző motorjuk van erre, és ezen belül is sokban eltérnek az implementációk. Technikailag a LABS részleg is csak a Dawnon dolgozik, ami a fejlesztések szempontjából hátrányos. A Crystal/Foundation Engine eléggé félre van rakva, ami látszik is az új Tomb Raider képein, gyakorlatilag ugyanaz, mint az előző rész.
A legnagyobb hátrány egyébként a Microsoft piacpolitikája. Az rendben van, hogy a DX12 Windows 10 only, már mindenki elfogadta, de minden egyes újítás egy új frissítéshez kötött. Például a Redstone 4 egyik régóta igényelt képessége a 16 bites float megfelelő 16 bites alligmentálással, de ahhoz, hogy ezt kihasználják a programok minden gépre a Redstone 4 frissítés kell. A DirectX Raytracing még nincs is engedélyezve, majd csak a Redstone 5-ben jön, hacsak nem csúsztatják a Redstone 6-ig, mert eléggé sok fejlesztői igény gyűlt össze, amit nem biztos, hogy őszig feldolgoznak, és akkor a véglegesítést inkább görgetik fél évet. Viszont érdekes tényező, hogy különösen a játékosok várnak a frissítésekkel. Egyszerűen kikapcsolják a Windows 10 automatikus modulját, és egyszerűen nem engedik telepíteni a nagyobb update-eket. Ez borzasztóan hátráltatja az amúgy hasznos újítások terjedését. Erre ráadásul a DirectX Raytracing rárak még egy mázsás terhet, mivel érthetetlen okból minimum igényként fogalmazza meg a shader modell 6.0-t, vagyis ha egy ilyen alkalmazást Windows 10 Redstone 3 alatt is futtatni akar a fejlesztő, akkor szállítania kell minden shaderből egy DXIL és egy D3BC verziót. Ez elég durván megnöveli a tesztelési költséget, ami megint csak azt akadályozza, hogy egy újítás terjedjen. Nem is értem, hogy ezt a Microsoft hogyan gondolta. Elég lett volna csak a DirectCompute shaderekre kérni a shader modell 6.0-t, és akkor már egy rakás költséget spórolhatnának a fejlesztők. Persze értem én, a Microsoftnak elég nagy érdeke az, ha valaki pusztán az aránytalanul magas többletköltség miatt inkább el sem készíti a Windows 10 Redstone 3 alatt futó módját az adott játéknak. Ez még pár cég erejéig el is jászható, a kieső eladásokat megpróbálja kompenzálni az érdekelt. Például a Remedy esetén ez tuti opció, de így meg szart sem ér az egész, mert lesz pár kiválasztott cég, a többiek pedig messze elkerülik az újítást.
A Vulkan esetében ez az egész sokkal jobb. Ahhoz, hogy meglegyen a legfrissebb Vulkan implementáció, csak egy meghajtót kell frissíteni, amit a játékosok sokkal sűrűbben engednek meg. Ráadásul minden magas szintű shader nyelvből ugyanúgy SPIR-V-t fordítasz, tehát egy kódot kell szállítani, és teljesen mindegy, hogy mit használsz az API-ból. Ez a kód pedig Windows 7-ig visszamenőleg futni fog. Szóval a Microsoft saját magát és a DX12-t használó fejlesztőket lövöldözi tökön folyamatosan. Nem véletlen, hogy egyre többen mennek inkább a Vulkan felé. Még ha a Linux nincs is tervben, akkor is nagyobb a célozható piac Windowson, miközben a tesztelési költségek nem nőnek igazán az egyes újítások bevezetésétől.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33665
üzenetére
Csak referenciának nem tüntetik fel. Pedig ha valamit megcsinálsz, akkor azt megadod referenciádnak. Vagy esetleg nem te csináltad és ezért nincs ott a referenciáid között.
Az a baj, hogy bejelentés történt csak a PC-s portról. Egy megjelenésnél jóval korábbi. Egy ilyen szűkös csapatnál, mint a Nixxes gyorsan megváltozhat a helyzet. Aztán a végén fel se teszik referenciának, mert a Crystal elvégezte helyettük magát a portolást.
Nem félinformációk azok. Konkrétan beszélgettünk erről, hogy mi történt a háttérben, mert nyilván furcsa volt, hogy a DX12-es mód grafikailag kevesebb. Kevés volt az ember, a megjelenés közeledett, és a Crystal visszavette a munkát. A Nixxes megcsinálta a DX12 módot, és segítette a supportot, majd csináltak még egy multi-threading frissítést, de ezt csak pár hónappal később. Ezért voltak teljesítményproblémák az elején a játékkal.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33658
üzenetére
Írtam, hogy sok külsőssel dolgoznak. Ezek szerződésesek. Csak egy adott projektre szól a szerződésük, amint megvan, szélnek lesznek eresztve. Stabilan csak kb. 20 fő a Nixxes, mert az év nagy részében a LABS munkáját segítik. Amikor van többletmunka, akkor jönnek a fix szerződéses emberek.
Nem így mondták. Azt kérdeztem meg, hogy miért hiányzik pár effekt a DX12-ből, amikor a DX11-ben benne van. Erre az volt a válasz, hogy azért, mert a DX12-t a Nixxes csinálta. Hogy ebből mi jön le neked, azt rád bízom.
A közös projekteket ki szokták tenni referenciának. Inkább azt lehetne mondani, hogy szerződéses projekt volt, amikor volt egy kis munka, amit meg kellett csinálniuk. Ennyi. Se több, se kevesebb.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33651
üzenetére
Nem, csak a bejelentés korábban volt, mint a megjelenés. Nagyon kicsi a Nixxes, rengeteg külsősre építenek, és ha nincs elég erőforrás a munkához, akkor kedvezőbb, ha visszaadják a Crystal Dynamics-nek. Ezért nincs fent az elkészült projektek listáján a PC-s port. Az Xbox 360-ra fontosabb volt a Nixxes, mert nekik volt fejlesztőeszközük hozzá. Viszont amint elkészítették csináltak pár dolgot a PC-s portba, például a DX12-es mód. Ezért van az, hogy a DX11-es és a DX12-es mód között vannak olyan eltérések, hogy utóbbival nem aktiválható pár effekt. A Nixxesnek nem volt lehetősége ezeket betervezni, rengeteg többletmunka lett volna, így inkább kihagyták az egészet. Ha DX12-t is a Crystal Dynamics vállalta volna be, akkor nem lenne benne kevesebb effekt, de annyira szerencsétlenül alakult a fejlesztés, hogy a tervek azok buktak.
A portolást elkészítheti más is, mint aki biztosítja utána a supportot. Erre a Nixxes akkor jó volt, amikor már ki lett adva a játék. Ettől a portot nem ők csinálták. Nem volt meg rá a kapacitásuk, nem is rakták ki az oldalukra referenciának.
Sehol. Az NV-től tudom, hogy ők csinálták a DX12-es módot.
A projekt oldaluk a referenciájuk. Amit ők csináltak, azt oda felrakják. A segítséget azért nem túl szerencsés, mert sok projektben aktívan besegítenek a LABS-nak is, de nem ők vezetik ezeket. Óriási különbség vezetni egy projektet, és csak besegíteni. Utóbbi esetben lényegében semmi közöd nincs hozzá, csak egyfajta szerződéses megrendelést teljesítesz.
(#33649) Shing: Ez nem a büszkeségről szól. Amelyik projektejet vezették, tehát az övék, azokat megjelenítik.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33647
üzenetére
Ezeket a projekteket végezte a Nixxes. A Rise of the Tomb Raider PC-s portját maga a Crystal Dynamics csinálta. Az, hogy mit jelentenek be, és hogy végül mit csinálnak meg belőle, két különböző dolog. Nyilván annak is a függvénye, hogy milyen fontosabb munkákat kell elvégezni. A Nixxes nem egy nagy csapat, alig 20 fő, ők nem tudnak két portot csinálni egyszerre. Szóval a tervezés és a kivitelezés között óriási különbség lehet. Viszont a valóban elvégzett projectekjeiket visszamenőleg jelzik. Nem véletlenül nem írták be a PC-s portot, azt végül nem ők csinálták.
A patch-ek más részre tartoznak. A DirectX 12-es módot a Nixxes csinálta meg. Ezért is van olyan óriási különbség a beállítható grafika között a DX11 és a DX12 esetében. Utóbbival ugye nem kompatibilisek bizonyos middleware-ek, mivel a Nixxesnek nem volt meg a hardveres háttere ezt tesztelni. Ezért úgy ahogy van ki is hagyták őket a DX12-ből.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33644
üzenetére
Nixxes Software-nek semmi köze nem volt a Rise of the Tomb Raider PC-s portjához. Az Xbox 360, a PS4 és az Xbox One X portot csinálták.
Az elmúlt évekhez képest annyi változott, hogy az NV a stúdiók helyett címekre köt szerződést. Ez hozott elő olyan érdekességeket, hogy például a Division egy NV által támogatott cím volt, amit gyakorlatilag AMD hardveren fejlesztettek. A Nixxes sem fogja lecserélni a gépparkját, mert nekik ugye kell a kapcsolat a LABS csoporttal, akik csak Radeonra dolgoznak. De volt ez fordítva is, mert a The Turing Test NV hardveren készült, mégis AMD-s címe volt.
Az a lényeg, hogy az NV feladta a klasszikus stúdiókba utazó koncepcióját, mert egyszerűen nem kell odatelepülniük, hogy a programot támogassák. Majd az utolsó héten odaadják a middleware-t és kész. Akár nulla odautazott emberrel le lehet hozni a címet. Az AMD-nek ugye más a beállítottsága. Ők kevésbé mobilisek, mert nem tudják megoldani azt, hogy az utolsó pillanatban szállítsanak egy middleware-t, ezért van náluk még a klasszikus, stúdiókba betelepülős modell. Amin persze nem is akarnak változtatni, mert ugye mindkét megoldásnak megvan a maga előnye és hátránya.
A middleware abból a szempontból előny, hogy nem kell helyi ember, megadod mi kell a rendszerednek, milyen DRM-et használ, stb., majd aszerint lesz meg a kód, amibe a végén eljuttatod nekik a dll-eket. Ennek a hátránya, hogy ha nem működik vagy nem jól működik a végső kóddal a middleware, akkor az para, mert nincs idő a megjelenésig javítani.
Az odatelepülős módszer ehhez képest eléggé drága, és ez a hátránya, mert konkrétan kell helyi szinten programozókat biztosítani, akik ott helyben megoldanak mindent. Az előnye, hogy abszolút integrált megoldásokat kínálnak mindenre, vagyis nem fenyeget az inkompatibilitás vagy a rossz teljesítmény veszélye.
Ilyen formában egyébként ez a két rendszer abszolút megfér egymás mellett, mert amíg az adott stúdió köt az AMD-vel egy támogatási szerződést (fizetnek a szaktudásért, hardverekért, emberért stb.), addig bizonyos címekre lehet kötni az NV-vel egy együttműködési szerződést is. Ezért alakulnak ki mostanában ezek az átfedések. Még hasznos is, mert ha azt nézed, akkor az NV fizet valamennyi pénzt a reklámszerződésre, amiből az adott stúdió úgy egyben meg tudja venni az AMD szaktudását, mert azért ők sem adják ám ingyen az emberüket. És ez tényleg a kellemest a hasznossal effektus. Működik is. Ugyanezt csinálták a Middle-earth: Shadow of War esetében. Az eredmény nem lett rossz. -
Abu85
HÁZIGAZDA
válasz
Raymond
#33629
üzenetére
És ezt te is az egy évtizedes médiatapasztalatodra építed mint én ugye?

Egyébként te tényleg elhiszed, hogy itt ez az egész média egy olyan szivárványpónis rózsaszín mesevilág, aminek külsőre látszik? Hogy nem történnek személyeket előnybe helyező döntések pusztán haveri alapon a hardverek kiosztásánál, vagy az utaztatásnál? Ha igen, akkor nagyon keveset láttál ebből a világból.
Persze értem én az egészet, nem sokan éltek benne tíz éve, és nyilván ezt belülről látni teljesen más, mint amit olvasóként lehet tapasztalni, de ettől még nem kell naivnak lenni. -
Abu85
HÁZIGAZDA
válasz
keIdor
#33622
üzenetére
Ez egyébként tök jó, nézel egy rakás oldalt, ami ezzel foglalkozik. Csak elértünk a probléma megtestesüléséhez. Hét médiát soroltál fel gondolom emlékezetből, és a Tech of Tomorrowt nem említetted.
Az az érdekes a külföldi és a hazai viszonyok között, hogy külföldön piszok erős a verseny. Ott ha be akarsz indítani egy ilyet, akkor tényleg tudsz találni mögé támogatókat. Itthon ez nem realitás, maga a hirdetőpiac nem teszi azzá. Tehát amíg itthon egy olvasó azt látja, hogy van pár média bebetonozva a saját helyén, addig nyugatra egy új médiával akár két éven belül is meg lehet verni igen patinás szereplőket. Itthon ez elképzelhetetlen.
És akkor még nem is beszéltem arról, hogy kint mi van a rózsaszín ködfátyol mögött. Ami finoman szólva is gusztustalan néha. Ezt nem szeretném megosztani, de érdemes megnézni az AdoreTV PC Perspective-ről szóló anyagát, sajnos tényleg ilyenek történnek.
-
Abu85
HÁZIGAZDA
válasz
TTomax
#33615
üzenetére
Mert nem ebben a rendszerben vagy benne, csak egy külső szemlélőként látod az egészet, és senkiről sem hallasz semmilyen olyan információt, ami megrendíthetné a bizalmat vele szemben. Ellenben a gyártók kontaktjaival én szoktam beszélni, évente többször, akár személyesen is, és nem csak a kívül látható, rózsaszín, cuki pónikat szóró ködfátyolig ismerem ezeket a médiákat.
(#33616) Raymond: Mint írtam a haveri alap számít, de amint megy a haver kontakt, onnantól kezdve jönnek a nyers számok.
(#33618) MiklosSaS: A lab501 nem minden gyártónál tartozik a mi régiónkhoz. Az egész régiókra van osztva a gyártóknál, és régiónként van x mennyiségű kiosztható teszthardver.
A régióknál pedig ne a földrajzra gondolj. Az egyes kontaktok kapnak régiókat, tehát amíg mi az NV-nél a cseh központú régióhoz vagyunk besorolva, az AMD-nél a szerb központúhoz.
Emellett a lab501 egy GeForce Garage partner, ami elég sok pénzt hoz nekik, így tudnak fennmaradni a jelenlegi gazdasági helyzetben.Mi alapvetően egyetlen gyártóhoz sem szeretnénk anyagi alapú partneri viszonnyal tartozni, mert elsődleges irányelvünk a függetlenség. Persze kurva jó a pénz, amit egy speciális szerződés hozhat, de a legnagyobb érték egy újságnak az, ha bármiről szabadon írhat.
-
Abu85
HÁZIGAZDA
válasz
TTomax
#33613
üzenetére
Elmondom mit küld az AMD. Van egy bő 40-70 oldalas review guide (terméktől függően), amire az AMD azt mondja, hogy szerintük ez a reális tesztkörnyezet, ezek a reális programok, és ezekből gyakorlatilag csinálnak egy saját tesztet. Azt kérik, hogy ezt olvassa el mindenki, aki teszteli. De sose, hangsúlyozom sose kérték azt, hogy ezt másoljuk le részben vagy egészben. Sőt, a Ryzen esetében kifejezetten buzdítottak arra, hogy nézzük meg olyan programokban is, amelyek nincsenek benne a review guide-ban, és ha ez egy egyedi program, amit más nem is igazán tesztel, akkor küldjük el nekik az eredményt, hogy ők is láthassák. Ilyenkor esetleg felkereshetnek, hogy mondjuk el azt is, hogy miképp teszteltük azt az adott, ritkán használt programot. A szerződés sose tartalmaz semmilyen teszthez kötött feltételt, akármit lehet írni, akármit lehet tesztelni. Az van benne, hogy be kell tartani az NDA-t, azaz nem lehet egy x időnél hamarabb közölni az információkat, különben ilyen-olyan retorziókat von maga után, emellett az adott teszt értékelését a megjelenése után el kell küldeni a helyi képviselőnek. Gyakorlatilag kérik a plecsnit, hogy a marketinganyagokba oda tudják rakni, hogy a xy média Béla plecsnire értékelte a terméket. Utóbbi nem kötelező érvényű, de ha nem küldjük el, akkor az AMD nem fog hivatkozni az adott sajtóra. Mindenki eldöntheti, hogy ez jó-e neki, vagy sem.
Ki nem húzta le az utóbbi időben a Xeon részleget?
De nem kell ezekre hallgatni, vannak tesztek: [link] -
Abu85
HÁZIGAZDA
válasz
Petykemano
#33611
üzenetére
Az a golden sample egy urban legend. Egyáltalán nem válogatnak. Azért lehet nagy különbségeket felfedezni, mert az Intel megváltoztatta a varianciára vonatkozó specifikációját. A Coffee Lake óta 9% különbség is lehet a teljesítményben két ugyanolyan modellszámú CPU között, amit ugyanarról a polcról veszel le. Nem valószínű, hogy ennyi lesz, inkább 3-4% csak, de ha ennyi az eltérés, akkor az még pont megfelel a célzott varianciának. Ez nem golden sample tehát, csak némelyik tesztelő szerencsésebb példányokat kapott, de ezek ott vannak a kereskedelemben is, csak ott is szerencsésnek kell lenni.
Szerintem az CGI volt.

-
Abu85
HÁZIGAZDA
válasz
keIdor
#33607
üzenetére
Ezt értem, de a vásárlók között is van 30 év alatti. Másrészt a LinusTechTips azért tart ott ahol, mert a YouTube-on erre van igény. Ergo a gyártók számára is sokkal célszerűbb neki adni a hardvereket, mert ki tudja szolgálni az igényeket.
Jöhet itt egy Józsigyerek, aki technikailag nagyon durván ott van, de tesznek rá a gyártók, ha nincs meg az a minimum feliratkozója, akik végeredményben potenciális vásárlók lehetnek (vagy nincs egy haverja a gyártónál, aki tud neki teszthardvert intézni). A világ már nem kíván részletes információkat. A vásárlók egyre nagyobb része a gépek összerakásával sem akar törődni. Egyszerűen le akar emelni egy előre összeszerelt konfigot a polcról, és ehhez vicces videón keresztül vár valami támpontot. Valaki erre ráérez a YouTube-on, és kiszolgálja az igényt. Valaki pedig leragad a múltban, és lemarad a feliratkozók számában.Még mielőtt ebből félreértés lenne. Nem mondom, hogy jó dolog, amerre a YouTube halad, és az ahogy ezt lekövetik a gyártók, de mit lehet innen csinálni ugye...
Leírhatom ide a véleményem, hogy szerintem se annyira jó a LinusTechTips, de ettől még valószínűleg hamarabb érik el a 6 millió feliratkozót, mint a Tech of Tomorrow a 600 ezret. -
Abu85
HÁZIGAZDA
válasz
Raymond
#33604
üzenetére
Ezt speciel én jobban tudom, mert ebben a rendszerben élek, és nem sok sample hardvert szoktak kiosztani a YouTube-ra. Aki nincs egymillió feliratkozó közelében az USA-ban, annak maximum haveri alapon van esélye teszthardverhez jutni.
Elárulom, hogy teljes tévképzet az is, hogy itt minden startkor dúskál a média a teszthardverekben. A valóság az, hogy alig van, és akár 10 sajtó is ugyanazért a cuccért küzd. A Youtube esetében ez még rosszabb (hacsak nem vállalják el szerződésben, hogy bő nyállal körbeszopják a terméket, de ott nagyon kell tekerni, mert figyelik, hogy fogaznak-e ... gondolom feltűnt már ezeknek a termékbemutatóknak a lényege, mindig minden tökéletes a monitorral, billentyűzettel, akármivel, annyi hiba szokott lenni, hogy kicsit koszos a kijelző hátulján a kábel).(#33605) Petykemano: Az Intelnek már nincs sajtóstratégiája. Van egy központosított PR, ami mindent kiszolgál. Nincs helyi PR, nincs kit hívni, csak egy központi mail van, és ott szelektálnak mindent. Persze van sajtóanyag, amit NDA-val előzetesen el lehet érni (bár ehhez is kurva nagy mázli kell), de ennyi. A tesztprocikat is az alaplapgyártók biztosítják a többség számára.
-
Abu85
HÁZIGAZDA
válasz
TTomax
#33601
üzenetére
A Youtube-on gomba módra szaporodnak az ugyanarra szakosodott tesztelők. Sokkal könnyebb ide belépni, mint felépíteni egy külön weboldalt, és a helyzet az, hogy az ottani sample-ök is eléggé végesek, tehát nem sokat kockáztat a Tech of Tomorrow, ha megpróbál azzal kitűnni, hogy ők annyira függetlenek, hogy még termékmintát sem fogadnak el, mert gyenge félmillió feliratkozóval úgyis kikerülnek ebből a körből. Főleg úgy, ha a kontaktjuk elment az AMD-től, ahogy mondta. Nagyon sok múlik a kapcsolatrendszeren, mert ezeket a mintákat nem szimpla számok alapján adják oda, hanem valamennyire számít, ha valaki valakinek a haverja. És ha jön egy új kontakt, akkor az valószínűleg inkább a számok alapján kezdi el osztogatni a mintákat, amiben a JayzTwoCents, Linus Tech Tips, HardwareCanucks, Bitwit, stb. sokkal jobban áll. Tehát effektíve érdeke fűződik ahhoz, hogy az emberek azt higgyék, hogy ő volt kemény és nagyon független ember, aki beintett az AMD-nek, és nem az AMD volt az, aki látta a többi csatorna fejlődését, és inkább nekik viszik a hardvert, nem pedig a kevesebb feliratkozóval rendelkezőnek.
-
Abu85
HÁZIGAZDA
válasz
TTomax
#33599
üzenetére
Ilyen nincs. Mi is ugyanebben a rendszerben dolgozunk. Se az Intel, se az AMD, se az NVIDIA sem mondja meg nekünk, hogy mit hogyan csinálhatunk. Ha megmondanák visszaadnánk a termékmintát és viszlát. De mivel ezt nem tesszük meg, így erre vonatkozóan nincs semmilyen külső befolyásolás. Egyetlen általános kérés szokott lenni az említett cégek felől. Ha tesztelünk valamit, akkor legyünk szívesek és olvassuk el az általuk készített pdf-et, ami leírja a terméket részletesen. Szóval olyanról, amiről ő beszél még csak hírből sem hallottunk senkitől, nem csak az AMD, de az NV és az Intel oldaláról sem.
-
Abu85
HÁZIGAZDA
Akkor az tényleg a buildtől függ. A 4.20-tól kedvez az AMD-nek, ez kapja meg a régóta tervezett nagy átalakításokat. Az ez előtti buildek az NV-nek jobban fekszenek. A 4.20-asnál nem tudni, hogy mennyire probléma, hogy az új Vulkan leképezőt kizárólag az AMD hardvereken fejlesztették, kizárólag az AMD fejlesztőeszközeivel. Valószínűleg azért drámai eltérést nem okoz, de mindenképpen az AMD-nek kedvez, hogy a rendszereik szemszögéből optimalizáltak szinte mindent.
-
Abu85
HÁZIGAZDA
válasz
guftabi96
#33594
üzenetére
Battlefield 4-ben ugye van Mantle, szóval nyilván azt érdemes használni, mert úgy kapod a legjobb overheadet. A BF1 pedig GPU-driven pipeline, IC+manual threading. Általánosan a Frostbite az AMD-nek kedvez.
Assetto Corsa az update-től függ. A régi verzió még IC volt, az új (1.1x akárhányas) már DC. Ki tudja, hogy merre fejlődik. Szóval ha új verziót használsz, akkor NV, ha régit, akkor AMD. Competizione-ra fingom sincs.
PUBG mindegy, mert az már szinte nem is DX11-en fut. Szénnétuningolt az egész driver rá, teljesen illegális dolgokat csinálnak a meghajtók. Majd szép lesz, amikor jönnek a engine update-es frissítések. Bár a PUBG fejlesztőket ismerve ez még évekre van.

rFactor 2 az DC, szóval arra NV.
-
Abu85
HÁZIGAZDA
válasz
guftabi96
#33592
üzenetére
API overhead? Az attól függ, hogy miképpen működik a játék és milyen API-t használ.
Explicit API-val az AMD előnyben van, mert 4 évvel több munka van az implementációjukban. Ezt az NV be tudja hozni, mert nyilván nekik nem a technológia hiányzik, hanem túl kevés ideje fejlesztik az explicit API-ra írt aktuális meghajtóikat. Egyébként drámai különbség így sem lesz, mert maga az explicit API eléggé arra van tervezve, hogy ne legyen nagy az overhead.
Hagyományos API-val az a kérdés, hogy az alkalmazás DC-t vagy IC-t használ. Az NV meghajtója az előbbire van optimalizálva, míg az AMD-é az utóbbira. Ennek megfelelő az overhead is. GPU-driven pipeline mellett pedig ez is mindegy, mert kevés a független rajzolás. A specifikus DC/IC előny megmarad, de ez nem okoz drámai eltérést. -
Abu85
HÁZIGAZDA
válasz
Raymond
#33525
üzenetére
Az FC2-nél használt fizikai implementációt már az FC3-nál kidobták. A miértje ennek annyi, hogy felesleges beleölni az erőforrást, amikor nem sok játékost érdekel. Egyébként nincs lényeges teljesítményigénye ezeknek. Régen a konzolokban lévőknél sokkal gyengébb processzorral megoldották, csak van egy fix idő- és pénzkereted az egész projektre, és alig tudod magát az alkalmazást befejezni a kiadásig, nemhogy még olyanokra költs, mint a törhető ágak, ésatöbbi. De hogy ez egy hardveres probléma lenne? Egyáltalán nem, hiszen kb. 10 évvel korábban is megoldottuk, az akkori jóval gyengébb hardvereken.
-
Abu85
HÁZIGAZDA
válasz
Raymond
#33523
üzenetére
Nem csak GPU-ra. Lehetne CPU-ra is, vagy akár a kettő részegység kombinációjára. De a legtöbben még addig sem jutnak el, hogy a GNM API-val csökkentség a CPU terhelését, az LCUE használata pedig rendkívül ritka. Aki viszont lemegy igen alacsony szintre, azoknak működik. Mint írtam lehet sírni, hogy nem megy, de ettől még más megcsinálja.
Közelmúltból jó példa a Far Cry 5. Az új motort levitték mindkét nagy konzolon a legalacsonyabb hozzáférésre, és a megjelenéskor elégedett is volt mindenki. PC-n a DX12 kimaradt, de a DX11-es kód is elég jól működött, azt sem érte panasz. Tehát effektíve, ha van akarat, akkor meg lehet csinálni. -
Abu85
HÁZIGAZDA
válasz
Raymond
#33521
üzenetére
Ha valakinek sikerül, valakinek pedig nem, akkor nyilván nem az a hülye, akinek sikerült.

Ezek a konzolok fix képességű gépek, rengeteg lehetőséggel. Az Ubisoft például még az elején ütközött abba a problémába, hogy cloth fizika, amit terveztek nem volt gyorsabb a CPU-n, mint a régebbi rendszereken. Mit csináltak? Átrakták a GPU-ra és tízszer gyorsabb lett. Légy kreatív és működni fog. Persze lehet sírni is, csak akkor a kreatív stúdiók elmennek melletted. Abban egyetértek, hogy mindenkinek joga van eldönteni, hogy dolgozik, vagy telesírja a sajtót, hogy xy nem működik, mert kevés CPU/kevés memória/szarok a grafikus API-k... kinek éppen mi volt a problémája.
-
Abu85
HÁZIGAZDA
válasz
Fred23
#33512
üzenetére
Nem igazán tudnak mit kezdeni az AVX2-vel, amíg az Intel ma is ad ki olyan procikat, amikben az AVX sincs benne. A konzolok miatt persze elmennek az AVX-ig a programok, de tovább nem.
(#33513) Raymond: Ez az egész csak döntés kérdése, nem pedig technikai akadály.
(#33514) Keldor papa: A Sony ma már rengeteg lehetőséget biztosít a fejlesztőknek. Ha valaki úgy érzi, hogy CPU-limitje van, akkor menjen a GNM API-ról az LCUE-ra. Utóbbit használják manapság a Sony játékai, lásd az új God of War.
(#33518) kikikirly: Sok dolgot lehet csinálni, lásd a Sony is megcsinálja ezeket a PS4-re, de multiplatform szinten addig nem igazán várható előrelépés, amíg a WDDM2 nem lesz minimum követelmény.
-
Abu85
HÁZIGAZDA
válasz
kikikirly
#33507
üzenetére
Fizikából már nem nagyon lehet, mert a legtöbb stúdió mélyen integrált fizikai motort használt. Middleware-ből már nagyon kevesen dolgoznak, mert sokkal lassabb.
Azt érdemes megérteni, hogy a middlware-eknek van annyiban értelme, hogy az egész nagyon egyszerűen beépíthető és megy is. Ez adja a legnagyobb előnyét és egyben a legnagyobb hátrányát is. Ugyanis a teljesítménnyel fizet azért, hogy könnyen beépíthető, vagyis nem lehet annyira mélyen integrálni, hogy gyors is legyen.
Ez az érem másik oldala, amiről nem szokás beszélni. Nyilván ha ezt is nyíltan felvállalnák, akkor fel sem merülne Crytekben az a kérdés, hogy "mindig a gagyi noname fostengerekbe raknak finomságokat"...
-
Abu85
HÁZIGAZDA
Ezeknek már van realitása. A Sony The Tomorrow Children című játéka 2+1 bounce VXGI megoldást használ. És tök szuperül működik a PS4-en. Nyilván az NV-nek valahol fontos, hogy PC-n is legyen hasonló. Értsd ezt úgy, hogy ez egyre inkább presztízskérdés. Egy rakás pénzt beletoltak a GameWorks VXGI-ba, és jelenleg azt látják a fejlesztők, hogy még 1 bounce mellett is működésképtelen, miközben kb. annyi pénzt égetnek el benne, amennyi egy teljes indie fejlesztő éves működési költsége. Az egészből azt vágják le sokan, hogy middleware-en keresztül berakni az ennyire komplex effekteket egyáltalán nem ideális, mert a Sony integrált formában ugyan, de jóval gyengébb hardveren és jóval több számítással járó eljárással megcsináltan. Nem először jár a GameWorks így, elvégre a Witcher 3-ban is sokkal több effektet terveztek. Ha tehát kidolgoznak valamit, akkor muszáj legalább egy játékba berakni, hogy megmutassák működik. Igaz, hogy brutális pénzt elégettek mire megoldották, de nem hagyhatják, hogy a GameWorks egy nem működő koncepciónak látszódjon.
-
Abu85
HÁZIGAZDA
válasz
Crytek
#33502
üzenetére
Mert a VXGI nem igazán szereti a sok animációt a jelenetben. Párat elvisel, de ha mondjuk 30-40 embert kell leanimálni, és még a bokrok és a fák is mozognak, ne adja isten még a fű is, akkor sokszor omlik össze. Ha megnézed a fenti videót, a végén megmutatják a VXGI-t nagyobb területen, amikor full statikus minden. Ezzel nem igazán tudnak jelenleg mit kezdeni. Az aktuális rendszerben van egy hard reset beépítve, ha a mozgás beragadna, de az nagyon csúnya jelenségekhez vezet. Mindig az alaphelyzetbe ugrik az objektum, amikor éppen megpusztul a VXGI, így hiába lengedezik mondjuk a fő, egyik pillanatról a másikra megváltozik az állapota. Ebben sajnos még pénzt se igazán raknak, mert az alapproblémát az integráció hiánya okozza, egy ilyen komplex rendszer ugyanis nehezen implementálható szimpla middleware-ként. A CryEngine megoldása azért működik fényévekkel jobban, mert az integrálva van a motorban. Ez a kis csapat se valószínű, hogy megoldja, majd idővel kikerül a tervek közül. Annyi játék készült már úgy, hogy működni fog benne a VXGI, és még mindig csak ott tartunk, hogy jönnek a játékok, amelyekben működni fog, persze mindig más cím.
-
Abu85
HÁZIGAZDA
válasz
atok666
#33474
üzenetére
Pont ez a lényeg. Ha a tömeg nem tudja, hogy mi az, akkor a Win32-es géppark alaposan megcsappan, így pedig a fejlesztőknek az UWP-t kell figyelni, hogy ne csak a Windows 10 felhasználók egy részét tudják célozni. A Microsoft nyilván tudja, hogy miképp lehet ezt ügyesen kivezetni. Észre sem veszed, és már el is tűnt. Küzdeni sem tudsz ellene, mert azokat az embereket kell ennek a dolognak a hasznosságáról meggyőzni, akik azt sem tudják, hogy mi az. Sőt, a legtöbb felhasználó eddig nem fog eljutni. Elfogadják, hogy szimpla frissítéssel nekik lehet Win32-jük, ráadásul ingyen, bele se gondolnak, hogy ha mondjuk 10-ből 7 ember nem kéri a frissítést, akkor a userek maguk ássák a Win32 sírját.
-
Abu85
HÁZIGAZDA
Az architektúra az mindegy. Az MS számára a lényeg a Win32 kivégzése, illetve felhőbe száműzése. Ha ez megvan, akkor onnantól kezdve teljesen lényegtelen, hogy a vásárolt gép x86 vagy ARM, mert ez már csak fordítás kérdése. Az ARM-ra is lesznek programok, mert a Qualcomm Windows notijait viszik, mint a cukrot.
Az S mód egyértelműen egy olyan irány, amivel az MS sikeres lehet. Kihagyják a gépekből a Win32-t, mert úgy olcsóbb a licenc a gyártók felé, és a user ingyen frissíthet egy ideig, ha ez kell. De ahogy a Windows 10 S esetében is tapasztalható, a vásárlók zöme nem frissít, hiába ingyenes a dolog. Ez egy nagyon jelentős felfedezés a Windows 10 S-nél. A Microsoftnak nem kell erőszakkal letiltania a Win32-t, elég ha nem szállítja gyári szinten. A többit a vásárlók "nemtörődömsége" elintézi nekik. -
Abu85
HÁZIGAZDA
Én nem vagyok erről meggyőződve. Az utóbbi időben nagyon nyomatja az AMD a GMI-t. A következő körben már nem csak a prociban lesz, hanem a Vega 20-ban is, de állítólag kapott a Vega 11 is két ilyen linket. Tehát effektíve az AMD jövőképe sem más. Ők a GMI-n keresztül akarják összekötni a lapkákat.
Egy ideje egyébként az AMD folyamatosan azon van, hogy menjen mindenki a CCIX-re, ami nyílt és szabványos, így nem kényszerülne a piac zárt megoldásokra, de az Intel és az NV erről hallani sem akar. Szóval itt be fog zárni mindenki, ha csak hirtelen nem lesz valami megegyezés. Az AMD is a saját GMI-jét használja majd, az NV az NVLinket, míg az Intel a saját technológiáját.
-
Abu85
HÁZIGAZDA
Attól függ, hogy miképp kötik be a pGPU-t. Ha PCI Express interfésszel, akkor egy rakás sávot eleve elvisz maga a pGPU. Ha más interfészt használnak erre, akkor pedig egy rakás lapkaterület lesz elköltve rá, és mivel a rendszerben már van pGPU, így az elsődleges spórolás a PCI Express oldalán fog bekövetkezni. Persze az Intelnél sosem ilyen egyszerű. Ők azért nem egyszer ütöttek már meg konkurens céget ott, ahol a legjobban fáj. Márpedig nekik a dGPU csak egy nyűg, ha ők kizárják ezt, akkor mindegy, hogy az AMD mit csinál, mert akkora talajt robbantanak szét a dGPU alatt, hogy értelmetlen lesz erre fejleszteni. Az AMD nem fog tudni hirtelen háromszor több terméket gyártani, hogy az igényeket kiszolgálják. Az igényekkel való szembeevezésnek pedig az Intel a legnagyobb mestere, és a gyárakra vonatkozó erőfölényükkel lenyomják a torkodon azt is, amit nem akarsz.
-
Abu85
HÁZIGAZDA
A szabályok megengedik. Az FTC 2015-ig kötelezte az Intelt arra, hogy 16 sávot vezessen ki. Ez a dátum pedig már elmúlt. Az Intelnek van egy saját elképzelése a jövőről. Ők is egy cég. Nem kényszerítheti őket az FTC örökké arra, hogy más cégeket eltartsanak. Az FTC sem lépheti át a hatásköreit.
(#33465) Raymond: Kikerestem a listát, de persze én voltam a hülye, hogy munkát raktam bele, mert előre láttam, hogy csak személyeskedni jöttél.
Ezért írtam eredetileg, hogy a Google a barátod. De személyeskedj tovább, ha neked ez jólesik, engem nem zavar.
Többet ebbe nem rakok időt. A Google-ben mindent megtalálsz. Most már cím szerint tudod ellenőrizni a játékokat. 
-
Abu85
HÁZIGAZDA
válasz
Raymond
#33461
üzenetére
Quake
Quake 3 Arena
Roblox
Dota 2
Rust
GRID Autosport
The Talos Principle
Vainglory
Score! Hero
Need for Speed: No Limits
Heroes of Incredible Tales
Dream League Soccer
Ashes of the Singularity
Olympus Rising
Doom
Mad Max
Galaxy on Fire 3
War Thunder
Ballistic Overkill
Serious Sam VR: The First Encounter
Serious Sam VR: The Second Encounter
ESSENCE
Warhammer 40,000: Dawn of War III
X Rebirth VR Edition
F1 2017
Serious Sam VR: The Last Hope
Wolfenstein II: The New Colossus
Apocalypse: The Game
Serious Sam Fusion 2017
Rise of the Tomb Raider
Geocore
Battlefield 4
Battlefield: Hardline
Dragon Age: Inquisition
Plants vs. Zombies: Garden Warfare
Sid Meier’s Civilization: Beyond Earth
Sniper Elite 3
Thief
Gears of War: Ultimate Edition
Caffeine
Star Wars Battlefront
Tom Clancy's The Division
Hitman
Quantum Break
Total War: Warhammer
Deus Ex: Mankind Divided
The Turing Test
Forza Motorsport 6: Apex
Halo 5: Forge
Heroes & Generals
Forza Horizon 3
Gears of War 4
Battlezone
Battlefield 1
Civilization VI
Sniper Elite 4
Halo Wars 2
Total War: Warhammer
Total War: Warhammer II
FIFA 18
Forza Motorsport 7
Star Wars Battlefront II
Sword Art Online: Fatal Bullet
Warhammer: Vermintide 2 -
Abu85
HÁZIGAZDA
Az AMD terveiben is ez szerepel. Nem az Intel egyedi kreálmánya a 3D-ben való építkezés. [link]
Mi több, a GTC-n voltak róla elszólások, hogy az NV is ilyet tervez, nincsenek is lemaradva a technikai oldalon. Azzal a jövőképpel, hogy a Microsoft a Win32 appok futtatását átviszi a felhőbe, teljesen reális ARM-mal követni az Intelt és az AMD-t. -
Abu85
HÁZIGAZDA
Már most 70%-os a részesedésük ezzel a terméktámogatással. Nem ez számít, hanem az, hogy ne tudj választani a vásárlásnál. Ez az Intel koncepciója.
(#33457) Raymond: Mint írtam a Google a barátod. Nem fogom még egyszer megkeresni mindet. Írd be: Vulkan games, DX12 games és Mantle games.
-
Abu85
HÁZIGAZDA
Az egész csak attól függ, hogy az Intel mennyi PCI Express sávot vezet ki. Amint itt lesznek a piacon, amint érdekük fűződik a pGPU-s irány erőltetéséhez, a dGPU-k bekötése meg lesz vágva. Ők nem versenyezni jönnek, hanem uralni ezt a piacot, és mivel ők döntik el, hogy egy dGPU milyen gyors lehet, így természetesen nem fogják hagyni, hogy a pGPU-iknál erősebbek legyenek.
(#33447) Raymond: A Google a barátod.
(#33449) cskamacska: Persze, hogy ezt akarják. Maga a Win32 API reális fejlesztést nem kap, tehát hosszabb távon életben tartani sincs értelme, mert fejlesztések nélkül csak hátrány lesz a platformra nézve. Az UWP sok helyen már előrébb jár, máshol viszont még le van maradva, de nagy különbség, hogy az UWP-t fejlesztik, tehát idővel mindenben jobb lesz.
A boltoknak ehhez nincs közük. A Steam, GoG, stb. akármikor támogathatják az UWP API-s alkalmazásokat.
-
Abu85
HÁZIGAZDA
válasz
atok666
#33444
üzenetére
Miért lenne ettől más a PC? Csak annyi történik, hogy a dedikált GPU-kat felváltják a tokozott GPU-k. A céljuk ugyanaz lesz, a teljesítményben is sokáig elmehetnek a HBM3/4-gyel, csak nem 10 cm-re lesznek a procitól, hanem magán a processzoron, vagy amellett. Ez mitől apokalipszis? Ugyanúgy lehet majd ezen is játszani.
A Win32 elvesztése sem egy apokalipszis. Az S mód elsődleges célja, hogy csökkentse a Win32-t futtatni képes gépek számát. Az MS már régóta ezt tervezi, de nehéz megtenni olyan módon, hogy ráerőszakolják a userre, amit nem akarnak. Az S mód nem ezt csinálja, hanem azt, hogy az adott gép alapértelmezetten nem lesz képes Win32-es programokat futtatni, de a user opcionálisan telepíthet egy kiegészítést, ami ezt a képességet hozzáadja a rendszerhez. A Home a vásárlás után egy rövid ideig ingyenes lesz, míg a Pro állandóan fizetős. A gyártók többsége marad majd az S módnál, mert az MS felé kisebb a licencköltség még akkor is, ha a Home ingyen van a user oldaláról. Ez így első hallásra nem számít nagy dolognak, de a helyzet az, hogy a Windows 10 S tapasztalata alapján a userek közül 70%-nál több vásárló nem foglalkozott a frissítéssel, annak ellenére sem, hogy ingyenes volt. Ergo az S móddal jelentősen meg lehet kurtítani a Win32-re képes gépek számát, miközben a kritikus tömeget el lehet azzal hallgattatni, hogy ha kell, akkor frissíts ingyen Home verzióra. Az eredménye ennek nem ma fog megmutatkozni, hanem pár év múlva, amikor annyira kritikus lesz a Win32 alkalmazásokat futtatni képtelen Windows 10 konfigurációk száma, hogy a fejlesztők inkább átállnak UWP-re, mert azzal minden Windows 10 usert egyszerre célozhatnak. Ezután a Microsoft már komolyabb következmények nélkül kivághatja a Win32-t, és az aktuális kósza tervek szerint áthelyezhetik felhőbe.
(#33445) Crytek: Explicit API-ról beszéltem mindig, nem csak a DX12-ről. Az Explicit API-t használó játékok száma jelenleg 64.
-
Abu85
HÁZIGAZDA
válasz
cyberkind
#33438
üzenetére
Az a baj, hogy az Intel nem olyan versenytárs lesz. Ők nem is gondolkodnak VGA-ban. Ők pGPU-t fognak csinálni, amelyet odaraknak a procijuk mellé a tokozásra. A gyártóknak ezt akkor is kötelező megvenni, ha az adott gépben be se fogják kapcsolni. Kifelé lesz jó esetben négy PCI Express csatorna, amiből kettőt majd elvisz egy SSD, míg a másik kettőre be lehet kötni egy VGA-t. Persze, ha mind a négyet viszi egy SSD, akkor nem is érdemes az OEM-nek az AMD és az NV felé nézelődnie.
Szóval az Intel nem egy harmadik versenytársnak jön. Ők ezért a piacért jönnek, és mivel az eladások tekintetében már most uralják a piac 70%-át, illetve kizárólag ők döntenek arról, hogy az AMD és NV VGA-kat hány PCI Express csatornán lehet bekötni, nyilván gondolhatod, hogy nem fognak bőkezűen bánni ezekkel, amikor már ott van a saját megoldásuk is a proci mellett.(#33441) FollowTheORI: Nem feltétlenül kell beavatkozás. Lehetett hallani arról a GDC-n, hogy a Microsoft a Windows S móddal egy olyan lehetőséget akar teremteni a piacon, ami gyakorlatilag lehetővé teszi az NV számára, hogy platformot építsenek az ARM-ra. A Qualcomm esetében ez már működik, tehát mostantól kezdve jöhetnek a többiek. És ilyen formában a versenyhatóságoknak nem kell beavatkozni, mert az Intel és az AMD mellett a Qualcomm és az NV tovább küzdhet. Az architektúra más lesz, de a Windows S mód kiegyenlíti az esélyeket. Hosszabb távon egyébként eleve az a Microsoft terve, hogy a Win32-es alkalmazások futtatását átteszi a felhőbe, tehát előbb-utóbb a Win32 teljesen ki lesz vágva a Windowsból.
-
Abu85
HÁZIGAZDA
válasz
cskamacska
#33404
üzenetére
Én már vagy hússzor végiggörgettem az ASRock press decket, de ez a slide nincs benne.

Olyan van amúgy, ahol a Segmentnél Gaming van, és a végén nem csak DVI csatit jelöl, hanem DP-t és HDMI-t is. De az a slide is eltér, mert nem négy RX 570 van benne, hanem két RX 560, egy RX 570 és egy RX 580.
De írtam az ASRocknak, szóval úgyis kiderül.

-
Abu85
HÁZIGAZDA
A gamer Volta az nem a GV100 lesz. Egyébként kész van a Vega 11, a Vega 12 és a GV104 is. Ezek azért nem jelennek meg, mert sok a bányász. Egyszerűen teljesen értelmetlen elindítani úgy egy sorozatot, hogy nem lesz majd a boltokban. A problémát a gyártás felfuttatása jelenti, ami egy új lapkánál lassú, tehát a start pillanatában semmiből sincs sok a raktárakban, viszont később ez normalizálódik. Ha most bedobna az NV és az AMD akár egyetlen új terméket is, akkor az heti 2 percet élne a webáruházakban, utána out of stock. Tehát hiába van kész pár lapka a piac egyáltalán nem ideális arra, hogy ezeket megjelentessék. Persze előbb-utóbb úgyis a start mellett döntenek, de ha már ilyen a piac, akkor célszerű elhúzni nyárig. Ez azért hasznos, mert a Q3-ra realizálhatók a korábban leadott többletrendelések a memóriára vonatkozóan, így már kezdésnél is több VGA-t lehet majd gyártani az új lapkákra.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW
#33392
üzenetére
Nem tudják a Titan V-t olcsóbban adni, mint 3000 dollár. Egyszerűen óriási a lapka. Kétszer akkora, mint a Vega 10. Ez így nem gazdaságos, mert túl nagy a selejtarány. Alapvetően a TSMC és a GloFo is 600 mm2-ben húzza meg a gazdaságosan gyártható lapka határát. Ami fölé megy, az egyszerűen csak úgy gyártható gazdaságosan, ha extrém drága. Emiatt lesz a Vega 20 is 7 nm-es, mert túl nagy lenne a 12/14/16 nm-es node-on, így úgy járna, mint a GV100.
Azzal számolj, hogy egy GV100-zal mindössze 55 lapkád lehet egy 300 mm-es waferen. És ez a maximum. Ha van egy tipikus szorás, akkor könnyen lehet, hogy csak 20 jó lapkád lesz. És eközben a szükséges wafer ugyanúgy 7000 dollár. Ezt nem realitás nagy mennyiségben gyártani. Ez jó 3000 dollár fölé, ahol egy termék eladásán behozol egy rakás selejtet.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW
#33374
üzenetére
Valahogy el kellene ezt érni a gyártóknál, mert az rendben, hogy az NV a gyártók felé specifikál egy tartományt, amit a gyártó alkalmaz. Viszont pont a végfelhasználó felé veszik el az infó, tehát lesz egy teljesítménykép a fejedben, aztán beugrik az apróbetűs rész, hogy "de lehet 30%-kal lassabb is". Aztán vásárolj bizalommal.

-
Abu85
HÁZIGAZDA
Ezek nem Vega fícsőrök. Az RPM GCN3/4/5-ön működik, míg a többi az összes GCN-en. Sőt, ha szabványosan lennének megírva, akkor működnének a GeForce-okon és az Intel IGP-ken is. Az RPM pedig shader modell 6.2-vel működne GCN3/4/5 és Intel Gen8+ cuccokon. Talán a scalarization az egyetlen, ami nagyon a GCN-re van specifikálva, de ezzel leginkább csak regisztert nyersz. És amúgy hiába mondják, hogy az RPM Vega-specifikus, mert nem az, maximum ez az architektúra tudja a legtöbb előnyt hozni belőle, de a GCN3/4 is támogatja.
-
Abu85
HÁZIGAZDA
RPM:
Far Cry 5 uses this technique on a number of shaders. The game’s RPM implementation allows values required by shader instructions to be demoted to 16-bit width, and then packed into 32-bit wide GPRs (General Purpose Registers). Using fewer GPRs means that more graphics threads can run in parallel, increasing GPU efficiency. A version of this implementation is used for water surfaces as well as lighting.Shader Intrinsics:
This allows the game to have access to similar close-to-metal features on the PC, as on the console.Scalarization – certain lighting passes are offloaded to the scalar pipeline with the help of intrinsic functions.
Data transfer between waves – Instead of using Localized Data Share, intrinsic functions are used to shuffle data around.
ALU operations exposed through intrinsics – instead of emulating specific math operations, intrinsic functions are used.Egyébként az utóbbi három működne shader modell 6.0-val szabványosan is. Az RPM egy kicsit trükkös, ahhoz shader modell 6.2 kellene. Ugyanakkor csak a GCN3/4/5 tud belőle profitálni, így ennél amúgy is mindegy, hogy az implementáció szabványos-e, de a többi sokat érne az Intel és NV hardvereken is, főleg a cross-lane operációk.
-
Abu85
HÁZIGAZDA
válasz
bertapet11
#33358
üzenetére
Mindegyik driver game ready. A press kód március elejei, és ahhoz már februárban ott voltak a profilok az AMD és NV driverekben (még az Intelében is van). Az AMD meghajtójában az AGS-re lesz külön támogatás, ami a héten jön, de az a press kóddal úgy sem működik, csak a végleges játékkal fog. A press kiadása a játéknak ugye csak szabványos shadert szállít.
-
Abu85
HÁZIGAZDA
válasz
->Raizen<-
#33304
üzenetére
Mi történt? Megijedt, hogy leváltod?

-
Abu85
HÁZIGAZDA
válasz
TTomax
#33289
üzenetére
Naná, PC-re ez az első Ni no Kuni. Minden korábbi rész valamilyen konzolra jött (Nintendo DS vagy PS3). Én a PS3-as Wrath of the White Witch alapján ismerem, nekem nagyon tetszett. Itt van egy kis videó róla: [link] ... Ez pedig az új rész PS4-en. [link]
Egyébként persze, ez a játék akkor élvezetes, ha amúgy is csípi az ember ezeket a Zelda-szerű JRPG-ket. A PC-sek számára pedig nyilván új, hiszen korábban konzol-only cím volt. Valószínűleg azért kaptuk meg PC-re, mert a PS4-ről egyszerű volt átportolni, míg PS3-ról ugye ez nehéz ügy lett volna régebben. -
Abu85
HÁZIGAZDA
válasz
Petykemano
#33285
üzenetére
A Level-5 fejlesztette. Sok tapasztalatuk amúgy nincs PC-s fronton. Ez az első játékuk Windows platformra. PlayStation 4-ről portolták a játékot. Nincs közük az AMD-hez.
(#33286) VTom: Nem csak szerintem. Ha megkérdezel egy JRPG iránt érdeklődő játékost, akkor a Ni no Kunit igen előkelő helyre rakja. A Ni no Kuni 2 a Game Critics Awards és a Gamescom "legjobb RPG" díját is elvitte tavaly. Ezeket nem adják oda csak úgy.
-
Abu85
HÁZIGAZDA
válasz
->Raizen<-
#33283
üzenetére
Gondolom még sosem játszottál a Ni no Kunival... Kb. a legjobb JRPG, amit valaha csináltak, és a második rész is igen kellemes. Bár szerintem az elsőt nem veri.

-
Abu85
HÁZIGAZDA
válasz
FLATRONW
#33267
üzenetére
Ez azért gondolod így, mert a jog inkább a rációra hat, míg az erkölcsi kérdések az érzelmekre. És az érzelem kevésbé tudatos folyamatokat vált ki, mint a ráció. Ez minden olyan embernél így van, akit inkább az érzelmei irányítanak. És az emberek többsége ebbe a csoportba tartozik. Ilyen ez a kémia.

-
Abu85
HÁZIGAZDA
válasz
FLATRONW
#33262
üzenetére
De igen. Alapvetően a te érdeked a választás lehetősége, mert ha nincs választás itt, akkor másban sem lesz. Például abban sem, hogy lesz-e egyáltalán HDMI VRR GeForce-on, vagy vehetsz kétszer annyiért BFGD-t G-Sync-kel. Vagy gondolod, hogy a HDMI VRR támogatását véletlenül nem jelentette még be az NV, amikor az AMD már rég megtette...

Ezek a törvények biztosítják a lehetőséget, hogy választhass, és ne tudjanak lehúzni a gyártók 200 dollárral egy FPGA-ért, aminek a funkciója 14 kódsorral kiváltható a firmware-ben.
Nem arról van szó, hogy összedőlt a világ, az a gond, hogy ez törvénytelen, mivel hátrányba hozza a fogyasztót.

-
Abu85
HÁZIGAZDA
válasz
huskydog17
#33214
üzenetére
Maximum ha a fejlesztők elmondják. A Wolf 2-nél és a Doom esetében elmondták.
Egyébként akármelyik motor képes akármennyit kezelni, az az igazi kérdés, hogy milyen gyorsan. Az id tech 6.5 sebessége kétmillió rajzolási parancs/másodperc. Ez úgy nagyjából a Nitrous szintje. A többi motor a közelében sincs ennek, emiatt nem igazán csinálnak a játékok többségében 10k rajzolási parancsnál többet per frame. Ha úgy mennének, mint a Wolf 2, akkor nem érnének el a mai hardverek játszható sebességet. Az új Dunia erősít erre, de ott sem lesz annyira sok rajzolás, mint a Wolf 2-ben, mert a limit inkább a háromszögek számától fog keletkezni, de az tény, hogy a Far Cry 5 a valaha készült, legtöbb rajzolási paranccsal dolgozó Ubisoft játék lesz, tehát zárkóznak fel a többiek is.(#33216) Zsébernardo: Attól, hogy van nyolc magod, még nincs kihasználva a hardver. Neked ehhez egy olyan motorral kell előállni, ami tényleg skálázódik, és ez nagyságrendekkel nehezebb feladat, mint régen volt.
Lényegtelen, hogy mi számít alapkövetelménynek, ha a gyakorlatban ebből probléma van. Még az id software is az id tech 7-nél fog igazán koncentrálni a processzor optimális kihasználásra, a mostani motorverzióban nincs meg ennek az alapja. -
Abu85
HÁZIGAZDA
Régen sokkal egyszerűbb volt. Voltak egymagos processzorok, korlátozottan programozható és kifejezetten kismértékben skálázott GPU-k, ezekre kialakított API-k a maguk egyszálú feldogozáshoz igazított működési modelljükkel. De nem arra ment a hardverek fejlődése, hogy ma egymagos, de ~30 GHz-es procik legyenek, nem pusztult ki a GPU, de még csak nem is úgy fejlődött, hogy egyszerű legyen ezek kihasználása, és a hardveres változásokat igen nagy késéssel követték maguk az API-k is. Tehát effektíve semmi sem alakult úgy, hogy a fejlesztők számára egyszerű legyen az átállás, egyedül a konzolok jelentenek biztos pontot, ha a pénzről van szó, márpedig a pénz mozgatja ezt a piacot.
-
Abu85
HÁZIGAZDA
válasz
Crytek
#33207
üzenetére
A Cryteknél az ott dolgozó szakemberek voltak a technikailag képzettek, akik többsége már az id Software-nek, vagy a Sony ICE Teamnek dolgozik.
Egyébként brutális only PC játékhoz is kell egy motor, aminek a fejlesztésre rendkívül sok idő. Vagy licencelni kell a Nitrous 2.0-t, de az elég drága. -
Abu85
HÁZIGAZDA
válasz
TTomax
#33204
üzenetére
Az AI az egy külön problémakör, ami nem igazán független a grafikától. A problémát az adja, hogy ha az AI komplexebb lesz, akkor az nagyobb számítási teljesítményt igényel. Jelenleg nincs egyetértés abban, hogy ezt a hiányzó erőforrást honnan vonjuk be. Például az Oxide Games szerint a GPU lenne az ideális erre, ami nekik lehet, hogy így van, mert ezek a szörnyeteg lapkák a sokezer szállal marha jók az útkeresésében. Aszinkron compute-ban megoldják a számítást, amikor éppen nem a shaderek dolgoznak, és kész, meg is van a komplexebb AI. A probléma, hogy ehhez az aszinkron compute miatt mindenképpen explicit API kell, tehát addig nem lehet bevetni, amíg a DX11/OpenGL API-t el nem hagyja egy játék. A másik lehetőség, hogy maradni kell a CPU-nál, és a Bethesda/id Software is ezt vallja, így az id tech 7 motor már átalakítja a szálkezelést, hogy jobban ki lehessen használna a processzorok magjait. A probléma ezzel, hogy az efféle, extrém párhuzamosságra kigyúrt rendszerek nem igazán kompatibilisek az DX11/OpenGL API-k dizájnjaval, tehát addig nem lehet bevetni őket, amíg a játékban ott vannak a leképezők a legacy opciókhoz. Tehát irány és ötletek vannak, de akármi is lesz, csak akkor vethetők be, amikor a DX11/OpenGL már a múlt.
A környezet rombolhatósága is ugyanitt tart. Egyszerűen a processzor erőforrásának zömét szimpla ellenőrzésekre költi, amelyek ráadásul nem csak erőforrást vesznek el, hanem megakadályozzák a párhuzamosítást.
-
Abu85
HÁZIGAZDA
válasz
->Raizen<-
#33198
üzenetére
Ezek komplex hibák. Okozhatja a program, az adott Vulkan implementáció, vagy az adott hardver is. Amíg nem vizsgálják meg a fejlesztők, addig nem igazán tudni, hogy ki hibázott. Én ilyet nem tapasztaltam, de ugye a Wolf 2-nél ennek eleve nincs sok jelentősége, mert az AMD más kódokat futtat, mind az NVIDIA, tehát lehet, hogy pont az NV-re írt kódokban van a bug.
(#33199) TTomax: A több rajzolási parancs több grafikai objektumot jelent. Alapvetően minden dolognak a számítása, amit a kijelzőn látsz egy rajzolási paranccsal indul, minél többet tudsz ebből kiadni, annál több dolog jeleníthető meg a kijelződön. Leegyszerűsítve ez a lényeg. Ezért ugrott a Bethesda 1k-ról 30k-ra a Wolf 2-nél. Persze az OpenGL miatt overkill lett végül az eredmény, de megoldották azzal, hogy lelőtték az OpenGL-t.
(#33200) darkhorse: Igen. Bármi ami a megjelenítőn látható az egy rajzolási parancsból születik. Háromszögek, árnyékok, effektek, stb-stb. Minél több rajzolási parancsot lehet kiadni, annál részletgazdagabb lehet a végeredmény.
Pedig vannak a Wolf 2-ben aranyos dolgok. Technikailag a játék számokban 30k draw/frame, 6 millió háromszög/frame. Különleges benne, hogy a köd egységesített volumetrikus megoldás, vagyis minden fény, árnyék, akármi kölcsönhatásba lép vele. A vízfelszín is tesszellált, ami egy compute shader old meg aszinkron compute-on keresztül, és minden vízzel történő kölcsönhatás hullámokat generál a víz felszínén, amely hullámok újabb hullámokat generálnak amikor visszaverődnek az egyes felületekről és egymásba ütköznek. Ez is egy compute shader aszinkron compute-on. Ezek ilyen technikai trükkök, amelyek igazából relatíve számításigényesek, de mivel úgyis aszinkron compute-ban futnak, így belerakták, mert az aszinkron feldolgozás miatt olcsók.
-
Abu85
HÁZIGAZDA
válasz
TTomax
#33196
üzenetére
A DX12 és a Vulkan koncepciója pontosan ugyanaz. Hasonlítani azokat a játékokat sosem tudod, amelyeket explicit API-ra írtak. A Wolf 2-nek volt OpenGL portja, de végül nem került bele a véglegesbe, mert még a pre-béta állapotban sem ért el egyetlen kapható hardveren sem 30 fps-t, eközben a legerősebb GPU-k Vulkan alatt 100 fps fölött működtek. Szóval nem volt értelme több erőforrást áldozni az OpenGL-re, mert nem volt realitása, hogy a végleges kódra játszható lesz bármin is. Emiatt inkább kivették ezt a módot. De egyébként nem hiszem, hogy az egészet komolyan gondolták. Eleve 30k draw/frame pont tízszer több, mint amivel az OpenGL hatékonyan képes megbirkózni. A Vulkánnak persze ez gyerekjáték, de ezt az API-t így tervezték, míg az OpenGL-t nem. A Doomban azért működött az OpenGL, mert ott a terhelés csak 1k draw/frame volt.
Bizonyos Vulkan implementációk okozhattak ilyet, de az újabb frissítésekben ezt már javították az érintett gyártók, és a Bethesda is adott ki patch-eket.
-
Abu85
HÁZIGAZDA
válasz
TTomax
#33186
üzenetére
A Wolf 2-t érdemes felhozni példának. Ott az IDtech 6.5-re átírták a leképezőt. A Doomhoz képest 30x több a rajzolás képkockánként, amiről eredetileg azt gondolták, hogy menni fog OpenGL-en is, de aztán a gyakorlat azt mutatta, hogy az OpenGL a Wolf 2 megterhelésével már egyetlen mai hardveren sem tud játszható sebességet produkálni. Tehát ha egy játékot explicit API-ra tervez egy stúdió, akkor már felesleges DX11/OpenGL-ben szállítani, mert nem fog futni a hardvereken. A Wolf 2-nél persze ebből akkora para nem volt, mert szállították Vulkan API-val, és az OpenGL-t kihagyták belőle, annak ellenére, hogy eredetileg tervben volt. Ez jól mutatja, hogy csak úgy tudod az explicit API előnyeit kihasználni, ha elhagyod a legacy API-kat. Ezt eddig csak a Bethesda tette meg.
Egyedül ott látod ma a DX12 hatásait, ha konzolra tervezett jeleneteket hozol át PC-re. Lásd Rise of the Tomb Raider, ahol sokszor látványos előnye van a DX12-nek.
-
Abu85
HÁZIGAZDA
válasz
Crytek
#33121
üzenetére
És tisztán látszik, hogy az AMD és az NVIDIA mennyire szeretne részesülni ebből a VGA-piaci virágzásból. Fosnak még a gyártási mennyiséget is emelni, mert azt sem tudják megjósolni, hogy ha a bányászláz alábbhagy, akkor mekkora lesz a valós játékosok szintjéről érkező igény a VGA-kra. Ez már önmagában egy nagyon kellemetlen dolog, mert így a gyártást túlságosan növelni nem merik, elvégre a bányászat nem célpiac, de azt sem tudják, hogy csökkenteni kell-e, mert nem kapnak valós piaci visszajelzést.
-
Abu85
HÁZIGAZDA
válasz
Yutani
#33119
üzenetére
Nem az én jóslatom: [link]
Az, hogy ez tetszik-e vagy sem... Nem mi döntünk ezekről a kérdésekről, hanem az Intel és az AMD. Ha ők ezt látják most reálisnak, akkor ez lesz. Aztán vagy megszokod, vagy megszöksz.
De megjegyzem, hogy azokkal a problémákkal, amelyek fél évtizedes távlatban a gyártástechnológia fejlődését nehezítik, valóban nincs más lehetőség, mint elkezdeni vertikálisan építkezni. Az alapvetően már döntés kérdése, hogy ebben az irányban az AMD és az Intel a tokozás NYÁK-ja felé mennyi PCI Express interfészt vezet ki. Ezt mi még nem tudjuk. Az NVIDIA valószínűleg már sejti vagy talán konkrétan tudja is, hogy nem sokat, szóval lépniük kell valamit az ügyben.
Egyébként attól, hogy a GPU még GPU marad, hogy nem az alaplapon van, hanem fizikailag a processzoron.
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#33115
üzenetére
Az ipari kémkedés azért igen aktív ezen a területen, még ha nem is vallja be senki. Az AMD és az Intel esetében pedig nyílt titok, hogy 3D-s tokozásokat tartják realitásnak következő lépcsőként. Ergo lesz egy CPU a tokozáson, és fizikailag arra kerül a pGPU, illetve a memória, sőt talán még az adattároló is. Ezeknek kellenek a megfelelő buszok a lapkába, amelyek mellett nyilvánvaló, hogy olyan interfészeket fognak kivenni, illetve csonkítani, amelyek a piac kis százalékát érintik, például a sok PCI Express csatornát.
Ez az irány nem egy eldöntendő kérdés, hanem már el van döntve. Egyébként persze megtarthatnak bizonyos mennyiségű PCI Express csatornát a dedikált GPU-knak, de őszintén szólva minek. Ezek a magasan integrált megoldások a mobil piacra mennek majd, ahol úgyis számít a helyigény. Aki dedikált GPU-t akar, majd megveszi a szerverből lehozott lapkákat, azokban természetesen sok Gen Z, CCIX vagy PCI Express csatorna lesz, attól függően, hogy ki melyiket akarja támogatni. Nyilván a Gen Z és a CCIX azért érdekes alternatíva, mert a PCI Express a jelenlegi állapotában nem egy életbiztosítás. Túl korlátozott, illetve lassú is, még az 5.0-s verzió sebessége sem tartja igazán a lépést azzal, ahogy ezek a lapkák belsőleg fejlődnek.Önmagában egyébként az NV nem valószínű, hogy ki lesz zárva teljesen. Az adattárolóknak mindenképpen kell négy PCI Express csatorna. Meg tudják majd csinálni a gyártók, hogy ebből kettőre kötnek SSD-t, és a maradék kettőn bekötik az NV GPU-ját. Az, hogy ennek mennyi értelme van majd eldől, nyilván az NV nem véletlenül próbál jogi kötelezettséget varrni a gyártók nyakába, mert talán ők is sejtik, hogy az a környezet, amit az Intel és az AMD kínál majd a jövőben igen hátrányos a hardverük szempontjából. Ergo az észérvek helyett a jogi lehetőségeket keresik a gyártók megfogására, az hogy ez illegális-e vagy sem, majd eldöntik a hatóságok.
Szerintem az NV igazából csak időt akar nyerni. Nekik valószínűleg nincs bajuk ezzel a teljes platformosodással. Az a gond, hogy a Windows 10 most még nem alkalmas arra, hogy hozzanak egy ARM-os platformot. De a Qualcomm sokat segíthet, ahogy a Microsoftnak az S módja is, így előbb-utóbb eljutunk oda, hogy az új domináns platform az UWP lesz, ami elég jó az ARM-nak is. Mindössze azt az időt kell kibekkelni valahogy, amíg a piac elér erre a szintre. És ezen az időn nem egy-két évet kell érteni, hanem legalább fél évtizedet, addigra pedig már bőven építhet olyan korlátokat az NV elé az Intel és az AMD, amire hardveres válaszuk nincs.
-
Abu85
HÁZIGAZDA
válasz
Yutani
#33113
üzenetére
Mert Kyle arra gondol, hogy az Intel és az AMD örökre meghagy legalább nyolc PCI Express csatornát a dedikált GPU-knak. Az NVIDIA viszont már gondolom tudja, hogy hamarosan négy lesz összesen szabadon felhasználható a mobil fókuszú lapkákban, amiből minimum kettőt elvisz az SSD, szóval sok szerencsét ebbe bekötni egy dedikált GPU-t.
-
Abu85
HÁZIGAZDA
válasz
nubreed
#33075
üzenetére
Azért nem azt írta a PCGN, hogy nem jelentenek be semmit, hanem ezt: "We’ve spoken with the graphics giant and it seems there won’t be a new graphics card launched at the Game Developers Conference next month, and that Nvidia’s GPU Technology Conference will just offer more about deep-learning, artificial intelligence, and self-driving brum brum cars."
A semminél ez azért eléggé több. De maga a piac nem alkalmas a VGA-k kiadására. Egyszerűen nincs elég memória, és még a bányászok is veszik a hardvert.
Aztán lehet, hogy mindenki csak altat.![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Abu85
HÁZIGAZDA
válasz
Fred23
#33041
üzenetére
Tudtommal nem a Crystal Dynamics csinálja, mert ők el vannak foglalva valamilyen Marvel címmel. Az Eidos Montreal csinálhatja, mert ők a marveles projektbe csak besegítenek.
Vagy továbbfejlesztik a mostani motort, vagy áttérnek a Dawnra. Az Eidos Montreal számára az utóbbi kedvezőbb, mert az R&D-t végző Labs részlegük is erre dolgozik. Technikailag is sokkal fejlettebb a Dawn.
Nézd meg draw limites helyen. Ott a DX12 agyonveri a DX11-et a RotTR-ben.
-
Abu85
HÁZIGAZDA
A Forza esetében a problémát inkább a D3D12 implementáció jelentik. A fejlesztők mindig időben leadják a változásokat, hogy lehessen rájuk profilt írni. Ezt meg is lehet tenni kényelmesen, ha az adott meghajtó D3D12 implementációja nem használ speciális, adott játékhoz igazított rutinokat. Az Intel és az AMD például ilyeneket nem használ a D3D12-ben, mert nekik csak van egy alap, hardverhez közeli rétegük, amire írnak egy API-hoz közeli, ezzel kompatibilis réteget. Az AMD még trükkös is, mert ők minden explicit API-nál ugyanazt a hardverhez közeli réteget használják, így nagyságrendekkel kisebb a meghajtó fejlesztésének erőforrásigénye. Ha bármilyen patch jön, arra szimplán a legfelső rétegben lehet reagálni pár változással. Az NVIDIA manapság teljesen másképp csinálja. Nekik már három rétegük van, egy API-hoz közeli, egy köztes, specifikációs részleteket elfedő réteg, és egy hardverhez közeli. Na most ahhoz, hogy nekik gyors is legyen egy D3D12-es alkalmazás előfordulhat, hogy a köztes rétegre igen komoly optimalizálás kell, amit nem lehet egy hetes munkával lereagálni. Inkább egy hónapos kell, vagy több. De ha ezt nem csinálnák meg, akkor úgy futna a Forza 7, ahogy az látható volt a leges legelső tesztek, tehát nagyon is van értelme annak, amit az NV csinál, viszont értelemszerűen a fejlesztők nem fognak egy javítást visszatartani akár két hónapig, mert az NV-nek esetleg kell ennyi idő a reakcióra. A középső rétegből nem feltétlenül muszáj speciálisat alkalmazni, a default mód problémamentesen viszi, csak buknak vele egy rakás teljesítményt. De igen, alapvetően az lenne az ideális, ha a problémás javításokra az NV visszatenné a default módot, majd ha kész a speciális, akkor ahhoz is hoznának egy drivert. A probléma itt valószínűleg az, hogy iszonyatosan sok munkával jár folyamatosan egy játék miatt változtatni a rutinokon, főleg úgy, hogy az esetleges problémák nem feltétlenül általánosak, hanem jóllehet egy architektúrát, vagy akár csak egy GPU-t érintenek.
Explicit API-kra egyébként ajánlott az egyszerűbb módszereket elővenni. Nem feltétlenül kifizetődő azt csinálni, mint a hagyományos API-knál, hogy tényleg elővenni a játékot és szénné optimalizálni rá a meghajtót, mert ez ugyan az adott kóddal működik, de olyan külső hibaforrások jelennek meg, amelyekre iszonyatosan nehéz gyorsan reagálni. A hagyományos API-k esetében azért elég sok tényező a driver kezében volt, így a gyártók magukat biztosították be azzal, hogy a kliens oldali kódjuk megfelelően reagál a kernel driver változásaira. Explicit API-nál ez nincs így. Itt külső változásokra kell reagálni. Emiatt az a legcélszerűbb, ha a meghajtó is igen minimalista.
-
Abu85
HÁZIGAZDA
válasz
wjbhbdux
#32960
üzenetére
Mivel a variálható frissítési frekvencia esetében nincsen várakoztatás a pipeline-ban, ezért ezeknek a megoldásoknak a késleltetése gyakorlatilag nagyon hasonló szinkronizáció nélküli késleltetéshez.
A Windows 10 DWM-mel a hagyományos exkluzív fullscreen megszűnt. Gyakorlatilag ez nincs értelmezve, ha egy játék nem a DirectFlipet használja. Ennek a helyére került az "optimized csoda".
-
Abu85
HÁZIGAZDA
Még azt se lehet mondani, hogy nagyon veszik. A FreeSync kijelzőkből sokkal többet adnak el, mint G-Sync-ből. Bár az összehasonlítást eléggé torzítja, hogy lassan nem tudsz venni monitort FreeSync nélkül. De a lényeg, hogy ha az eladások jók lennének, akkor a G-Sync kijelzők ára nem felfele menne, mert a nagyobb mennyiségű eladás kitermeli a termék fejlesztési költségeit. Akár olyan szinten is, hogy levihető egy-egy modell ára a középszintre, mert a nagyobbak tudnak akkora extraprofitot biztosítani, hogy elvigyék a kicsit a hátukon. De nem ez történik, hanem egyre inkább kúszik felfelé a G-Sync a prémiumba, lassan pedig a luxuskategóriába a BFGD-vel.
-
Abu85
HÁZIGAZDA
És én leírtam, hogy anno azzal számoltam, hogy a G-Sync nem drágulni fog, hanem olcsóbb lesz. De mivel ma egészen elképesztően magas áron, gyakorlatilag a valós érték duplájáért mennek a G-Sync kijelzők, így nyilván fenntartható ez a piac, hiszen kitermelik a saját befektetési költségüket. Csak nem biztos, hogy ennek a GeForce-ot használó vásárlók örülnek, mert ez a fejlesztési modell pont a rossz irányba viszi a G-Sync kijelzők árait.
(#32950) Szaby59: Nyugodtan hívjuk a nevén: pGPU, mint packaged.
-
Abu85
HÁZIGAZDA
Én csak vitázni szeretnék róla. Elnézést, hogy azt vártam, hogy ez egy szakmai fórumon kialakulhat.
Pedig érdekes téma, elvégre sokakat érint, hogy 200-400K között lehet csak monitort választani, vagy esetleg lehet olcsóbban is, sokkal több megoldás közül. Mert őszintén szólva nehezemre esik elhinni, hogy van olyan ember, aki szerint a G-Sync kijelzők ára és mennyisége megfelelő. Én például helyből hiányolom a sokaknak szánt 100k alatti monitorokat, ezen belül is a 22-24"-es 40-70k-s megoldásokat, de nem akarok ennyire specifikus lenni, az utóbbi csak az én igényem. -
Abu85
HÁZIGAZDA
Kapható, ráadásul nagyon drágán. Még egyszer leírom, hogy a G-Sync így akármeddig életben tartható, mert a G-Sync kijelzők vételára a valós értékük duplájára van szabva. Ergo elképesztően sok hasznot eltesznek a gyártók egy ilyen termék eladása után, amivel a fejlesztési költségeket a G-Sync vonal úgy ki tudja termelni, hogy nem kell drágábban adni a nem G-Sync megoldásokat. Tehát amíg van vásárló ezekre a 200-400K közötti kijelzőkre, addig G-Sync is lesz. Egyedül a vásárlók 90%-a nem jár jól ezzel, mert nekik nincs pénzük ennyire drága monitorokat vásárolni, 100K alá pedig nem hajlandó senki G-Sync kijelzőt hozni, pedig nagyon hiányzik a piacról.
Senki nem fogja kidobni a VGA-ját. A cél nem ez, hanem az, hogy az OEM fizesse ki az Intelnek a saját pGPU-ját. Ami most az AMD-től származik, de mindegy, idővel úgyis lesz oda gyári fejlesztés. Aztán az Intel leszarja, hogy az adott OEM még rak-e a termékbe egy dedikált GPU-t, mondjuk az AMD-től vagy az NV-től, mert ők már eladták a saját hardverüket. Nyilván sok OEM nem hülye. Ugyanazért a teljesítményért nem fognak kétszer több pénzt kiadni.
A DIY ebből a szempontból nem érdekes, az OEM-piac számít a fejlesztésnél. Ha azt ki tudja húzni az Intel az AMD és az NV alól, akkor hatalmasat nyernek, mert lefölözik a biztos megrendeléseiket.
Hosszabb távon az AMD és az NV is arra lesz kényszerítve, hogy az Intel pGPU-s megoldásaira pGPU-val válaszoljanak. Ebben az NV-nek sokat segíthet a Microsoft S mód törekvése, hogy a legacy komponenseket kihúzzák a Windows alól, amit a userek opcionálisan rakhatnak vissza, így mehetnek a Qualcomm után, és támadhatják a PC-t ARM-os CPU-val. A Windows 10 S szempontjából biztató az NVIDIA-nak, hogy a vásárlók többsége annak ellenére sem aktiválta egy frissítéssel a Win32 API-t, hogy ezt egy darabig ingyenesen megtehették. Tehát jelenleg nem tűnik úgy, hogy a PC-n a Win32 API nélkül nem tudnak élni a felhasználók. Sok user nem tud, de marad elég potenciális vásárló, akik elé oda lehet rakni egy platformot. -
Abu85
HÁZIGAZDA
Annyi köze van hozzá, hogy ha ennyire prémium szinten tartják a fejlesztést, akkor még akár az is lehet, hogy egy-egy monitor évente ki tudja termelni a saját fejlesztési költségeit. Ennek viszont az az ára, hogy minden gyártó számára a magas ár a követelmény, vagyis 200K a belépő ide, legalábbis egy normális modellért, amitől soha nem tud tömegtechnológiává válni. Ez arra kényszerítheti az NV-t, hogy sose támogassanak semmilyen variálható frissítést, ami szabványos. Lást a VESA Adaptive-Sync-et nem támogatják (csak a notik integrált kijelzőiben, ami ugye olyan mindegy), illetve a HDMI VRR-re sem jelentették be a támogatást, holott az AMD már bejelentette, az Intel pedig ígéretet tett rá, hogy ha lesz megfelelő hardverük, akkor megoldják. Az NV-nél pedig jön a BFGD, ami a VRR szempontjából nem jó előjel.
-
Abu85
HÁZIGAZDA
És úgy gondolod, hogy az rendben van, hogy lassan 300K alatt be sem mutatkozik új G-Sync kijelző? Tehát ez így ebben a formában tökéletes a felhasználók számára?
(#32934) Z_A_P: Nem. Az Intel megerősítette, hogy galád módon mehet mindenhova. Még professzionális verzió is lesz.
Kérdés, hogy mit tekintünk soknak. A 100 dollár alatti VGA-k eladása jelenti a VGA-piac 76%-át, legalábbis a legutóbbi JPR jelentés szerint. Azért az nem lenne szerencsés, ha eltűnne, ugyanis radikálisan csökkenne a gyártók komponensfelvásárlása, vagyis egyre kisebb mennyiségi kedvezményeket tudnának kiharcolni, ami kihatna a gyorsabb VGA-k áraira.Megpróbálunk szerezni.
-
Abu85
HÁZIGAZDA
Samsung még nem csinált. Az LG csinált egy 300 ezernél bőven drágábbat. Ha ezt te a magad részéről sikernek értékeled, akkor én örülök neki. Vegyél belőle hármat is Surroundba.
De amúgy ne csapjuk be magunkat, mind tudjuk, hogy nem egy újabb 300-400k közötti G-Sync monitor hiányzik a piacról, hanem egy 100k alatti kategóriát célzó, értsd a felhasználók 95%-ának megfizethető termék.De egyébként nem kell sok ész kitalálni, hogy mi történik. Azzal, hogy az Intel hirtelen előhúzta a Kaby Lake-G-t elég kellemetlen helyzetbe hozta az OEM-eket, mert új szintre terelik a küzdelmet. Olyan helyre, ahol náluk az előny, az AMD-vel és az NV-vel szemben. Már nem köti őket az FTC követelménye sem, így nem kell biztosítaniuk a gyors PCI Express-t sem, tehát amikor elérhető lesz az első saját pGPU-juk, akkor még jól meg is szopcsiztathatják az AMD-t és az NV-t azzal, hogy nem biztosítanak kellő csatornát a processzorba. Mind tudjuk, hogy az Intel milyen agresszor, és az érdekük az, hogy ha veszel is VGA-t a gépedbe, nekik is fizesd csak be a kasszájukba a nem használt pGPU-t.
-
Abu85
HÁZIGAZDA
Nyilván az sem veszélytelen, de arra azért számíthatott az NVIDIA, az AMD pedig pláne, hogy a 100 dollár alatti szintet ki fogja ütni a következő AMD APU. Gondolom az AMD sem véletlenül rakott 128 bites GDDR5-öt az RX 550-re. Ők tudták előre, hogy a Raven Ridge kegyetlenül gyors, így a piaci szempontból ideális 64 bites GDDR5 nem lett volna elég. Mondjuk így se sokkal gyorsabb az RX 550 a legjobb Raven APU-nál. És akkor az AMD a másik fejlesztést, a Fenghuang Ravent direkt nem hozza le asztali szintre. Az is ott lenne, mint a Kaby Lake-G, csak nem akarják túl gyorsan kivégezni a VGA-piacot, mert túl sok 200 dollárnál olcsóbb Radeon kerül eladásra, és eléggé kellemetlen lenne a partnereknek, ha házon belül megtámadná ezt a szinten egy integrált megoldás. Az átállást az AMD terveit figyelve jól lehet majd követni, mert amikor majd leállnak a 200 dollárnál olcsóbb VGA-kkal, akkor ezek helyére APU-k vagy pGPU-s CPU-k kerülnek az útitervbe. Akkor az nagy ütés lesz a VGA-piacnak, mert az Intel és az AMD is kifizettet egy combos grafikus vezérlőt minden procival, függetlenül attól, hogy használod-e, vagy letiltod a BIOS-ban és veszel mellé egy másikat. Ez OEM-eket nagyon nehéz lesz meggyőzni arról, hogy fizessenek még egyszer ugyanannyi pénzt egy második GPU-ért.
-
Abu85
HÁZIGAZDA
A Kaby Lake-G-vel egészen a GTX 1060 Max-Q-ig lefedik a piacot. Ez tényleg az a teljesítményszint, aminél a teljes piac 91-93%-a nem vásárol jobbat. Ha ez mondjuk a következő generációkkal nem fejlődik tovább, akkor is problémát jelent csak dedikált GPU-ba rakni a pénzt, ha a piacból csak 7-9%-ot lehet elérni. Szóval emelni kell az árakat, mert jóval kisebb lett az Intel miatt a célozható terület. Persze jelenleg az AMD-nek ez csak kozmetika, mert az Intel az ő hardverükkel fedi le a piac eddig nem támadott részét, de idővel majd a Radeon helyére saját hardver kerül, tehát ugyanúgy probléma lesz ez az AMD-nek is. Már csak azért is, mert ha bemész a Media Marktba, akkor nagyrészt inteles notik és gépek vannak ott kirakva. Tehát sokszor esélyed sincs, hogy AMD-t vegyél. Ha ez kiterjed a GPU-kra, akkor ott is ugyanez lesz. Az Intel elintézi, hogy az AMD és az NV megoldásai ne legyenek ott a polcokon.
-
Abu85
HÁZIGAZDA
válasz
Petykemano
#32918
üzenetére
Ha nem tetszenek a PC-s árak, még mindig lehet konzolt venni. Van ötféle megoldás a Nintendo, Sony, Microsoft triótól. Nehogy azt hidd, hogy ennél olcsóbb lesz majd a következő generáció, ez a piac ilyen marad jó ideig. Amikorra pedig helyrehozhatók a bányászat által okozott károk, akkora pedig már rég olyan hardverek lesznek, mint a Kaby Lake-G. Az fog majd nagyon betenni a piacnak, hiszen kifizettetik veled a GPU-t már a processzor tokozásán, még akkor is, ha neked az pont nem kell. Kezdjetek barátkozni a gondolattal, hogy ez a piac már sose lesz a régi. A domináns szerepet az IGP mellett a pGPU szerzi majd meg, amivel lefedik a piac 95%-át. A dGPU a futottak még kategória marad a legfelső 5%-on, nagyon drágán, persze annak aki megfizeti.
-
Abu85
HÁZIGAZDA
válasz
solfilo
#32901
üzenetére
Csak itt rég nem ezekről beszélgetünk, hanem a technológiáról, hogy milyen lehetőségek vannak a shader modell 6-ban, vagy a hasonló fejlesztésekben. Most gondolj bele, hogy mi a PC érdeke. Egy szabványos nyelv, amivel kihasználhatók általánosan a hardverek képességei, vagy szimplán az AMD saját kiterjesztéseinek és kiegészítéseinek a használata, amelyek igazából a GCN-en kívül másra nem hoznak előnyt. A Far Cry 5-nél az AMD már a CES-en azon pörgött a zárt ajtók mögött, hogy rengeteg GCN-only eljárást használ, ezen belül vannak Vega-only opciók is. De az eljárások zöme Windows 10-zel szabványosítható, hogy minden hardveren működjön. Kivéve az RPM, de az inkább hardveres képesség, illetve arra a Microsoft a shader modell 6.2-vel gondol.
Tényleg egy olyan PC platformot akarunk, ahol a fejlesztők fragmentációra vannak kényszerítve? Az is orbitális baromság, hogy a részesedést nézik. Ma már annyira drága a fejlesztés, hogy partnerkapcsolatot keresnek. Ergo a kódot egy részét nem igazán a fejlesztők írják, hanem megrendelik a partnerüktől. Alig pár kiadó engedhet meg magának egyéni fejlesztést, ilyen pl. az EA, de nézd a Bethesdát és az Ubisoftot. Ők sem kicsik, és mit látsz. A Bethesda leszerződtette partnerének az AMD-t, míg az Ubisoft az Intelt és az AMD-t egyszerre. Gondolod, hogy ők olyan kódokat fognak leadni, amik jók a többieknek. Jó az Intel esetleg a Vegára optimalizál, mert a Kaby Lake-G miatt ez érdekükké vált, de amúgy mindenképpen a saját érdeküket nézik. Nem jó ez így. Az Intel még nyugtathatja magát azzal, hogy a Kaby Lake-G-jük az AMD intrinsics kódjaiból profitál, viszont nem ez az ideális irány a piacnak.
Az NV egyébként jól látta meg, hogy a fejlesztési költségek az egekbe szöknek, így egyszerű middleware-ekkel tudják általánosan kiszolgálni a változó igényeket. Ott persze elrontották ők is, hogy a bizonyos nagyobb stúdiókat a zárt middleware-ek nem érdeklik. Ők inkább keresnek egy fejlesztőpartnert. -
Abu85
HÁZIGAZDA
válasz
Petykemano
#32899
üzenetére
És a Doomban a +40-50% az intrinsics függvényektől az mióta kevés a csíkokra nézve? Miért gond az, ha a shader modell 6-tal ennek az iránynak az általános, és nem csak AMD-specifikus alkalmazását propagálom? Ez a sebesség mindenkinek jár. Vagy ha nem ennyi, akkor kevesebb, de mindenképpen extra tempót lesz belőle.
Én nem nagyon hiszek abban, hogy a PC érdeke az, hogy az AMD-re gyors kódokat kapjunk, míg a többire szabványost, amikor el lehet érni egyszerre mindkettőt is. Persze értem, akkor Windows 10 only az alkalmazás, míg az AMD-nél a gyors kódok még Windows 7 mellett is működnek, de lassan rá kellene vezetni a Win 7 tulajokat a váltásra, mert sokkal gyorsabb lehetne minden. És ez gyártófüggetlen téma. Minden hardverhez van már SM6-os implementáció (jó a nagyon régiekhez nincs, de azok eleve lassúak). -
Abu85
HÁZIGAZDA
válasz
Petykemano
#32896
üzenetére
Pedig érdemes lenne megérteni, mert így csak belekeversz dolgokat, amik nem oda valók.
A 10-30% egy általam becsült realizálható tartomány. De ha konkrét példát akarsz, akkor az id software már dolgozott ilyennel. A Doom esetében az intrinsics függvények hozzáadása 40-50%-kal növelte a teljesítményt, és ez a gyakorlat. Ha helyén akarod kezelni a dolgokat, és példát akarsz, akkor tessék ott a Doom. Más példa amúgy nem igazán lesz, mert az id software az id tech 6.5-ben dobta a legacy kódot, tehát innentől kezdve az AMD-re csak gyors kódokat szállítanak. A Doom abból a szempontból speciális volt, hogy abban az AMD-re lehetett használni a gyors és a szabványos kódutat is.
Még mindig gyártói szinten vizsgálod ezt. Holott a shader modell 6 egy gyártófüggetlen rendszer. Az a célja, hogy a Doomban az AMD-re nyert sebességet biztosítani lehessen általánosan. Az persze programfüggő, hogy sikerül-e, de a 10-30% közötti tartomány igen reális általánosan. Aztán persze lehet, hogy ebből lesz akár 100% plusz is bizonyos terhelés mellett, csak ez nem lesz általános. Viszont mindig pluszban lesz.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- OnePlus 15 - van plusz energia
- Egérpad topik
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- Azonnali alaplapos kérdések órája
- A fociról könnyedén, egy baráti társaságban
- Kertészet, mezőgazdaság topik
- Fejhallgató erősítő és DAC topik
- Milyen okostelefont vegyek?
- Hegesztés topic
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- További aktív témák...
- Telefon felvásárlás!! Samsung Galaxy A13/Samsung Galaxy A33/Samsung Galaxy A53
- HIBÁTLAN iPhone 15 Plus 256GB-1 ÉV GARANCIA - Kártyafüggetlen, MS4529
- Samsung Galaxy Z Flip5 512GB,Újszerű,Adatkabel,12 hónap garanciával
- Gamer PC-Számítógép! Csere-Beszámítás! I7 6700 / RTX 2060 12GB / 16GB DDR4 / 500 GB SSD
- Készpénzes / Utalásos Videokártya és Hardver felvásárlás! Személyesen vagy Postával!
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest





Persze értem én az egészet, nem sokan éltek benne tíz éve, és nyilván ezt belülről látni teljesen más, mint amit olvasóként lehet tapasztalni, de ettől még nem kell naivnak lenni.
Ezért írtam eredetileg, hogy a Google a barátod. De személyeskedj tovább, ha neked ez jólesik, engem nem zavar.
Többet ebbe nem rakok időt. A Google-ben mindent megtalálsz. Most már cím szerint tudod ellenőrizni a játékokat.
![;]](http://cdn.rios.hu/dl/s/v1.gif)
