Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #34222 üzenetére

    Amikor a vásárlók már nem pucolják ki a raktárakat.

    (#34223) Csupingo: 125 wattba simán belefér. A csúcs Kaby Lake-G is 100 watt. Ebből a proci 45. 55 watt jön a leggyorsabb ottani AMD pGPU-ból. Persze az Intel itt érdekes skálázást is alkalmaz, így a proci képes 35 wattra csökkenteni az energiaigényét és akkor 65 wattot kap a pGPU. De ez fordítva is igaz, a proci elkérhet 60 wattot is, és akkor 40 marad a pGPU-nak. Az egész alkalmazásfüggő.

  • Abu85

    HÁZIGAZDA

    válasz zovifapp111 #34220 üzenetére

    Nekem csak akkor fog tetszeni, ha értelme is lesz a lapkák közelebb helyezésének. Mert azért lehet igen komoly haszna is. De ha ezt nem használjuk ki, akkor inkább vesztünk.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #34216 üzenetére

    Bele van építve az Intelnél a pGPU árába az összes licenc (engedélyezett driverfunkciók/névhasználati jogok) és a támogatás. Egyedül a tesztelést nem végzi el az AMD, azt az Intel csinálja.

    Az APU-k régóta ki vannak véve a mainline driverből, és csak a WHQL részei, vagy a régebbi modellek már annak sem. Ennek az oka, hogy nagyon nagy mennyiségben kerülnek eladásra a VGA-khoz képest, ami a gyártópartnerek support költségeit extrém mértékben megdobja. Az AMD évente kiad minimum 16, de esetleg 20 meghajtót, amik minden asztali gépre települnek, és a legolcsóbb gépeknél az árba nincs betervezve az, hogy a support egy meghajtó kiadása után user errorokat teszteljen, mert a lejelentett hibák 95%-a ez, miközben a kivizsgálásuk költséges.
    A fentiek miatt az AMD átállt még az előző évben arra, hogy a saját WHQL csomagjaik között a köztes meghajtók a Windows Update-en keresztül jönnek az APU-kra. Ennek az előnye, hogy nagyságrendileg csökkenti a user errorok számát, mert a Windows automatikusan megoldja, de ha nem, akkor is a Microsoft supportját ostromolja a user, és nem az OEM partnerét.

  • Abu85

    HÁZIGAZDA

    válasz zovifapp111 #34217 üzenetére

    Mivel a 7 nm-es node gyártási költsége eleve eléggé magas, így leginkább maximum ~400 mm2 közötti GPU-kkal fogunk találkozni. Ezek kerülnek majd annyiba, amennyibe a 12-16 nm-en az ~550 mm2-esek. De persze a költségeket figyelembe véve ideálisabb a 350 mm2 körüli maximum. Ez már egy nagyobb, HEDT tokozásra ráfér.

    A Kaby Lake-G jóval gyorsabb a GT 1030-nál. Még az 1050 Ti-nél is jobb. De a Fenghuang Raven gyorsabb lesz a Kaby Lake-G-nél is. Az olyan 1060 szint, és az IGP. Persze elég sokat trükközik a rendszermemóriával, onnan azért sokat nyer.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #34205 üzenetére

    Ez bizony nagy kérdés. De alapvetően azt is számításba kell venni, hogy ha a legózási lehetőséget elveszted, akkor az OEM is veszít a választható opciók közül. Lesz Intel CPU Intel GPU-val és AMD CPU AMD GPU-val. Tehát ebben a jövőképben nem csak a gyártók keverésének kiesése a probléma. Aztán a Microsoftnak is komoly szerepe lesz itt, hiszen ahhoz, hogy az NV megmaradjon itt, a Win32 API-t ki kell vezetniük, és a támogatást mondjuk át kell rakni az Azure-ba, így a legacy applikációk futtathatók maradnának a felhőben. Ezzel már lényegtelen lenne a CPU ISA-ja, jöhetnek a Qualcomm is, és az NV a saját ARM-os cuccával.

  • Abu85

    HÁZIGAZDA

    válasz lezso6 #34199 üzenetére

    Nem valószínű, hogy moduláris lesz a Navi. Lesznek benne GMI-k, de egészen más célból, nem azért, hogy négyet egymás mellé rakjanak egy tokozáson, hanem azért, hogy a CPU-kkal párosítsák. Szóval a Navi esetében még biztos lesz több dizájn a teljesítményre. A proci esetében ez a "szuperglue" koncepció sokkal kedvezőbb, mert nem heterogén megoldásról van szó, de a GPU-knál azért nehezebb szétbontani a rendszert.

  • Abu85

    HÁZIGAZDA

    válasz zovifapp111 #34190 üzenetére

    Igazából az a legnagyobb tévedés, hogy azt hiszed olyan világ jön, ahol választhatsz. Nem sajnos. Már a processzor kiválasztása meghatározza a GPU-t. Az Intel nem azért csinál dedikált GPU-t, mert hirtelen olyan nagyon fontos lett a VGA-piac, amikor évekig csak azt mondták, hogy elhanyagolható tényező. Azért lett fontos, mert a jövőben nem tudod majd odarakni a VGA-kat a procik mellé, hanem ott lesz a GPU a procival közös tokozáson. Így pedig már be kell nevezni, mert természetesen saját GPU-t akarnak a procijaik mellé párosítani. Szóval a jövő a jelenlegi útitervekben úgy néz ki, hogy ha kiválasztottad a processzort, akkor azzal jön a GPU és a memória. Később még az adattároló is. Szépen megkapod mindet a fémkupak alatt.
    Ennek a legfőbb oka, hogy a CMOS-t nincs mivel leváltani. Elmegyünk 3 nm-ig, 2023-ben itt is lesz, és alapvetően nincs tovább (a 2 nm már nagyon elenyésző előnyt ad, az 1 nm pedig gazdaságilag értéktelen alternatíva). Elméletben sem lehet lépni, hacsak addigra valami CMOS alternatíva nem jön, de nem nagyon látszik semmi, ami 6-7 éven belül bevethető lesz. Szóval el kell kezdeni 3D-ben építkezni, és olyan terülteket fejleszteni, ahol van még potenciál, például a részegységek összeköttetésében. Aztán hosszabb távon, úgy 2030 környékén talán látni lehet majd valami CMOS alternatívát, amire át lehet állni. Az más kérdés, hogy a mai legózás nem biztos, hogy azzal visszatér.

  • Abu85

    HÁZIGAZDA

    válasz zovifapp111 #34187 üzenetére

    Ilyen formában biztos nem. Ez az NV-nek is egyre kevésbé éri meg. Azzal nem mennek sokra, hogy prémium fícsőrnek tartják. A HDR-es G-Sync esetében nem sok céget győztek meg. Az Acer és az ASUS, ennyi. És ez már probléma nekik, mert például a prémiumért azért egy monitorgyártó elvárná, hogy többet tudjon, mint a FreeSync 2. De ehhez képest az NV megoldásából hiányzik a direkt tone mapping, illetve a Windows bugos HDR pipeline-ját kell használni a maga lilás beütésével. Értem, hogy prémium, csak nem tudni, hogy mire? A lilás árnyalatra? A direkt tone mapping hiányában a nagyobb késleltetésre és a kötelező kijelzőoldali tone mappingra? És akkor az ASUS és az Acer rak rá majd ezer dollár prémiumot, hogy a maguk oldalán azért ne legyen nagy kockázata ennek, így gyorsan visszahozza a beleölt pénzt, amire az európai kereskedők még raknak vagy 800 eurót, mert a luxuskategóriát luxushaszonnal árulják ugye. Legalább a Windows pipeline-ját meg kellene kerülnie az NV-nek, és akkor a lila árnyalat elkerülhető lenne, csak ez annyira körülményes, mert arra kell az NVAPI-ba egy kiegészítés, ami támogatná azt, hogy a játék egy meghajtóoldali pipeline-on kiküldje a képet, és ha már ezt megteszik, akkor amúgy mehetne rögtön a direkt tone mapping megjelenítés, tehát ott lennének, ahol a FreeSync 2, és akkor már csak arról menne a vita, hogy ér-e ez ~2000 dollárt.
    Az MS-től nem tudom, hogy mennyire lehet amúgy a lilás beütésre megoldást várni. Az a vicc, hogy Xbox One-on ők is az AMD pipeline-ját használják, annyira jól sikerült a sajátjuk. :DDD

  • Abu85

    HÁZIGAZDA

    válasz keIdor #34185 üzenetére

    Az is elég lenne, ha csak 200 dollár lenne a felár. De manapság a kijelzőgyártók, na meg a kereskedelmi csatornák már igencsak dobálják az 400-700-1000 dollárt pluszt is rá. Nem igazán ez a hardver szabja meg már a végtermék árát, hanem az, hogy az R&D szempontjából a G-Sync a saját hasznát termeli ki. Tehát amíg az összes többi kijelző között egységesen oszlik el az azokba ölt R&D, addig a gyártók úgy döntöttek, hogy erről a G-Sync-et leválasztják. Ez számukra egy biztonsági tényező, okulva a 3D Vision halálából.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #34177 üzenetére

    De a notebookos G-Sync-ben sem. Nem azért van ez a hardver, mert annyira szükség van rá. A Pascal óta ki lehetne dobni a kukába, nincs szükség arra, hogy beszereljék, mert ami a Kepler/Maxwellből hiányzott, és szükségesség tette ezt az FPGA-t, az már ott van a Pascal GPU-kban.
    Maga a VRR, gyakorlatilag az összes verziója egy faék egyszerű megoldás, ami a VBLANK-et (vertical blanking interval) manipulálja. Ez egy olyan paraméter, ami megadja, hogy mennyi idő telik el az előző képkocka utolsó és az új képkocka első pixelsorának monitorra való kirajzolása között. Minden esetben, minden implementáció ugyanazt csinálja, amíg nincs új képkocka, addig nem kezd bele új rajzolásba a kijelző. Erre van egy szoftver oldali implementáció, hogy a grafikus eszközillesztő kontrollálhassa ezt az értéket. Na most a Kepler ezt nem támogatta, ezért kellett a külső modul. A Maxwell támogatja, bár a működés nem változott, míg a Pascal esetében a HDR-es G-Sync már nem használja ezt a modult úgy, ahogy a korábbi hardverek, így itt már a feldolgozás végig a gépen belül marad (a'la Freesync, Adaptive-Sync, HDMI VRR). Ezért is tartott olyan sokáig kiadni a szoftvert rá, mert nem nagyon akart ez működni az FPGA-n, és az NV végül nem is erőltette, hanem inkább kizárta a munkából. Gyakorlatilag csak a licenc miatt veszi meg a kijelzőgyártó, mert HDR-es G-Sync esetében már nem működik, persze HDR nélkül G-Synchez még kell, de ehhez is lehetne írni egy olyan implementációt, ami inkább a GPU kijelzőmotorját használja. Hosszabb távon ez az ideális megvalósítás, mert számos előnnyel jár a monitorgyártók számára. Használható a GPU-ba épített képskálázás, egyedi OSD-t lehet alkalmazni, egyedi színfeldolgozással és egyedi bemeneti funkciókkal. Illetve az FPGA nélkül az NV is meg tudja csinálni azt, amit az AMD a FreeSync 2-vel. Szimplán kicserélhetik a Windows HDR pipeline-t, ami nem valami jó. Valószínűleg ez már megfordult a fejükben, amikor a HDR-es G-Sync alapjait letették.

  • Abu85

    HÁZIGAZDA

    válasz core i7 #34055 üzenetére

    Egyre többen. Az, hogy az Ubinak már megéri, azt jelenti, hogy más is felveti a spórolás kérdését.

    (#34060) core i7: Nem igazán fogsz nagy kilövést látni az AVX minimum igénnyé emelésétől. Pici sebességet talán lehet nyerni, de eddig is támogatta nem kevés játék ezt az ISA-t, miközben megtartotta az SSE4.1-et is. És a Gulftown mondjuk nem maradt le igazán. Szóval ez csak egy ISA, nem fog az erőviszonyokon orbitális mértékben változtatni. Annyit tudok elképzelni, hogy ha ennyire minimum igény lesz, akkor az Intel a következő körben tényleg berakja minden CPU-jába.

  • Abu85

    HÁZIGAZDA

    válasz core i7 #34051 üzenetére

    Egyszer biztos. Talán úgy 7-10 év múlva. Most az AVX-en a sor. Elég nagy a felhasználóbázis, a kétmagos penyákat már a magszám miatt sem kell számba venni, és a konzolok is támogatják. Nincs igazán sok ellenérv az AVX kapcsán. Az SSE4.1-nél pedig ellenérv lehet a tesztelési költség, amit ennek az ISA-nak a támogatása jelentene. Gondolom ez téged nem vigasztal, de végeredményben ez lassan egy gazdasági kérdéssé válik. Megéri-e az SSE4.1-et azért a maréknyi játékosért támogatni, akik amúgy megfelelnének a magszámra vonatkozó követelménynek (ami ugye manapság minimum 4), de annyira régi a procijuk, hogy az AVX-et még nem támogatja.

  • Abu85

    HÁZIGAZDA

    válasz FLATRONW #34048 üzenetére

    Igazából ahhoz van köze, hogy az új konzolok is AVX-et támogatnak, és eleve egy minimum igénnyé kezd válni a négy mag, tehát az se számít, hogy sok újabb Celeron és Pentium nem támogatja. Emiatt egyszerűbb csak az AVX-re fejleszteni, mert ha már visszaportolod mondjuk SSE4.1-re, akkor azzal a tesztrészlegnek igen nagy extra munkát adsz, és minden egyes jövőbeli frissítésnél ezt az extra tesztelési munkát hordozod magaddal, ami összességében nem kevés pénz lesz ám. Emiatt ha már úgyis négy mag a minimum, akkor a stúdiók egyre inkább húznak az AVX-hez is egy vonalat, mert a kétmagos AVX-es nélküli gépek már a magszám miatt kiesnek. A régebbi, sokmagos gépek pedig túl régiek, hogy ezekkel törődjenek.
    A másolásvédelem nem kifejezetten kötelezné az AVX-et, de persze ha már a motor eleve ezt igényli minimum, akkor nyilván kérhetnek olyan verziót, ami ehhez igazodik. De sose a másolásvédelem határozza meg az erre vonatkozó igényeket.
    Tudom, hogy 4-6 magos AVX nélküli procival nem vígasz, de maga az AVX 7 éves, és mindkét nagy konzol támogatja, tehát alapvetően várható volt, hogy előbb-utóbb abszolút minimum igénnyé válik a PC-n belül.

    (#34045) Keldor papa: A Dunia limitál? Durva lenne, hiszen háromszor nagyobb terhelésre van felépítve, mint az összes korábbi motorja az Ubinak. Megközelítőleg sem jár most ott az aktuális AnvilNext vagy Snowdrop, ahol a Dunia jelenlegi verziója. Mondjuk az is igaz, hogy az AnvilNext és Snowdrop nem is alkalmaz GPGPU cullingot, míg az új Dunia igen, meg egy rakás más trükköt. Emiatt tud most részlegesebb világot megjeleníteni. Valószínűleg ezt a fejlesztést minden más motorjába beépíti majd az Ubi, csak ez azért időbe kerül.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #34032 üzenetére

    Senki sem hibás itt. Pletykákat lehet írni és linkelni is. Semmi gond nincs velük, csak tudni kell kezelni őket. Még én is megírtam Tombácsi pletykáját, csak még az élesítés előtt megírta az egyik kontakt, hogy kamu, így inkább nem is jelentettem meg a hírt.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #34012 üzenetére

    Ezek nem egyedi mérőszámok. Így lehet mérni a hatásukat, mert a grafika számítása az heterogén feladat, vagyis sok eltérő részegységgel történik az egész és/vagy eltérő hardverállapotok mellett. Tehát van egy megoldás egy bizonyos problémára, amit nem tudsz kimérni fps-en, mert az a teljes képkocka számításának időtartamát méri, miközben lehet, hogy az adott technika a képkocka időtartamának az 5%-ára reagál. Tehát azt az 5%-ot gyorsítja mondjuk 50%-kal. Viszont ha az fps-t méred, akkor rendkívül félrevezető az egész, mert beleraksz a mérésbe 95%-nyi értelmetlen időt, ami csak megakadályozza, hogy megmérd az újítás előnyeit.

    Mármint mert nem méred ki. A Doomnál például ki lehetett mérni, hogy az intrinsics mit hozott. Nem az OpenGL és a Vulkan különbségét láttad a Radeonon, hanem azt, hogy a Vulkan kódhoz a PSSL-ből volt fordítva a SPIR-V, míg az OpenGL kódnál maradt a GLSL.

    Ezek a mai GPU-k igazából igen extrém mértékben skálázhatók. Ezek a modern ISA-k 30000+ konkurens szálat is futtatnak. Tehát igazából csak a buszrendszertől függ, hogy hány tömböt raksz a hardverbe, valószínűleg akkor sem ütköznél skálázási gondokba, ha minden multiprocesszort külön tömbbe helyeznéd. Az más kérdés, hogy hatalmas faszság lenne, de az ISA alapvetően elbírná. Ezért sincs egy jó ideje gyökeresen új utasításarchitektúra az AMD és az NV részéről, mert hamarabb futnak bele a gyártástechnológia fizikai limitjeibe, minthogy maga az ISA skálázódása váljon korlátozóvá. Legközelebb akkor lesz itt nagy változás, amikor hozzák a dinamikus erőforrás-allokációt. Ott kényszerből bele kell nyúlni a működésbe, mert a mostani ISA-k statikus módszerre vannak szabva. Ez egyébként majd egy külön izgalmas változás lesz. Egyedül a megboldogult Larrabee volt ilyen rendszer, csak hát sajnos nem tudtuk megtapasztalni az előnyeit. :D

    (#34013) Oliverda: Nyilván ezek a dolgok csak azokat érdekelhetik, akik értik is, hogy miről is van szó. :)

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #34009 üzenetére

    Na most ezeket nem úgy kell mérni, erre nem véletlenül voltak olyan meghajtók az elején, amikben le voltak tiltva. A hatásukat eleve nem fps. A DSBR-t például bytes/frame-ben mérik, az IWD hatását a kontextusváltások számában, míg a DCC-t szintúgy bytes/frame-ben. Persze ehhez tudni kell, hogy miket keressen, egy szimpla tesztelő nem tudja megcsinálni. Egyrészt nincs hozzá meghajtója, illetve hiába is szerzi be a toolokat, akkor sem fugja tudni, hogy mit kell nézni.

    Ők már jóval többet tudnak a Microsoft új WDDM-éről. Az erőforrásaikat inkább abba ölik, mert egy külön vásárolható kártyával szert se fogsz elérni rajta.

    (#34010) Petykemano: Az AMD teljesen más. Ők már tudják használni, hiszen van hozzá egy rakás kiterjesztésük mindegyik elterjedt API-ra. A szabványos megoldás viszont más, ott már mindenki tudja majd használni, így megéri sokkal többet építeni rá, hogy több legyen az összesített sebességelőny is.

  • Abu85

    HÁZIGAZDA

    válasz edari #34002 üzenetére

    Azért nem atomfizika ez. A gyártópartner felé vannak rendelések bányába való VGA-kra. Szimplán odamegy a bányászó társulat, hogy ők el szeretnének vinni egy rakás VGA-t bányászni, mittomén 1 millió euró értékben.
    A disztribútorok tekintetében pedig a hivatalos csatornákat azért elég jól lehet követni. A kereskedők sokszor kérhetnek visszajelzést, hogy a kisker cuccaiból mennyi VGA-t vittek el úgy, hogy egyszerre hatot vettek mondjuk. De már a három is gyanús. Ezeket visszaadod adatként, és meg is van, hogy mennyi VGA ment a bányába. Persze van némi hibaarány, de alapvetően nem annyira sok. Ha egy VGA-t veszel, akkor nem valószínű, hogy bányász vagy.

    (#34003) Yutani: Most nem. Most inkább csökkenőben vannak az árak. Régen valszeg azért sokkal több volt ez. Azt hiszem a Q4-ben valami 3 millió, de ezt nem tudom pontosan. Előtte valszeg volt 5-7 is. Azért a 25% már elég ahhoz, hogy küldje felfelé az árakat.

  • Abu85

    HÁZIGAZDA

    válasz edari #34000 üzenetére

    Direkten ők nem tudják. A gyártópartnereiktől kapott adatokra támaszkodnak. Nyilván a VGA-gyártók ezt azért elég jól fel tudják mérni, akár direkt eladásból, akár a hivatalos csatornákon kért visszajelzésekből. Ezeket kapja meg a JPR is. Nyilván az AIB nem fogja megmondani az NV-nek az AMD, és az AMD-nek az NV számait. Legalábbis hivatalosan nem, aztán fű alatt lehet, hogy megtudják.

  • Abu85

    HÁZIGAZDA

    válasz edari #33997 üzenetére

    A JPR nemrég adta ki. ~1,7 millió VGA került az első negyedévben a bányászokhoz. Az összes VGA-eladás pedig ~23,9 millió volt.

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #33995 üzenetére

    Mármint melyik gyakorlatban? Ezeket az újításokat a HLSL 2017-től lehet alapvetően használni. Gyakorlati kódot max. az Xbox One látott, esetleg PC-n a Radeonok a Doomban és a Wolf 2-ben, mert ugye ott adott a SPIR-V, de az is specifikus kiterjesztésekkel. A Microsoft a shader modell 6-ba csak idén kényszeríti bele a piacot. Szóval szabványos szinten ezek igazából az idei év végétől élhetnek.

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #33992 üzenetére

    A GCN1 és GCN2 nem tudott SDWA-t, DPP-t, nem volt írható a skalár gyorsítótár, illetve nem volt regiszterindexelés sem. Utóbbit emulálnia kellett a fordítónak, ami sokszor nem vezetett jó teljesítményű kódhoz, míg a GCN3-tól ez natívan megoldható.
    A GCN1->2 váltás volt inkább marketing, a GCN3 az nagy ugrás volt. A GCN4 alapvetően nem volt igazi előrelépés, de a kódolási sémát lecserélték, viszont az ISA képességei nem változtak. Ezt azért nem nevezik marketingnek, mert ez alapozott meg a GCN5-nek, ami szintén egy igen nagy ugrás az ISA tekintetében, hiszen bevezeti az RPM-et, plusz memória és atomi kiegészítések.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33991 üzenetére

    A DCC, a DSBR, IWD, stb. ezek mind működnek. Régebben volt olyan driver, amiben ezeket letiltották és meg lehetett nézni vele és nélküle. Ma már ilyet nem csinálnak, mert ezt csak a megjelenésre tették meg. Az IWD-t ugye úgy, hogy a 17.50-es batchtől van.

    A többit nem értem, a szuperskalárizét és a super-SIMD-et sem.

    Sok dolgot nem is kell szoftverből alkalmazni, driveres. A fenti három mindenképpen. DCC-je nyilván van a Fiji-nek is. IWD-je nincs, de az leginkább ott számít, ahol a munkafolyamatok kiosztásáért felelős egység limitál, például Far Cry 5-nél, Deus Ex Mankind Dividednél mindenképpen, mert ott sok a geometria. A DSBR a tipikus tiled motorokban számít, mint a Frostbite, ott nagyon sokat 30% körüli bytes/frame spórolás van. Ez egyébként az iparágon belül a PowerVR spórolásához mérhető, a többi rendszer kevesebbet spórol, igaz azok nem is draw stream megoldások.

    Nem is célozzák, hogy sikerüljön. Láttad, hogy senki sem növelte meg a VGA-kra vonatkozó gyártókapacitást, amikor halálra is kereshették volna magukat az elmúlt egy évben. Ezek a cégek írják a piacot és nem csak a résztvevői. Nekik már megvan komponálva a 2020 utáni időszak, amit kurvára nem külön megvásárolható kártyákkal képzelnek el. Ma már arra rendezkedik mindenki. Ha számítana egy kicsit is ez a piac, akkor most mindenki szolgálná ki a ti VGA-k iránti igényeiteket, mert látod, hogy mennyien várják az újakat. Ehhez képest csak az időt húzzák, pedig már nincs mire, a bányászat beállt a termelt VGA-k kb. 7%-ára. A többi már a játékosoknak megy.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33980 üzenetére

    Azért ritka manapság az előny clock-2-clock, mert ma már az órajel is egy fícsőr. Csak ahhoz ész kell, hogy ezt meg is értse a média. Szóval hiába magyarázza azt az Intel, az NV és az AMD is, hogy a magasabb órajel az nem úgy jön, hogy kisebb a csík és csak úgy megterem, hanem beletervezik magába az architektúrába.

    Egy, azóta ex-Intel alkalmazott mondta nekem régebben, hogy több újságíró is a 2000-es évek szintjén ragadt, és nem tudják őket kirobbantani onnan, mert egyrészt nagy már a bizalmatlanság a gyártók felé, hogy biztos hazudnak (nyilván 20 évvel a hátuk mögött talán egy-két füllentésre való emlékezés erre ad is alapot), másrészt régen volt nagy clock-2-clock változás is, és ezt keresik újra és újra, de ma már hiába. A húsz évvel korábbi tapasztalataiknak viszont jobban hisznek, így a modern gondolkodásra képtelenek lettek, vagyis nem tudják elfogadni, hogy a legnagyobb teljesítményt ma konkrétan szoftverből nyerhetik a hardvergyártók is, de ehhez ugye kellenek a szoftverek is.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33955 üzenetére

    Mindenhol programozni kell. A semmiből nem terem kód senkinek.

    Minden számolásnál ugyanazt a matekot kell követni. ALU-k száma * órajel * utasításonkénti operációk száma. Egy nyolcelemű packed dot product például 8 MUL és 7 ADD.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33929 üzenetére

    Kétféle irány kezd kialakulni. Az egyik a speciális, amikor magát a gyorsítót eléggé specifikusan egy célterületre tervezik, míg a másik az általánosabb felhasználás, amikor nem csak packed dot productra van kigyúrva a hardver.

    Ezt többen másképp közelítik meg. Az Intel konkrétan két hardverrel. Nervana a specializált irányra, és a DL-es Xeon Phi az általánosra. Az NV egyszerűen egy hardverbe építi mindkettőt, de úgy, hogy elszeparálják a részegységeket, míg az AMD egy hardverbe építi mindkettőt, de nem szeparálják el a feldolgozókat.

    Mindkettőnek megvan a maga előnye és hátránya.
    Az Intelnek az lesz a gondja, hogy két hardverre kétféle szoftverkörnyezetet nehéz lesz optimálisan fenntartani, na jó nem annyira nehéz, de minimum eléggé költséges. Viszont a CPU-szerű Xeon Phi dedukcióra nem igazán gyúrható ki, mert már maga a felépítés elvisz egy rakás tranzisztort.
    Az NV-nél igazából a tranzisztorköltség a gond, mert gyakorlatilag külön feldolgozókat alkalmaznak a packed dot productra, és mellette más feldolgozók vannak a tréning szakaszra.
    Az AMD-nél a Vega 20-ról tudni lehet, hogy az AMD az architektúra flexibilitására épít, és mindent egy feldolgozóból oldanak meg. Ez kicsit olyan, mint amit az Intel csinál a Xeon Phi-nél, csak az architektúra nem követel meg a működéshez bazi nagy, tranzisztorzabáló gyorsítótárakat és ezekhez tranzisztorzabáló vezérlést, vagyis az implementált tudáshoz kellő mennyiségű feldolgozó is lesz. Ennek az előnye az, hogy az elérhető linux driver doksik szerint 4/8 elemű packed dot productot simán le tudsz implementálni. Dot utasítással 8 bites adatokon 1 GHz-en simán megvan ~114 TOPS. És az órajel biztos nem 1 GHz lesz. A 8-elemű módban akár a 400 TOPS is meglehet. De ha feltételezünk 1,5 GHz-et, akkor akár a 600 TOPS is. Ennek az összevont dolognak az az előnye, hogy az összes feldolgozót használhatod packed dot productra, míg az NV s saját módszerével csak a beépített feldolgozók kis részét éri el így, az Intelnek a Xeon Phiben eléve túl kevés feldolgozója van, mert az architektúra nem skálázható ideálisan. A hátrány igazából a tréning szakaszok keletkezik, mert ott igazából ezek a specifikus előnyök nem jönnek elő, mivel legalább 16 bites FP packing kell. Ott már a kevert pontosság melletti lebegőpontos számítási teljesítmény számít.

  • Abu85

    HÁZIGAZDA

    válasz CsonkaImo #33903 üzenetére

    Lejárt a szerződés és nem hosszabbították meg. Nem volt semmi különleges, csak nem tudtak megegyezni. Úgy tudom, hogy azért a támogatásért, amit az AMD biztosított többet vártak vissza, de az EA nem akar senkitől sem többet szimpla reklámszerződésnél, mert megvan a saját erőforrásuk a technológiai háttérhez, ezért az AMD átvitte az erőforrását a Bethesdához, a CIG-hez és az Epic Gameshez.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33897 üzenetére

    A DXR esetében a Microsoft két lehetőséget kínál a működésre. Az egyik a fallback layer. Ez egy olyan univerzális réteg, amit a Microsoft ír, és minden olyan legalább shader modell 6.0-t támogató hardveren futni fog, ami nem kapott gyártói réteget. A gyártóknak azonban lehetőségük van arra, hogy írjanak maguk egy saját hardver fölötti réteget a DXR-hez, amivel nem a Microsoft univerzális rétegét fogják használni, hanem maguk határozhatják meg, hogy az egyes feladatok hogyan fussanak a hardveren. Az RTX egy ilyen réteg a Volta fölé. De nem biztos, hogy ez a réteg el lesz nevezve, gyakorlatilag ez egy driver, amit nem drivernek hívnak, de ettől még egy szimpla driver. :)

    (#33898) TTomax: A tesszelláció tökéletes példa arra, hogy mennyire tönkretehet valamit, csak itt a tesszelláció jellegzetessége miatt nem játékról, hanem effektekről lehet szó. Viszont látható, hogy például se a Hairworks, se a God Rays effekt kód nem fejlődik az NV-nél, mert maga az alapkoncepció az indokolatlan mértékű tesszellálásra épít, és ezáltal a geometry shaderre épít, amik olyan mértékben lezabálják az effektre szánt időbüdzsét, hogy a fontosabb komponenseket, a minőséget biztosító komponenseket már nem tudják hozzáadni. És itt például a Hairworksnek alapvetően szüksége lenne valamilyen OIT megoldásra, sőt, specifikus élsimításra is, hogy a jobb ütközésdetektálásról már ne is beszéljünk, csak nincs rá több tervezett erőforrás, mert elment a hardveres kapacitás olyan dolgokra, amelyek a végső képen a végleges minőségbe alig szólnak bele, de vért izzad a vas, hogy megoldja ezeket. Ez nem lenne annyira kirívó, ha nem lenne a Hairworks mellett egy TressFX, ami például nem tesszellál, geometry shadert sem használ, és gyorsabban megcsinálja a feladatot OIT, analitikai élsimítás és ma már SDF kalkuláció mellett, mint a Hairworks ezek nélkül. És ez meghatározza egy effekt jövőjét is. Ha már az alap hibás, akkor nem fogják továbbfejleszteni, mert nem tudnak mit kezdeni az erőforrásigényével, ezért nem láttuk sosem a második generációs HairWorksöt, míg a TressFX már negyedik generációs kódnál tart.
    És hasonló probléma merül fel a sugárkövetésnél is. Azt nem igazán lehet optimalizálni, túl egyszerű maga a feladat, maximum paraméterezhető, hogy pixelenként hány sugár legyen, és milyen messze legyen számolva. Hasonlóan a tesszellálásnál, meghatározhatod a formátumot és a részletességet. De ha elszámolják az egészet, akkor onnantól kezdve azon kell gondolkodni, hogy a raszterizálás szempontjából mi legyen visszavéve, vagy ha a memóriaigény jelent problémát, akkor csökkenteni kell a textúra- vagy a geometriai részlegességet, mert ugye a VGA-k esetében a memória eléggé kötött, és nem minden meghajtóban van egy csúszka, hogy oda igazítsd a visszajelzett memóriát, ahol jó a programnak.

    Önmagában viszont a tesszelláció nem hibás például a fentiekért. Nem az eljárással van probléma, ahogy a sugárkövetés is nagyon jó technika. A tesszelláció esetében például a fenti problémákat minden esetben az emberi hülyeség okozta. Még azt se mondom, hogy szándékos hülyeség, mert lehet, hogy fiatal volt aki a projektet vezette, látszólag jó ötletnek tűnt az egész, mára meg a tanulópénzként tekint rá (főleg úgy, hogy az NV pénzét égette el). A sugárkövetésnél is ez lesz. Lehet ezt jól használni, és lehet úgy is, hogy végeredményben úgy nézd a tükröződést, a GI-t és az AO-t, hogy szép-szép, de a játék többi része öt éves szintre lett butítva. És itt jön elő egyébként az állandó vita, ami tényleg egy aktuális vita, hogy mire érdemes ezt használni. Mert igen, a sugárkövetéssel biztosan jobb lesz mondjuk a tükröződés, de mondjuk egy trükkös SSR megoldás tízszer gyorsabban hoz egy megközelítőleg jó eredményt. És felmerül itt, hogy például a játékos a játék közben észreveszi-e, hogy éppen van egy olyan doboz a jelenetben, ami pont nincs rajta a képkockán, de pont látszódnia kellene a vizes padlón a sarkának. Az ultimate kérdés tehát az, hogy megéri-e ezért az előnyért tízszer több ALU kapacitással fizetni, és megéri-e bizonyos problémák esetén az alapvető minőséget adó raszterizálásból elvenni, ami kihatással van a teljes játék grafikájára is, sugárkövetés ide vagy oda.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33895 üzenetére

    Nagyon szép a marketing, csak ha megnézed a DXR-t, akkor az jelenleg csak 16 és 32 bites lebegőpontos formátumot támogat. A tensor magok 8 bites fixpontos ALU-k. ;)

    Eleve az AMD mondta, hogy ők is tudnak rá drivert csinálni, GCN3-tól felfelé van is már tesztcsomag. Egyébként egy olyan dologról vitázunk, aminél a Remedy elmondta, hogy 1920x1080 pixeles felbontáson, pixelenként egy sugarat, virtuálisan maximum 4 méteres távolságig kilőve a számítások nagyjából 5 ms-ig tartanak. Na most egy sugár az nem sok, és a 4 méteres távolság sem az, tehát iszonyatosan szűk térben alkalmazható technikáról van szó, ami a 60 fps-hez mért képszámítás harmadába kerül és akkor ez csak Full HD. 4K-n ez 20 ms, ami a 30 fps-hez mért képszámítás kétharmada. És akkor még nem számoltál semmit, amit ki tudnál rakni a kijelzőre.

    A packing alkalmazható a DXR-en belül, hiszen támogatott a shader modell 6.2 16 bites lebegőpontos formátuma. Persze ettől az ég óvjon minket. :U
    Elmondom neked, hogy miért csinálják ezt a sugárkövetést a gyártók. Az AMD-nek és az NV-nek is ugyanaz a koncepció mögötte. Mindegy, hogy DXR, vagy Vulkan-féle GPUOpen, vagy egy esetleges Vulkan szabvány, a probléma az, hogy a PC-s GPU-kat a jövőben nem igazán lehet úgy skálázni, hogy ne növekedjen meg a multiprocesszor:raszter arány. Viszont ahogy távolodsz a konzolok arányától, ami amúgy 8:1 körüli, úgy lesz egyre több idle lyukad az architektúrában. Tehát tök jó, hogy megvan a GPU-ban az ALU, csak a shadereket nem olyan multiprocesszor:raszterre optimalizálták, amilyen az új, erősebb GPU-ké. Viszont a sugárkövetés egy marhára függetleníthető folyamat a raszterizációtól, vagyis meg tudod azt csinálni, hogy ezt felhasználod az idle lyukak betömésére az aszinkron compute segítségével. Ettől még mondjuk egy újabb, mondjuk 16:1-es arányú GPU nem lesz jobb grafikára, de van egy rakás szabad ALU kapacitása sugárkövetést számolni. :D Nagyjából ennyi a koncepció mögötte.

    Egyébként ez a sugárkövetéses dolog nem rossz, csak lesznek majd olyan árnyoldalai, hogy ha nem lesz meg a teljesítmény, akkor maga a sugárkövetéses rész a programon belül túl egyszerű, hogy bármit is elvegyél belőle, emellett a 32 bites lebegőpontos formátum eléggé zabálja a memóriát is (értem a 16 bit opció, csak aki látott már ilyet, az tudja, hogy nem éppen reális), miközben van erre sokkal jobb formátum is, ami pont nem támogatott. Tehát iszonyatosan kell majd a memória, ami miatt félő, hogy kisebb textúrarészletességet szállít a fejlesztő, vagy rosszabb minőségű modelleket, mert azzal a sugárkövetés memóriaigényét is levágja. Vagyis összességében többet vesznek majd el a raszterizálás minőségéből, mint amennyit a sugárkövetés egyáltalán hozzá tud tenni az egészhez. Nézd meg a Metro Exodust sugárkövetéses trailerét.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33873 üzenetére

    Neked, aki nem hallott róla, de a Vulkanra való átállásnál problémába ütköztek abból a szempontból, hogy nem voltak jó profilozók, emellett az NV Vulkan drivere sem volt életbiztosítás 2016-ban, amikor a munkálatok kezdődtek. Erről itt is olvashatsz bővebben: [link]
    Még az id Software is küzdött ezzel, nem véletlen, hogy a Doom Vulkan frissítése több memóriát kért a működéshez GeForce-on. Az early Vulkan adoptereknek egyszerűen nem volt más választásuk, mint Radeonra váltani. Ma már szerencsére sokkal jobb a helyzet, csak mivel korábban már berendezkedtek a Vulkanra, értelmetlen visszacsinálni mindent, főleg úgy, hogy 2017-ben hozott az AMD egy nyomkövetős profilozót, amit idén integráltak is a RenderDoc-ba. Egyszerűen sokkal jobb a fejlesztői környezet, amit kínálnak. A többiek nagyon lassan léptek, és ezt az időbeli a lemaradást hordozzák. Bár az Intel drivere veszettül jó lett idénre, ez azért nagyon pozitívum a számukra.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33870 üzenetére

    Már egy éve lehet tudni, hogy az Epic lecserélte a gépparkot AMD-re, de ettől ez nem akadályozza meg, hogy NV-vel is mérjenek. Az AMD-vel kötött szerződésük biztosan nem zárja ezt ki. Azt persze el tudom képzelni, hogy a Vulkan kód még nem végleges, így csak az AMD-re van optimalizálva, és később veszik elő az NV-t és az Intelt. Ebben az esetben érthető, hogy miért nem közölte Vulkan eredményt a többi gyártóról.

    Egy szálra kényszerítve mértek, ott pedig nincs nagy különbség a DX11-es driverek között.

  • Abu85

    HÁZIGAZDA

    Unreal Engine 4 update a Vulkan leképező állapotáról. [link]

    Rolando Caloca (ő írja a Vulkan leképezőt) szerint a uniform buffer stratégiájukkal verik a DX11-et egy szálon is:
    "Infiltrator Editor
    D3D11: 46.83ms / 21.28fps
    Vulkan: 36.75ms / 28.15fps
    Infiltrator Demo, wide city view
    D3D11: 30.36ms / 29.79fps
    Vulkan: 13.62ms / 38.08fps"
    (Úgy látom egyelőre csak AMD-s eredmények vannak.)

  • Abu85

    HÁZIGAZDA

    válasz Dandris #33847 üzenetére

    A Hynix a beszállító. Velük van szerződése az NV-nek. A HBM2-t is tőlük veszik. A Hynix leplezte le amúgy az új sorozatot, még amikor bejelentették a GDDR6-ot. Elárulták, hogy az egyik GPU-gyártóval már exkluzív szerződésük van egy 384 bites memóriabuszú VGA-ra. Az, hogy a Samsung hogyan áll irreleváns. Ezekből a szerződésekből nem egyszerű kibújni, maximum büntetéssel, de nem valószínű, hogy a teljesítmény számít, mert a Hynix lehet, hogy ki tudja őket szolgálni, míg a Samsung lehet, hogy nem. Mint írtam korábban a tömeggyártás nem azt jelenti, hogy sokat gyártanak, hanem azt, hogy a gyártósor véglegesítve van. Attól még gyárthatnak 10-et vagy egymilliót is. Mindkettőt tömeggyártásnak értelmezik.

    A TSMC 7 nm-es node-ja is tömeggyártás szintjén érhető el. Mégsem gyárt még senki 7 nm-es lapkát tömeges szinten. Egyszerűen csak annyi van, hogy a gyártósor végleges, készen áll a tömegtermelésre, de a megfelelő mennyiséget fizikailag is ki kell építeni, azt pedig a gyártók akkor teszik meg, ha van is igény.

  • Abu85

    HÁZIGAZDA

    válasz Dandris #33842 üzenetére

    Ne csak országosan gondolkozz, hanem globálisan. ;)

    A kísérleti gyártás fázisában egyébként nem ritka ez a jelenség. A gyártósorokat addig nem kezdik építeni, amíg nem véglegesítik azt. Ugye sokkal drágább lenne egy csomó gyártósort módosítani, mint megvárni a specifikálást, majd arra építve felhúzni a szükséges mennyiséget. A következőképpen zajlik ez. Lesz egy szűk számú gyártósor, ahol megy a kísérleti gyártás, majd onnan egyszer lesz egy véglegesítés. Innentől számít a tömeggyártás, még akkor is, ha baromira kevés a gyártósor. Ezután a leadott rendeléstől függően építik ki a többi gyártósort. Ezzel úgy 3-4 hónapos idő megy el a gyártást is beszámítva, és ekkorra lesz elég lapka. Ezt sehol senki nem tudja gyorsabban, mert ennyi időbe telik a bevezetés. Maximum arról dönthet a megrendelő, hogy piacra dobja-e a terméket korlátozott mennyiségű ellátással.

  • Abu85

    HÁZIGAZDA

    válasz Dandris #33837 üzenetére

    Mint írtam a kísérleti gyártás során kezdték el árulni. Őszre csak a szükséges mennyiségű készlet jött belőle, mert több GDDR5X-et gyártott a Micron.

    A Cannon Lake-et is lehet már vásárolni, de olyan limitált a készlet, hogy alig épít rá valaki terméket. Azt hiszem, hogy az Intel az egyetlen, de ebben nem vagyok biztos. Az, hogy valamit elkezdesz árulni, az nem jelenti, hogy az igényeket is ki tudod szolgálni a készlettel.

  • Abu85

    HÁZIGAZDA

    válasz Dandris #33835 üzenetére

    Nem volt az nagy jóslat. Az NV akkor kezdte el forgalmazni a GTX 1080-at, amikor a Micron még kísérleti gyártásban volt a GDDR5X-szel. Természetes volt, hogy őszre megnőtt a gyártott mennyiség száma, hiszen a gyártósor véglegesítése után jóval többet üzemelnek be, mint amennyit használtak a kísérleti gyártásban.

    A GDDR6-tal sincs ilyen szempontból probléma. A Hynix a kísérleti gyártás fázisát viszi, és valószínűleg a nyárra a gyártósort véglegesítik is. A probléma sokkal inkább az, hogy GDDR6-ból nem fognak annál több gyártósort építeni, mint amennyiben megegyeztek a megrendelőkkel. Nagyobb az esély arra, hogy a legtöbb partner nem ilyen memóriát választ. És itt jön elő a kartelezés problémája, ugyanis a teljes gyártókapacitás szűkös, köszönhetően annak, hogy nem követték a memóriagyártók a piaci igényeket, így pedig nem is készültek fel arra, hogy optimálisan kiszolgáljanak mindenkit. Ez a fő oka annak, amiért az NV folyamatosan hozza azokat a VGA-kat, amelyekről spórolják le a GDDR5 lapkákat. Nincs elég, a lapkából már elég sok van, a GP104 hegyekben áll, de nem tudják eladni őket memória nélkül. Ott próbálnak GDDR5 lapkákat nyerni, hogy a legnagyobb felvásárlóknak butított termékeket szállítanak most. Négy butított GTX 1050-en megspórolnak négy GDDR5 lapkát, ami plusz egy GTX 1050 a retail piacra.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33798 üzenetére

    Nem. Nincs különösebb baj a memóriával, a gond az, hogy iszonyatosan hiány van a többi memóriából, és a memóriagyártók nem a GDDR6-ot tartják prioritásnak, amikor a többi megrendelést is ki kell szolgálni. Szóval rendkívül torz most a piaci megjelenés ilyen szempontból. Még ha kész is az első ilyen hardver, akkor sem éri meg kiadni, annyira kevés a memória hozzá, ez pedig még az árat is felnyomja.

  • Abu85

    HÁZIGAZDA

    válasz Loha #33796 üzenetére

    Mit teszel rá? A GDDR5 rendkívül sokat fogyaszt, a GDDR6 pedig túl drága.

    Az Xbox One a textúrákat a host visible flaggel ellátott memóriában tárolja. A GPU egyszerűen csak kiolvassa és kész. Az adat egyébként nem csak textúra, hanem rengeteg puffer is. Ez a probléma a PC-vel, hogy oda streamelni kell a textúrát is a host visible memóriából, és ezen a ponton vesztesz el egy rakás hatékonyságot, mert nincs szükséged arra a rakás allokációra, hanem azokból kell az allokációk egy része. De nem tudod csak úgy ezeket beolvasni, így pedig másolgatni kell a teljes allokációt. Effektíve költesz rá ~8 GB-nyi memóriát, miközben a valóban fontos adat igazából ebből ~3 GB csak, de nem tudod elérni, hogy csak ezt másolja be a hardver, muszáj hozni a szükségtelen adatokat is.

  • Abu85

    HÁZIGAZDA

    válasz Loha #33794 üzenetére

    32 GB-nyi HBM2 jelenleg 400 dollárba kerül minimum. Emellett ehhez 4096 bites busz kell. Mit csinálsz mondjuk egy középkategóriás VGA-n, amire elég az 1024 bites busz? Oda reálisan egy ~40 dolláros 4 GB-os stack az ideális.

    Ha jól megírják a programokat, akkor 4 GB is bőven elég lenne, de a legtöbb fejlesztő, csak bevágja a DX12 RSL-t, vagy a Vulkan VMA-t. Ezek megfelelő háttérmunka nélkül csak működnek, de borzasztóan pazarolnak. Szóval messze nem az a baj, hogy nem lehetne megírni jól a programokat, hanem az, hogy nem írják meg. Félelmetes az, hogy a Rise of the Tomb Raider Xbox One X-en 1,2 GB-tal elvan. Ennyi device_local flaggel ellátott memóriát használ GPU. PC-n ugyanez 5-6 GB közötti. Eközben ugyanazt éri el, csak nagyságrendekkel szarabb az allokációk kezelése.

    A HBM már csak a GDDR5-nél drágább. A GDDR5X-nél és a GDDR6-nál már olcsóbb. Jóval kevesebb lapka kell a megfelelő sávszél eléréséhez.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33792 üzenetére

    Ez véleményes. Kérdés, hogy a Titan V-t hova számolod. Elvégre lehet rajta játszani.

    A HBM-mel egyébként az a problémája az NV-nek, hogy kevés memória építhető a GPU mellé. Nekik nincs HBCC-jük, hogy ezt a problémát csak egy driverbe épített csúszkával kezeljék. Fizikailag kell a memória, és a GDDR6-ből így több használható. Ez a HBM-nek az összes előnyét felülírja a nézőpontjukból.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33786 üzenetére

    GPGPU felé azért mennek most, mert az mindenkinél van. Tehát ha írnak egy GPGPU-culling megoldást, akkor az kompatibilis az összes konzoltól kezdve, az összes compute shadert támogató GPU-n át, az összes compute shadert támogató IGP-ig. Egy irtó univerzális megoldás multiplatform szinten, még akkor is, ha van nála jobb. Emellett fejleszthető is. Egyszer megírod, és a "hovatovábbal" ráérsz majd két év múlva foglalkozni. Addig optimalizálod, beépíted a subgroup/wave intrinsics függvényeket, kihelyezed asszinkron computera. És ezektől még a módszer univerzális jellege megmarad.

    Ha nem egyezik meg a piac, és mindenki lezárja magát a saját linkjére, akkor eleve megszűnik a gyártók keverése. Nem is tudsz majd VGA-t venni. Megkapod a GPU-t a CPU-val közös tokozásban. Az meg tökmindegy, hogy háromféle link van. A program oldaláról ezzel nem kell különösebben foglalkozni. A leglassabb sebessége is messze több, mint amire ma képes a PCI Express, de még a készülő 5.0-t is felülmúlja, és akkor ezek is gyorsulnak a jövőben.

    Oké most ez teoretikus lesz. Tehát amerre megy a Microsoft, és amilyen jól működik a texel shading, én egyáltalán nem tartom kizártnak, hogy a PCI Express és a gyártók külön linkjei jól el lesznek egymás mellett. Legalább az asztali szinten. Mobilban nem, ott túl kicsi a hely, de asztalon simán meg lehet csinálni azt, hogy veszel egy Intel vagy AMD procit, ahhoz jár ugye a GPU a tokozáson, és az már egy komplett rendszer. De teszem azt egy texel shading leképezőt használó játéknál az árnyalási fázis függetleníthető a raszterizálástól, tehát azt szépen szétszedi a program, és a fő GPU-d marad a tokozásban, míg az árnyalásra befogsz egy VGA-t a PCI Express porton, de akár befoghatsz 20-at is. Maga a texel shading marha jól skálázódik. Ugyanígy a sugárkövetés. Az is egy nagyon jól függetleníthető feladat. Nem kell azt azon a GPU-n elvégezni, ami éppen a képet rakja ki a kijelzőre, és ennek a skálázódása is igen baráti. És itt lehet igazából keverni a gyártókat is. Láthatod az AotS-t, az is támogat multi-GPU-t AMD+NV rendszeren, tehát technikailag ennek nincs akadálya. Az más kérdés, hogy üzletpolitikailag x gyártó mondhatja azt, hogy az én piacomon y gyártó nem szívesen látott szereplő. De tényleg, a szoftver oldaláról sok dolgot lehet csinálni, még akár nem is jelent ez jelentős többletmunkát.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33781 üzenetére

    De belehet, csak ott kellene alkalmazni valamilyen heterogén több GPU-s menedzsmentet. És ott nincs mihez kezdeni a rendszerrel, ahol nincs IGP, vagy le van tiltva.

    A primitive shadert még be sem építették egy API-ba sem. Annak egy igen leegyszerűsített modelljét alkalmazza például az id tech 6.5. Az se rossz egyébként, alapvetően a primitive shaderrel használható pipeline a culling szempontjából nem tud sokkal többet, mint az id tech 6.5-nél az a modell, hogy az input assembler után rögtön jön egy compute shader lépcső még mielőtt egy csomó nem látható geometria eljutna a vertex shaderbe vagy ezen túlra. A primitive shader elegánsabban kezeli a problémát. Nem kell csúnya compute kódokat írni a működéshez.

    (#33782) Loha: Ha elkezdenék butítani a játékmenetet, akkor több munka lenne az egész játék áttervezésével, mintha eleve úgy dolgoznák ki az egészet, hogy minden platform leggyengébb pontjaihoz igazítsák a dizájnt.

    (#33783) Raymond: Költői volt a kérdés. Nyilván tudja mindenki, hogy nem igazán fér bele a szűkös időkeretbe a CPU-GPU-CPU-GPU round-trip.

  • Abu85

    HÁZIGAZDA

    válasz Loha #33779 üzenetére

    És hogyan adsz ki egy olyan multiplatform játékot PC-n, ami mondjuk alkalmaz a PS4-en visszaírást a CPU memóriájába? Meg sem fog mozdulni. Nem elég gyors az összeköttetés, hogy működjön. PS4-en persze működni fog, de akkor már nem multiplatform játékról van szó. Szóval PS4-en is csak az exkluzív játékok mennek el addig, hogy erősen terheljék a CPU és az IGP összeköttetését, illetve hogy használják a megosztott memóriát.

    Azt értsd meg, hogy minden gyártó megcsinálta a maga kis memóriakoherens és egyben igen gyors összeköttetését. Az Intel az UPI-t, az AMD a GMI-t, az NV az NVLinket. Nem azért, mert volt egy rakás felesleges mérnöki kapacitásuk, hanem mert kellett.

  • Abu85

    HÁZIGAZDA

    válasz Loha #33774 üzenetére

    CPU visszaírásra. Számos olyan technika van ma, ami nem azért alakult ki, mert ez a jó, hanem azért, mert szűk a CPU és a GPU közötti kapcsolat. Például a GPGPU-culling nem azért terjed a Frostbite, az id tech, a Dunia, stb. motorokban, mert annyira szuper minden kivágási munkát a GPU-ra rátolni. Bizonyos feladatok jobban illenek a CPU-ra, de hiába gyorsabb ezekben, ha közben a pipeline egyirányú, tehát a visszaírást mindenképpen el kell felejteni. Ebben az esetben az dönt, hogy összességében mi a gyorsabb. Ha egy adott feladatban mindent a CPU csinál, vagy ha mindent a GPU. Az teljesen mindegy, hogy a hibrid modell sokkal jobb lenne, mert kevés hozzá a PCI Express. A GPGPU-s irányokkal sem lépünk igazán előre, csak nem a bal kezünket harapdáljuk, hanem a jobbat. Utóbbi pedig picit jobb, van aszinkron compute lehetőség, tehát ez még fejleszthető. De következő körben már tényleg nincs hova lépni. Muszáj magát az alapproblémát kezelni, vagyis a szűkös buszt. És ezen a primitive shader sem igazán segít. Az is csak egy 2000-es években kialakított rendszert cserél jóval modernebbre, nyersz vele maximum egy-két évet, de nem fogja önmaga megoldani a szűk busz problémáját.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33769 üzenetére

    Nem pont a VGA a limit. Leginkább az API. Volt régebben egy előadás, hogy a DX12 és a Vulkan API-val igencsak taccsra lehet vágni a PCI Express 3.0 x16-ot is. Egyszerűen a legacy API-kban máshol voltak a hardveres korlátok, és sok dolog nem jött elő, amelyek az új API-kkal problémásak. És nem kell ehhez szupergyors VGA. Szóval valóban, amit most látunk az leginkább egy kényszerű tényező. Azért nem érezzük a PCI Express-t limitnek, mert a programok úgy vannak elkészítve, illetve effektíve butítva, hogy ne legyen limit, mivel a user nem tud vele mit kezdeni.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33756 üzenetére

    Mert a 16 GB/s már borzalmasan kevés. A 32 GB/s csak szimplán kevés lesz, mire megjelenik. Önmagában ezzel, hogy fejlődik nincs baj, de egyrészt nagyon lassan, és gyakorlatilag csak a teljesítmény növelése a fő cél, holott azért ma már a memóriakoherencia is eléggé fontos lenne.

    Én azért remélem, hogy nem tűnik el, mert ha a Microsoftnak bejön ez a Ray-tracing vonal, akkor azt nagyon jól ki lehet helyezni ám külön GPU-kra. Effektíve ilyenkor a Ray-tracing effekt bekapcsolásáért veszel még két GPU-t és kész, mellette meg lehet ott a fő GPU a CPU mellett.

    Még lehet itt leképező szintű változás is. Ha mondjuk áttérünk texel shadingre, akkor az is iszonyatosan kedvezne a több GPU-nak, és akkor a PCI Express jó szolgálatot tehetne, hiszen a shading fázisok jól elkülöníthetők lennének.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33752 üzenetére

    Nem tudod a PC-t úgy fejleszteni, hogy a CPU-k 10+ maggal rendelkeznek, a GPU-k 10+ TFLOPS-osak, a memóriák elérése a CPU oldaláról 80, míg a GPU oldaláról 500 GB/s is lehet, és eközben a PCI Expressen keresztül egy nem memóriakoherens kapcsolat érvényesül 16 GB/s-mal. Még a PCI Express 4.0 32 GB/s-ja is kevés lesz. Ahhoz, hogy értékelhető mértékben gyorsíts mindenképpen radikális lépés kell. Egy memóriakoherens, legalább 100 GB/s-os kapcsolat. Az már nem feltétlenül szükséges, hogy a GPU beköltözzön a CPU mellé. Ez csak abból keletkezik, hogy az Intel, az AMD és az NV nem tud megegyezni egy memóriakoherens és nagyon gyors szabványról.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #33750 üzenetére

    Jelen állás szerint az NV legjobb esetben is PCI Expressen ragad. NVLinket biztos nem fog beépíteni az Intel és az AMD.

    Amúgy én többször mondtam már. CCIX, de akár jó a GenZ is. Ezek elég jók ahhoz, hogy a PCI Express mehessen és mindkettő szabványosítható.

  • Abu85

    HÁZIGAZDA

    válasz cyberkind #33748 üzenetére

    Én abszolút emellett állok, de előbb azért meg kellene egyezni, hogy mi legyen helyette. Az nem jó, hogy az Intel UPI-t akar, míg az AMD GMI-t. Persze az Intel GPU tudja támogatni az UPI-t, az AMD GPU a GMI-t, de mi van a keveréssel? Egy GMI-s GPU nem működik UPI-s procival és fordítva.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33746 üzenetére

    Igazából arrafelé tart.

    Ez valóban elkészült prototípus szinten. Most azt csinálják, hogy elkészüljön kiadható termékként. Előbb szerver, majd asztali és mobil vonalra. Az Intel dettó ugyanilyenen dolgozik. Nem a Kaby Lake-G-vel, hanem a saját lapkáival. A Kaby Lake-G csak egy kényszertermék.

    Szóval az Intel és az AMD hosszabb távú tervei nem változtak. Szépen a tokozásba egy-két erős CPU, majd egy erős GPU, és viszlát PCI Express. Ha tetszik, ha nem ez lesz. A Windows 10 1803 is tartalmaz olyan kísérleti funkciókat, ami ilyen hardvert igényel. Például a Tiled Resources TIER_4.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33729 üzenetére

    Nem teljesen. Inkább a Windows aktuális HDR pipeline-jának "mellékterméke", ami bizonyos hardver összeállításokat jobban érint, míg más konfigurációkat kevésbé. Amint betöltesz egy olyan tartalmat, ami gyakorlatilag letiltja a szoftver oldalról nem kezelhető tényezőket, a jelenség teljesen megszűnik. Az más kérdés, hogy ehhez olyan hardverek is kellenek, amivel ez az egész kikerülhető a játékok alól.
    Amelyik gyártó HDR implementációja a Windows pipeline-ját használja az érintett lehet ettől a problémától, akár súlyos formában is, és ezt nem lehet kívülről, egy hardvercserével kezelni. A Microsoft talán tudna tenni valamit, de ahhoz is új pipeline kell, és ugyanúgy a rengeteg eltérő hardver miatt nem kizárt, hogy az meg más problémás jelenségeket hoz elő. Egyedül a FreeSync 2 kerüli meg a Microsoft saját rendszerét, így az ebben lévő úgymond mellékhatásokra nem érzékeny. De ezzel az a baj, hogy nem szabványos, tehát te például el sem tudod érni. De mivel nagyon korlátozott a hardveres támogatás, így arra a korlátozott hardvere jól meg lehet csinálni, azzal a pár szoftverrel, ami támogatja is.

    Ezek azok a dolgok, ami miatt az iparág elkezdte vizsgálni azt, hogy a rendszer esetleg beolvashatná a kijelző paramétereit, és ezt figyelembe véve állíthatná elő a HDR-t is. Gyakorlatilag ez így egy szabványosított FreeSync 2 lenne, ami működne mindenen, mármint minden új kijelzőn, mert az aktuálisaknak mindegy.

    Végeredményben ez a jelenség már egy éve létezik: [link] - Nem igazán bugról van szó, nem lehet csak úgy fixálni. Új pipeline-t kell tervezni, de leginkább el kellene érni, hogy az alap HDR is úgy működjön, ahogy a FreeSync 2. Szépen össze kell ülnie az iparágnak (szoftver, GPU, kijelzőgyártó) alkotni egy tényleges szabványt a FreeSync 2 mintájára.

  • Abu85

    HÁZIGAZDA

    válasz #00137984 #33727 üzenetére

    Ugyanazok csinálták a HDR-t az Originshez, mint a FC5-höz. Csak az Originshez még nem csináltak közvetlen tone mapping számítást. De ahogy írtam fentebb, ez csak pár konfiguráción aktiválódik.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33724 üzenetére

    Nem bugos. A probléma az, hogy az aktuális HDR szabványokat nem játékokra tervezték. Meg lehet csinálni, de mindegyik szabványos pipeline csinál egy extra tone mapping lépcsőt azután, hogy a PC-ről elküldte a program a képet a kijelzőre. Az a kép akkor igazán jó, ha a kijelző képességeiről az adott játék információt kap, és abból az információból kiindulva csinálja a tone mappingot, majd az így keletkező képet küldi el, amit a kijelző lehetőség szerint már nem módosít egy extra tone mapping lépcsővel. Effektíve így működik a Samsungnak a három HDR kijelzője, amit a játékosoknak szánnak, de ezeken kívül semmi más nem támogatja ezt a formát, vagyis a HDR a játékokban az említett kijelzőkön kívül minőségtorzító hatásban részesül. Egyszerűen a HDR10 és Dolby Vision nem alkalmas arra, hogy a játékokba tegyen jó minőségű HDR-t. Ezért is dolgozik a háttérben az ipar egy olyan gaming kiegészítésen, amelyek szabványosan is megoldják a kijelző adatainak beolvasását, és ebből a közvetlen tone mappingot, csak ez még évek kérdése ugye, mert szabványosítani kell.
    A Samsung alapvetően egy nem szabványos megoldást használ, a FreeSync 2-t, amit a PC-n csak az újabb Radeonok, míg a konzolpiacon az Xbox One S és X támogat. Mivel ez nem szabvány így könnyű építeni rá támogatást, csak magát az alapproblémát egy nagyon szűk részterületen oldod meg vele. És ez is játékokra van bontva, például a Far Cry 5 ezt a formát már támogatja, de ha nincs Samsung FreeSync 2 Gaming monitorod és újabb Radeonod, akkor a Microsoft szabványos HDR pipeline-ját használja a program, aminek a minősége sokkal rosszabb. Az Xbox One S és X is hiába támogatja, konzolon a Far Cry 5 nem tudja használni a FreeSync 2-t.
    Szóval nem bugos a dolog, nagyon korlátozott hardverek használata mellett működik, de általánosan a szabványos pipeline-ok nem játékokra vannak kitalálva, és ha ilyen HDR-t használsz, akkor nyilván nem lesz jó eredmény a kijelzőn, maga az extra tone mapping fázis lehetetleníti el ezt. És ez egy full szoftveres probléma, hardverből nem oldható meg.

  • Abu85

    HÁZIGAZDA

    válasz Televan74 #33721 üzenetére

    Igen, csak a 4K-s HDR tévék nem a játékokhoz készültek. A tipikus HDR10/Dolby Vision pipeline nem veszi figyelembe, hogy a játékok esetében csak árt a utófeldolgozásnál a tone mapping. A játékba bekérhető az adott kijelző specifikációja, és annak megfelelő tartalmat lehet rá számolni, amivel kiüthető az utólagos tone mapping is. Ezzel lényegesen kisebb lesz a megjelenítés késleltetése, illetve a képminőség is jobb lesz. A normál tévék ezt a módot nem támogatják, mert nem a játékosoknak készültek.
    Ez egyébként szerencsére szabványosítás alatt van, tehát később lesznek HDR Gaming kiegészítések, de ez még évek kérdése. Addig a Samsung által alkalmazott módszer az egyetlen megoldás. Mondjuk jó hír, hogy az Xbox One S és X is támogatja, tehát a jövőben akár a tévékben is megjelenhet.

  • Abu85

    HÁZIGAZDA

    válasz Televan74 #33719 üzenetére

    Nem. Az újabb panelek már nem Full HD-sek. De van C27HG70, ami WQHD-s és HDR-es. Viszont még ez is majdnem 200 rongy, ugyanakkor nagy előnye, hogy támogatja a játék által számolt tone mapping megjelenítését, míg a legtöbb HDR-es kijelző nem igazán a játékosoknak készült, így a szabványos HDR futószalagot használják, ami extra tone mappinggal jár.

  • Abu85

    HÁZIGAZDA

    válasz Pipó #33716 üzenetére

    Ezernyi oka lehet. Például a tévépiac VRR választása. A Samsung a HDMI-s FreeSync-et és a HDMI VRR-t, míg sokan az utóbbit választották. Mindkettőt csak Radeonnal lehet jelenleg használni. Az AMD-n kívül más gyártó vagy nem kínál támogatást, vagy nem is jelentették be azt.

    A nemsokára még azért elég messze van, és nagyon sok régi VGA is megmarad a mostani palettából. A memóriagyártók annyira szétkartellezték magukat, hogy borzalmasan kevés az új szabványokhoz való memória. És nyilván nem a telefongyártók fogják ennek meginni a levét, hanem az olyan piacok, amelyek a memóriagyártóknak nem különösebben számítanak. Például a VGA-k.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #33712 üzenetére

    Nem teljesen. Ez úgy van, hogy itt igazából sok gyártó nincs, maximum sok dobozoló. :)
    Az egyes gyártók vásárolnak maguknak jogot, hogy mely piacokra lehet a termékeiket elvinni. Ebből a szempontból például az ASRock és a Colorful, de még a Sapphire és a Zotac igényei is lényegtelenek, mert nem ők gyártják magát a terméket. Egyszerűen ezt megkapják a partnerüktől. A Sapphire és a Zotac a PC Partnertől, az ASRock és a Colorful pedig egy kimondhatatlan nevű (nem tudom a latin betűs jelzést) kínai üzemből. Na most ezek a valós gyártók szereznek jogot az egyes piacok ellátására az AMD-től és az NV-től. Az ASRock és a Colorful azért nincs itt, mert magának az ellátónak nincs joga nyugatra gyártani. Ha mondjuk ez a két cég mondjuk a TUL-lal vagy a Foxconnal gyártatna, akkor jöhetnének Európába, mert a Foxconn rendelkezik ilyen jogokkal. Azt egyébként nem tiltja senki, hogy az a kínai gyártó, aki az ASRocknak és a Colorfulnak gyárt, ne döntsön úgy, hogy szerez jogot a nyugati piac ellátására is. Nincs probléma belőle, ez egész csak pénz kérdése. Viszont maga a gyártó eziránt nem érdeklődik (nyilván az EU-ba eltérő minősítéseket kell szerezni, mint Kínába). Innentől kezdve az ASRock és a Colorful keze is meg van kötve, amíg nem mennek át egy olyan gyártóhoz, amelynek van joga ellátni a nyugati piacokat. Hiába kérik az AMD-t és az NV-t erre, ők a minősítések hiányában nem adhatnak engedélyt nekik. De ha ez megvan, akkor természetesen az AMD és az NV engedélyezi a szállítást ide is, innentől kezdve a dobozolás során már csak a megfelelő dobozokat és leírást kell biztosítani. Nyilván a nyugati piacnak angol/német/francia/stb. nyelvű leírások kellenek.
    A másik lehetőség a szürkepiac. Ez már egy érdekesebb kérdés, mert ilyenkor gyakorlatilag EU-s engedélyek nélküli terméket hoznak be ide. Ez nem teljesen legális, de végeredményben mire valamiről kiderül, hogy az engedélyek nélkül nem forgalmazható, addigra a legtöbb bolt már eladta a készletet, tehát maga a piac ebből megél.

    Egyébként ha valaki AMD Radeont akar építeni szerintem leginkább a TUL-t érdemes megkérni rá. Sokkal drágább, mint a többi gyártópartner, de a gyártósoruk olyan, hogy minden piacra tudnak engedélyt kiállítani. A PC Partner se rossz, de ők igazából a saját leányvállalataikat szolgálják ki elsődlegesen, míg mondjuk a TUL egy OEM beszállító is, tehát effektíve mindenkit ugyanolyan szinten kezelnek, annak ellenére, hogy nekik is van saját márkájuk PowerColor névvel. Az NV-nél a Palit hasonló gyártó, mint az AMD-nél TUL, ők is tudnak mindenhova engedélyt kiállítani. Ők még relatíve olcsók is.

    Azt egyébként el tudom képzelni, hogy az ASRock esetében a partnert is az AMD intézte, és gyakorlatilag direkt olyan gyártót választottak, akik csak Kínát célozzák. Ebben az esetben nyilván már előre tudható volt, hogy máshova nem is jönnek az ASRock VGA-i. Az persze nagyon meglepő lenne, hogy erről az ASRock esetleg nem tudott.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33684 üzenetére

    Vagy azt, hogy a Valve megint úgy döntött, hogy önhatalmúlag kivesz egy nagyobb mintát, mert azzal szerintük jót csinálnak. :C

    ---

    (#33686) Raymond: "plusz ebben a honapban a Valve is tekert a Kinai internet cafe-k szamolasan"

    Ez csodálatos. Igazi reprezentatív mérés. Ha nem tetszik az eredmény, akkor tekerünk rajta. :C

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33676 üzenetére

    Nem véletlen. Az id (Bethesda) abban az időben tapasztalt szakembereket keresett. Szinte minden stúdiótól csábítottak el erőforrást. Valahonnan sokat. Innentől kezdve ez már piacgazdaság, ahol nagyobb a fizu oda megy a programozó. A Zenimaxnak megéri, mert befektet a tudásba, amivel később lesz egy jól használható motor minden stúdiója számára. A Cryteket is leszívták korábban.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33672 üzenetére

    Megkérdezném, de már nincs kit. Mind a négy ember elment onnan, akikhez van/volt elérhetőségem. 2015-2016-ban nagyon sokan leléceltek az id software-hez (páran a Sony-hoz). Ez már nem ugyanaz a Nixxes, mint két-három éve volt, újak az emberek.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33670 üzenetére

    Jobban tudják, mint mi. :))

    De nem nehéz összerakni a részleteket. A Rise-t a Nixxes bejelentette, hogy csinálja, aztán mégse került fel referenciának, aztán lett egy DX12-es mód, ami pár effektet nem tartalmazott, amiről kiderült, hogy a Nixxes csinálta. Tehát van kétféle API, olyan különbséggel, hogy konkrétan effektek is hiányoznak. Aztán soha az életben nem hozták szóba bejelentésben a PC-s portot, megismétlem, referenciaként sem került ki a Nixxes oldalára, holott a RotTR Xbox One X, 360 és PS4 portjuk ott van. Csak a PC-s portot hagyták le. Vajon mi történhetett? Minden rendben a terven szerint lezajlott? Ha igen, miért nem rakták ki referenciának, mint a másik három portot? Nem lehet, hogy kivételesen tényleg jobban tudja egy "külsős", hogy volt probléma a háttérben? :) Felőlem egyébként elhihetjük, hogy hivatalosan minden rózsaszín volt, és aki közel volt a projekthez az hazudott róla, a Nixxes pedig azért nem rakta ki referenciának, mert ... nem tudom. :D

  • Abu85

    HÁZIGAZDA

    válasz FollowTheORI #33667 üzenetére

    Az AMD-nél a Bethesda és a CIG bejelentéseire várnak. Ezeknél a stúdióknál készülnek az idei fő projektek. Az egyik legfontosabb projekt most a Bethesda új IP-je, amiért tudtommal elég sokat fizettek. Hogy mire azt nem tudni. Pletykák vannak, hogy túlmegy majd a normál együttműködési formán az AMD és a Bethesda, és eléggé szoros lesz a kapcsolat üzletileg is. De tényleg csak tippelgetni lehet, hogy mit találtak ki.

    Azért a DX12-nél eléggé nehézkes a Square Enix nyugati részlegének a dolga. Eleve két különböző motorjuk van erre, és ezen belül is sokban eltérnek az implementációk. Technikailag a LABS részleg is csak a Dawnon dolgozik, ami a fejlesztések szempontjából hátrányos. A Crystal/Foundation Engine eléggé félre van rakva, ami látszik is az új Tomb Raider képein, gyakorlatilag ugyanaz, mint az előző rész.

    A legnagyobb hátrány egyébként a Microsoft piacpolitikája. Az rendben van, hogy a DX12 Windows 10 only, már mindenki elfogadta, de minden egyes újítás egy új frissítéshez kötött. Például a Redstone 4 egyik régóta igényelt képessége a 16 bites float megfelelő 16 bites alligmentálással, de ahhoz, hogy ezt kihasználják a programok minden gépre a Redstone 4 frissítés kell. A DirectX Raytracing még nincs is engedélyezve, majd csak a Redstone 5-ben jön, hacsak nem csúsztatják a Redstone 6-ig, mert eléggé sok fejlesztői igény gyűlt össze, amit nem biztos, hogy őszig feldolgoznak, és akkor a véglegesítést inkább görgetik fél évet. Viszont érdekes tényező, hogy különösen a játékosok várnak a frissítésekkel. Egyszerűen kikapcsolják a Windows 10 automatikus modulját, és egyszerűen nem engedik telepíteni a nagyobb update-eket. Ez borzasztóan hátráltatja az amúgy hasznos újítások terjedését. Erre ráadásul a DirectX Raytracing rárak még egy mázsás terhet, mivel érthetetlen okból minimum igényként fogalmazza meg a shader modell 6.0-t, vagyis ha egy ilyen alkalmazást Windows 10 Redstone 3 alatt is futtatni akar a fejlesztő, akkor szállítania kell minden shaderből egy DXIL és egy D3BC verziót. Ez elég durván megnöveli a tesztelési költséget, ami megint csak azt akadályozza, hogy egy újítás terjedjen. Nem is értem, hogy ezt a Microsoft hogyan gondolta. Elég lett volna csak a DirectCompute shaderekre kérni a shader modell 6.0-t, és akkor már egy rakás költséget spórolhatnának a fejlesztők. Persze értem én, a Microsoftnak elég nagy érdeke az, ha valaki pusztán az aránytalanul magas többletköltség miatt inkább el sem készíti a Windows 10 Redstone 3 alatt futó módját az adott játéknak. Ez még pár cég erejéig el is jászható, a kieső eladásokat megpróbálja kompenzálni az érdekelt. Például a Remedy esetén ez tuti opció, de így meg szart sem ér az egész, mert lesz pár kiválasztott cég, a többiek pedig messze elkerülik az újítást.

    A Vulkan esetében ez az egész sokkal jobb. Ahhoz, hogy meglegyen a legfrissebb Vulkan implementáció, csak egy meghajtót kell frissíteni, amit a játékosok sokkal sűrűbben engednek meg. Ráadásul minden magas szintű shader nyelvből ugyanúgy SPIR-V-t fordítasz, tehát egy kódot kell szállítani, és teljesen mindegy, hogy mit használsz az API-ból. Ez a kód pedig Windows 7-ig visszamenőleg futni fog. Szóval a Microsoft saját magát és a DX12-t használó fejlesztőket lövöldözi tökön folyamatosan. Nem véletlen, hogy egyre többen mennek inkább a Vulkan felé. Még ha a Linux nincs is tervben, akkor is nagyobb a célozható piac Windowson, miközben a tesztelési költségek nem nőnek igazán az egyes újítások bevezetésétől.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33665 üzenetére

    Csak referenciának nem tüntetik fel. Pedig ha valamit megcsinálsz, akkor azt megadod referenciádnak. Vagy esetleg nem te csináltad és ezért nincs ott a referenciáid között.

    Az a baj, hogy bejelentés történt csak a PC-s portról. Egy megjelenésnél jóval korábbi. Egy ilyen szűkös csapatnál, mint a Nixxes gyorsan megváltozhat a helyzet. Aztán a végén fel se teszik referenciának, mert a Crystal elvégezte helyettük magát a portolást.

    Nem félinformációk azok. Konkrétan beszélgettünk erről, hogy mi történt a háttérben, mert nyilván furcsa volt, hogy a DX12-es mód grafikailag kevesebb. Kevés volt az ember, a megjelenés közeledett, és a Crystal visszavette a munkát. A Nixxes megcsinálta a DX12 módot, és segítette a supportot, majd csináltak még egy multi-threading frissítést, de ezt csak pár hónappal később. Ezért voltak teljesítményproblémák az elején a játékkal.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33658 üzenetére

    Írtam, hogy sok külsőssel dolgoznak. Ezek szerződésesek. Csak egy adott projektre szól a szerződésük, amint megvan, szélnek lesznek eresztve. Stabilan csak kb. 20 fő a Nixxes, mert az év nagy részében a LABS munkáját segítik. Amikor van többletmunka, akkor jönnek a fix szerződéses emberek.

    Nem így mondták. Azt kérdeztem meg, hogy miért hiányzik pár effekt a DX12-ből, amikor a DX11-ben benne van. Erre az volt a válasz, hogy azért, mert a DX12-t a Nixxes csinálta. Hogy ebből mi jön le neked, azt rád bízom.

    A közös projekteket ki szokták tenni referenciának. Inkább azt lehetne mondani, hogy szerződéses projekt volt, amikor volt egy kis munka, amit meg kellett csinálniuk. Ennyi. Se több, se kevesebb.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33651 üzenetére

    Nem, csak a bejelentés korábban volt, mint a megjelenés. Nagyon kicsi a Nixxes, rengeteg külsősre építenek, és ha nincs elég erőforrás a munkához, akkor kedvezőbb, ha visszaadják a Crystal Dynamics-nek. Ezért nincs fent az elkészült projektek listáján a PC-s port. Az Xbox 360-ra fontosabb volt a Nixxes, mert nekik volt fejlesztőeszközük hozzá. Viszont amint elkészítették csináltak pár dolgot a PC-s portba, például a DX12-es mód. Ezért van az, hogy a DX11-es és a DX12-es mód között vannak olyan eltérések, hogy utóbbival nem aktiválható pár effekt. A Nixxesnek nem volt lehetősége ezeket betervezni, rengeteg többletmunka lett volna, így inkább kihagyták az egészet. Ha DX12-t is a Crystal Dynamics vállalta volna be, akkor nem lenne benne kevesebb effekt, de annyira szerencsétlenül alakult a fejlesztés, hogy a tervek azok buktak.

    A portolást elkészítheti más is, mint aki biztosítja utána a supportot. Erre a Nixxes akkor jó volt, amikor már ki lett adva a játék. Ettől a portot nem ők csinálták. Nem volt meg rá a kapacitásuk, nem is rakták ki az oldalukra referenciának.

    Sehol. Az NV-től tudom, hogy ők csinálták a DX12-es módot.

    A projekt oldaluk a referenciájuk. Amit ők csináltak, azt oda felrakják. A segítséget azért nem túl szerencsés, mert sok projektben aktívan besegítenek a LABS-nak is, de nem ők vezetik ezeket. Óriási különbség vezetni egy projektet, és csak besegíteni. Utóbbi esetben lényegében semmi közöd nincs hozzá, csak egyfajta szerződéses megrendelést teljesítesz.

    (#33649) Shing: Ez nem a büszkeségről szól. Amelyik projektejet vezették, tehát az övék, azokat megjelenítik.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33647 üzenetére

    [link]
    [link]
    [link]

    Ezeket a projekteket végezte a Nixxes. A Rise of the Tomb Raider PC-s portját maga a Crystal Dynamics csinálta. Az, hogy mit jelentenek be, és hogy végül mit csinálnak meg belőle, két különböző dolog. Nyilván annak is a függvénye, hogy milyen fontosabb munkákat kell elvégezni. A Nixxes nem egy nagy csapat, alig 20 fő, ők nem tudnak két portot csinálni egyszerre. Szóval a tervezés és a kivitelezés között óriási különbség lehet. Viszont a valóban elvégzett projectekjeiket visszamenőleg jelzik. Nem véletlenül nem írták be a PC-s portot, azt végül nem ők csinálták.

    A patch-ek más részre tartoznak. A DirectX 12-es módot a Nixxes csinálta meg. Ezért is van olyan óriási különbség a beállítható grafika között a DX11 és a DX12 esetében. Utóbbival ugye nem kompatibilisek bizonyos middleware-ek, mivel a Nixxesnek nem volt meg a hardveres háttere ezt tesztelni. Ezért úgy ahogy van ki is hagyták őket a DX12-ből.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #33644 üzenetére

    Nixxes Software-nek semmi köze nem volt a Rise of the Tomb Raider PC-s portjához. Az Xbox 360, a PS4 és az Xbox One X portot csinálták.

    Az elmúlt évekhez képest annyi változott, hogy az NV a stúdiók helyett címekre köt szerződést. Ez hozott elő olyan érdekességeket, hogy például a Division egy NV által támogatott cím volt, amit gyakorlatilag AMD hardveren fejlesztettek. A Nixxes sem fogja lecserélni a gépparkját, mert nekik ugye kell a kapcsolat a LABS csoporttal, akik csak Radeonra dolgoznak. De volt ez fordítva is, mert a The Turing Test NV hardveren készült, mégis AMD-s címe volt.
    Az a lényeg, hogy az NV feladta a klasszikus stúdiókba utazó koncepcióját, mert egyszerűen nem kell odatelepülniük, hogy a programot támogassák. Majd az utolsó héten odaadják a middleware-t és kész. Akár nulla odautazott emberrel le lehet hozni a címet. Az AMD-nek ugye más a beállítottsága. Ők kevésbé mobilisek, mert nem tudják megoldani azt, hogy az utolsó pillanatban szállítsanak egy middleware-t, ezért van náluk még a klasszikus, stúdiókba betelepülős modell. Amin persze nem is akarnak változtatni, mert ugye mindkét megoldásnak megvan a maga előnye és hátránya.
    A middleware abból a szempontból előny, hogy nem kell helyi ember, megadod mi kell a rendszerednek, milyen DRM-et használ, stb., majd aszerint lesz meg a kód, amibe a végén eljuttatod nekik a dll-eket. Ennek a hátránya, hogy ha nem működik vagy nem jól működik a végső kóddal a middleware, akkor az para, mert nincs idő a megjelenésig javítani.
    Az odatelepülős módszer ehhez képest eléggé drága, és ez a hátránya, mert konkrétan kell helyi szinten programozókat biztosítani, akik ott helyben megoldanak mindent. Az előnye, hogy abszolút integrált megoldásokat kínálnak mindenre, vagyis nem fenyeget az inkompatibilitás vagy a rossz teljesítmény veszélye.
    Ilyen formában egyébként ez a két rendszer abszolút megfér egymás mellett, mert amíg az adott stúdió köt az AMD-vel egy támogatási szerződést (fizetnek a szaktudásért, hardverekért, emberért stb.), addig bizonyos címekre lehet kötni az NV-vel egy együttműködési szerződést is. Ezért alakulnak ki mostanában ezek az átfedések. Még hasznos is, mert ha azt nézed, akkor az NV fizet valamennyi pénzt a reklámszerződésre, amiből az adott stúdió úgy egyben meg tudja venni az AMD szaktudását, mert azért ők sem adják ám ingyen az emberüket. És ez tényleg a kellemest a hasznossal effektus. Működik is. Ugyanezt csinálták a Middle-earth: Shadow of War esetében. Az eredmény nem lett rossz.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33629 üzenetére

    És ezt te is az egy évtizedes médiatapasztalatodra építed mint én ugye? :DDD

    Egyébként te tényleg elhiszed, hogy itt ez az egész média egy olyan szivárványpónis rózsaszín mesevilág, aminek külsőre látszik? Hogy nem történnek személyeket előnybe helyező döntések pusztán haveri alapon a hardverek kiosztásánál, vagy az utaztatásnál? Ha igen, akkor nagyon keveset láttál ebből a világból. ;) Persze értem én az egészet, nem sokan éltek benne tíz éve, és nyilván ezt belülről látni teljesen más, mint amit olvasóként lehet tapasztalni, de ettől még nem kell naivnak lenni.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33622 üzenetére

    Ez egyébként tök jó, nézel egy rakás oldalt, ami ezzel foglalkozik. Csak elértünk a probléma megtestesüléséhez. Hét médiát soroltál fel gondolom emlékezetből, és a Tech of Tomorrowt nem említetted.

    Az az érdekes a külföldi és a hazai viszonyok között, hogy külföldön piszok erős a verseny. Ott ha be akarsz indítani egy ilyet, akkor tényleg tudsz találni mögé támogatókat. Itthon ez nem realitás, maga a hirdetőpiac nem teszi azzá. Tehát amíg itthon egy olvasó azt látja, hogy van pár média bebetonozva a saját helyén, addig nyugatra egy új médiával akár két éven belül is meg lehet verni igen patinás szereplőket. Itthon ez elképzelhetetlen.

    És akkor még nem is beszéltem arról, hogy kint mi van a rózsaszín ködfátyol mögött. Ami finoman szólva is gusztustalan néha. Ezt nem szeretném megosztani, de érdemes megnézni az AdoreTV PC Perspective-ről szóló anyagát, sajnos tényleg ilyenek történnek.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33615 üzenetére

    Mert nem ebben a rendszerben vagy benne, csak egy külső szemlélőként látod az egészet, és senkiről sem hallasz semmilyen olyan információt, ami megrendíthetné a bizalmat vele szemben. Ellenben a gyártók kontaktjaival én szoktam beszélni, évente többször, akár személyesen is, és nem csak a kívül látható, rózsaszín, cuki pónikat szóró ködfátyolig ismerem ezeket a médiákat.

    (#33616) Raymond: Mint írtam a haveri alap számít, de amint megy a haver kontakt, onnantól kezdve jönnek a nyers számok.

    (#33618) MiklosSaS: A lab501 nem minden gyártónál tartozik a mi régiónkhoz. Az egész régiókra van osztva a gyártóknál, és régiónként van x mennyiségű kiosztható teszthardver.
    A régióknál pedig ne a földrajzra gondolj. Az egyes kontaktok kapnak régiókat, tehát amíg mi az NV-nél a cseh központú régióhoz vagyunk besorolva, az AMD-nél a szerb központúhoz.
    Emellett a lab501 egy GeForce Garage partner, ami elég sok pénzt hoz nekik, így tudnak fennmaradni a jelenlegi gazdasági helyzetben.

    Mi alapvetően egyetlen gyártóhoz sem szeretnénk anyagi alapú partneri viszonnyal tartozni, mert elsődleges irányelvünk a függetlenség. Persze kurva jó a pénz, amit egy speciális szerződés hozhat, de a legnagyobb érték egy újságnak az, ha bármiről szabadon írhat.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33613 üzenetére

    Elmondom mit küld az AMD. Van egy bő 40-70 oldalas review guide (terméktől függően), amire az AMD azt mondja, hogy szerintük ez a reális tesztkörnyezet, ezek a reális programok, és ezekből gyakorlatilag csinálnak egy saját tesztet. Azt kérik, hogy ezt olvassa el mindenki, aki teszteli. De sose, hangsúlyozom sose kérték azt, hogy ezt másoljuk le részben vagy egészben. Sőt, a Ryzen esetében kifejezetten buzdítottak arra, hogy nézzük meg olyan programokban is, amelyek nincsenek benne a review guide-ban, és ha ez egy egyedi program, amit más nem is igazán tesztel, akkor küldjük el nekik az eredményt, hogy ők is láthassák. Ilyenkor esetleg felkereshetnek, hogy mondjuk el azt is, hogy miképp teszteltük azt az adott, ritkán használt programot. A szerződés sose tartalmaz semmilyen teszthez kötött feltételt, akármit lehet írni, akármit lehet tesztelni. Az van benne, hogy be kell tartani az NDA-t, azaz nem lehet egy x időnél hamarabb közölni az információkat, különben ilyen-olyan retorziókat von maga után, emellett az adott teszt értékelését a megjelenése után el kell küldeni a helyi képviselőnek. Gyakorlatilag kérik a plecsnit, hogy a marketinganyagokba oda tudják rakni, hogy a xy média Béla plecsnire értékelte a terméket. Utóbbi nem kötelező érvényű, de ha nem küldjük el, akkor az AMD nem fog hivatkozni az adott sajtóra. Mindenki eldöntheti, hogy ez jó-e neki, vagy sem.

    Ki nem húzta le az utóbbi időben a Xeon részleget? :) De nem kell ezekre hallgatni, vannak tesztek: [link]

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #33611 üzenetére

    Az a golden sample egy urban legend. Egyáltalán nem válogatnak. Azért lehet nagy különbségeket felfedezni, mert az Intel megváltoztatta a varianciára vonatkozó specifikációját. A Coffee Lake óta 9% különbség is lehet a teljesítményben két ugyanolyan modellszámú CPU között, amit ugyanarról a polcról veszel le. Nem valószínű, hogy ennyi lesz, inkább 3-4% csak, de ha ennyi az eltérés, akkor az még pont megfelel a célzott varianciának. Ez nem golden sample tehát, csak némelyik tesztelő szerencsésebb példányokat kapott, de ezek ott vannak a kereskedelemben is, csak ott is szerencsésnek kell lenni.

    Szerintem az CGI volt. :D

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33607 üzenetére

    Ezt értem, de a vásárlók között is van 30 év alatti. Másrészt a LinusTechTips azért tart ott ahol, mert a YouTube-on erre van igény. Ergo a gyártók számára is sokkal célszerűbb neki adni a hardvereket, mert ki tudja szolgálni az igényeket.
    Jöhet itt egy Józsigyerek, aki technikailag nagyon durván ott van, de tesznek rá a gyártók, ha nincs meg az a minimum feliratkozója, akik végeredményben potenciális vásárlók lehetnek (vagy nincs egy haverja a gyártónál, aki tud neki teszthardvert intézni). A világ már nem kíván részletes információkat. A vásárlók egyre nagyobb része a gépek összerakásával sem akar törődni. Egyszerűen le akar emelni egy előre összeszerelt konfigot a polcról, és ehhez vicces videón keresztül vár valami támpontot. Valaki erre ráérez a YouTube-on, és kiszolgálja az igényt. Valaki pedig leragad a múltban, és lemarad a feliratkozók számában.

    Még mielőtt ebből félreértés lenne. Nem mondom, hogy jó dolog, amerre a YouTube halad, és az ahogy ezt lekövetik a gyártók, de mit lehet innen csinálni ugye... :) Leírhatom ide a véleményem, hogy szerintem se annyira jó a LinusTechTips, de ettől még valószínűleg hamarabb érik el a 6 millió feliratkozót, mint a Tech of Tomorrow a 600 ezret.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33604 üzenetére

    Ezt speciel én jobban tudom, mert ebben a rendszerben élek, és nem sok sample hardvert szoktak kiosztani a YouTube-ra. Aki nincs egymillió feliratkozó közelében az USA-ban, annak maximum haveri alapon van esélye teszthardverhez jutni.
    Elárulom, hogy teljes tévképzet az is, hogy itt minden startkor dúskál a média a teszthardverekben. A valóság az, hogy alig van, és akár 10 sajtó is ugyanazért a cuccért küzd. A Youtube esetében ez még rosszabb (hacsak nem vállalják el szerződésben, hogy bő nyállal körbeszopják a terméket, de ott nagyon kell tekerni, mert figyelik, hogy fogaznak-e ... gondolom feltűnt már ezeknek a termékbemutatóknak a lényege, mindig minden tökéletes a monitorral, billentyűzettel, akármivel, annyi hiba szokott lenni, hogy kicsit koszos a kijelző hátulján a kábel).

    (#33605) Petykemano: Az Intelnek már nincs sajtóstratégiája. Van egy központosított PR, ami mindent kiszolgál. Nincs helyi PR, nincs kit hívni, csak egy központi mail van, és ott szelektálnak mindent. Persze van sajtóanyag, amit NDA-val előzetesen el lehet érni (bár ehhez is kurva nagy mázli kell), de ennyi. A tesztprocikat is az alaplapgyártók biztosítják a többség számára.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33601 üzenetére

    A Youtube-on gomba módra szaporodnak az ugyanarra szakosodott tesztelők. Sokkal könnyebb ide belépni, mint felépíteni egy külön weboldalt, és a helyzet az, hogy az ottani sample-ök is eléggé végesek, tehát nem sokat kockáztat a Tech of Tomorrow, ha megpróbál azzal kitűnni, hogy ők annyira függetlenek, hogy még termékmintát sem fogadnak el, mert gyenge félmillió feliratkozóval úgyis kikerülnek ebből a körből. Főleg úgy, ha a kontaktjuk elment az AMD-től, ahogy mondta. Nagyon sok múlik a kapcsolatrendszeren, mert ezeket a mintákat nem szimpla számok alapján adják oda, hanem valamennyire számít, ha valaki valakinek a haverja. És ha jön egy új kontakt, akkor az valószínűleg inkább a számok alapján kezdi el osztogatni a mintákat, amiben a JayzTwoCents, Linus Tech Tips, HardwareCanucks, Bitwit, stb. sokkal jobban áll. Tehát effektíve érdeke fűződik ahhoz, hogy az emberek azt higgyék, hogy ő volt kemény és nagyon független ember, aki beintett az AMD-nek, és nem az AMD volt az, aki látta a többi csatorna fejlődését, és inkább nekik viszik a hardvert, nem pedig a kevesebb feliratkozóval rendelkezőnek.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #33599 üzenetére

    Ilyen nincs. Mi is ugyanebben a rendszerben dolgozunk. Se az Intel, se az AMD, se az NVIDIA sem mondja meg nekünk, hogy mit hogyan csinálhatunk. Ha megmondanák visszaadnánk a termékmintát és viszlát. De mivel ezt nem tesszük meg, így erre vonatkozóan nincs semmilyen külső befolyásolás. Egyetlen általános kérés szokott lenni az említett cégek felől. Ha tesztelünk valamit, akkor legyünk szívesek és olvassuk el az általuk készített pdf-et, ami leírja a terméket részletesen. Szóval olyanról, amiről ő beszél még csak hírből sem hallottunk senkitől, nem csak az AMD, de az NV és az Intel oldaláról sem.

  • Abu85

    HÁZIGAZDA

    válasz Jacek #33596 üzenetére

    Akkor az tényleg a buildtől függ. A 4.20-tól kedvez az AMD-nek, ez kapja meg a régóta tervezett nagy átalakításokat. Az ez előtti buildek az NV-nek jobban fekszenek. A 4.20-asnál nem tudni, hogy mennyire probléma, hogy az új Vulkan leképezőt kizárólag az AMD hardvereken fejlesztették, kizárólag az AMD fejlesztőeszközeivel. Valószínűleg azért drámai eltérést nem okoz, de mindenképpen az AMD-nek kedvez, hogy a rendszereik szemszögéből optimalizáltak szinte mindent.

  • Abu85

    HÁZIGAZDA

    válasz guftabi96 #33594 üzenetére

    Battlefield 4-ben ugye van Mantle, szóval nyilván azt érdemes használni, mert úgy kapod a legjobb overheadet. A BF1 pedig GPU-driven pipeline, IC+manual threading. Általánosan a Frostbite az AMD-nek kedvez.

    Assetto Corsa az update-től függ. A régi verzió még IC volt, az új (1.1x akárhányas) már DC. Ki tudja, hogy merre fejlődik. Szóval ha új verziót használsz, akkor NV, ha régit, akkor AMD. Competizione-ra fingom sincs.

    PUBG mindegy, mert az már szinte nem is DX11-en fut. Szénnétuningolt az egész driver rá, teljesen illegális dolgokat csinálnak a meghajtók. Majd szép lesz, amikor jönnek a engine update-es frissítések. Bár a PUBG fejlesztőket ismerve ez még évekre van. :D

    rFactor 2 az DC, szóval arra NV.

  • Abu85

    HÁZIGAZDA

    válasz guftabi96 #33592 üzenetére

    API overhead? Az attól függ, hogy miképpen működik a játék és milyen API-t használ.
    Explicit API-val az AMD előnyben van, mert 4 évvel több munka van az implementációjukban. Ezt az NV be tudja hozni, mert nyilván nekik nem a technológia hiányzik, hanem túl kevés ideje fejlesztik az explicit API-ra írt aktuális meghajtóikat. Egyébként drámai különbség így sem lesz, mert maga az explicit API eléggé arra van tervezve, hogy ne legyen nagy az overhead.
    Hagyományos API-val az a kérdés, hogy az alkalmazás DC-t vagy IC-t használ. Az NV meghajtója az előbbire van optimalizálva, míg az AMD-é az utóbbira. Ennek megfelelő az overhead is. GPU-driven pipeline mellett pedig ez is mindegy, mert kevés a független rajzolás. A specifikus DC/IC előny megmarad, de ez nem okoz drámai eltérést.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33525 üzenetére

    Az FC2-nél használt fizikai implementációt már az FC3-nál kidobták. A miértje ennek annyi, hogy felesleges beleölni az erőforrást, amikor nem sok játékost érdekel. Egyébként nincs lényeges teljesítményigénye ezeknek. Régen a konzolokban lévőknél sokkal gyengébb processzorral megoldották, csak van egy fix idő- és pénzkereted az egész projektre, és alig tudod magát az alkalmazást befejezni a kiadásig, nemhogy még olyanokra költs, mint a törhető ágak, ésatöbbi. De hogy ez egy hardveres probléma lenne? Egyáltalán nem, hiszen kb. 10 évvel korábban is megoldottuk, az akkori jóval gyengébb hardvereken.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33523 üzenetére

    Nem csak GPU-ra. Lehetne CPU-ra is, vagy akár a kettő részegység kombinációjára. De a legtöbben még addig sem jutnak el, hogy a GNM API-val csökkentség a CPU terhelését, az LCUE használata pedig rendkívül ritka. Aki viszont lemegy igen alacsony szintre, azoknak működik. Mint írtam lehet sírni, hogy nem megy, de ettől még más megcsinálja.
    Közelmúltból jó példa a Far Cry 5. Az új motort levitték mindkét nagy konzolon a legalacsonyabb hozzáférésre, és a megjelenéskor elégedett is volt mindenki. PC-n a DX12 kimaradt, de a DX11-es kód is elég jól működött, azt sem érte panasz. Tehát effektíve, ha van akarat, akkor meg lehet csinálni.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33521 üzenetére

    Ha valakinek sikerül, valakinek pedig nem, akkor nyilván nem az a hülye, akinek sikerült. :D
    Ezek a konzolok fix képességű gépek, rengeteg lehetőséggel. Az Ubisoft például még az elején ütközött abba a problémába, hogy cloth fizika, amit terveztek nem volt gyorsabb a CPU-n, mint a régebbi rendszereken. Mit csináltak? Átrakták a GPU-ra és tízszer gyorsabb lett. Légy kreatív és működni fog. Persze lehet sírni is, csak akkor a kreatív stúdiók elmennek melletted. Abban egyetértek, hogy mindenkinek joga van eldönteni, hogy dolgozik, vagy telesírja a sajtót, hogy xy nem működik, mert kevés CPU/kevés memória/szarok a grafikus API-k... kinek éppen mi volt a problémája. :)

  • Abu85

    HÁZIGAZDA

    válasz Fred23 #33512 üzenetére

    Nem igazán tudnak mit kezdeni az AVX2-vel, amíg az Intel ma is ad ki olyan procikat, amikben az AVX sincs benne. A konzolok miatt persze elmennek az AVX-ig a programok, de tovább nem.

    (#33513) Raymond: Ez az egész csak döntés kérdése, nem pedig technikai akadály.

    (#33514) Keldor papa: A Sony ma már rengeteg lehetőséget biztosít a fejlesztőknek. Ha valaki úgy érzi, hogy CPU-limitje van, akkor menjen a GNM API-ról az LCUE-ra. Utóbbit használják manapság a Sony játékai, lásd az új God of War.

    (#33518) kikikirly: Sok dolgot lehet csinálni, lásd a Sony is megcsinálja ezeket a PS4-re, de multiplatform szinten addig nem igazán várható előrelépés, amíg a WDDM2 nem lesz minimum követelmény.

  • Abu85

    HÁZIGAZDA

    válasz keIdor #33510 üzenetére

    Konzolnál ez annyira mindegy, elvégre ott vannak a vektorprocesszorok, amelyek közül egy is sokkal gyorsabb, mint a beépített összes processzormag.

  • Abu85

    HÁZIGAZDA

    válasz kikikirly #33507 üzenetére

    Fizikából már nem nagyon lehet, mert a legtöbb stúdió mélyen integrált fizikai motort használt. Middleware-ből már nagyon kevesen dolgoznak, mert sokkal lassabb.
    Azt érdemes megérteni, hogy a middlware-eknek van annyiban értelme, hogy az egész nagyon egyszerűen beépíthető és megy is. Ez adja a legnagyobb előnyét és egyben a legnagyobb hátrányát is. Ugyanis a teljesítménnyel fizet azért, hogy könnyen beépíthető, vagyis nem lehet annyira mélyen integrálni, hogy gyors is legyen.
    Ez az érem másik oldala, amiről nem szokás beszélni. Nyilván ha ezt is nyíltan felvállalnák, akkor fel sem merülne Crytekben az a kérdés, hogy "mindig a gagyi noname fostengerekbe raknak finomságokat"... :)

  • Abu85

    HÁZIGAZDA

    válasz VTom #33505 üzenetére

    Ezeknek már van realitása. A Sony The Tomorrow Children című játéka 2+1 bounce VXGI megoldást használ. És tök szuperül működik a PS4-en. Nyilván az NV-nek valahol fontos, hogy PC-n is legyen hasonló. Értsd ezt úgy, hogy ez egyre inkább presztízskérdés. Egy rakás pénzt beletoltak a GameWorks VXGI-ba, és jelenleg azt látják a fejlesztők, hogy még 1 bounce mellett is működésképtelen, miközben kb. annyi pénzt égetnek el benne, amennyi egy teljes indie fejlesztő éves működési költsége. Az egészből azt vágják le sokan, hogy middleware-en keresztül berakni az ennyire komplex effekteket egyáltalán nem ideális, mert a Sony integrált formában ugyan, de jóval gyengébb hardveren és jóval több számítással járó eljárással megcsináltan. Nem először jár a GameWorks így, elvégre a Witcher 3-ban is sokkal több effektet terveztek. Ha tehát kidolgoznak valamit, akkor muszáj legalább egy játékba berakni, hogy megmutassák működik. Igaz, hogy brutális pénzt elégettek mire megoldották, de nem hagyhatják, hogy a GameWorks egy nem működő koncepciónak látszódjon.

  • Abu85

    HÁZIGAZDA

    válasz Crytek #33502 üzenetére

    Mert a VXGI nem igazán szereti a sok animációt a jelenetben. Párat elvisel, de ha mondjuk 30-40 embert kell leanimálni, és még a bokrok és a fák is mozognak, ne adja isten még a fű is, akkor sokszor omlik össze. Ha megnézed a fenti videót, a végén megmutatják a VXGI-t nagyobb területen, amikor full statikus minden. Ezzel nem igazán tudnak jelenleg mit kezdeni. Az aktuális rendszerben van egy hard reset beépítve, ha a mozgás beragadna, de az nagyon csúnya jelenségekhez vezet. Mindig az alaphelyzetbe ugrik az objektum, amikor éppen megpusztul a VXGI, így hiába lengedezik mondjuk a fő, egyik pillanatról a másikra megváltozik az állapota. Ebben sajnos még pénzt se igazán raknak, mert az alapproblémát az integráció hiánya okozza, egy ilyen komplex rendszer ugyanis nehezen implementálható szimpla middleware-ként. A CryEngine megoldása azért működik fényévekkel jobban, mert az integrálva van a motorban. Ez a kis csapat se valószínű, hogy megoldja, majd idővel kikerül a tervek közül. Annyi játék készült már úgy, hogy működni fog benne a VXGI, és még mindig csak ott tartunk, hogy jönnek a játékok, amelyekben működni fog, persze mindig más cím.

  • Abu85

    HÁZIGAZDA

    válasz VTom #33490 üzenetére

    Szimplán memóriakoherens interfészként van jelölve. Nyilván ez kizárja a PCI Express-t, mert ez nem memóriakoherens. De nem is EMIB, mert az overkill lenne, meg igazából az a wide I/O-ra van igazán kigyúrva.

  • Abu85

    HÁZIGAZDA

    válasz Pipó #33487 üzenetére

    De gondolom a cikket is elolvastad, mert ott eleve azt írják, hogy nem PCI Express csatolón keresztül lesz bekötve. Mondjuk nem is EMIB-bel, de legalább az elsőt eltalálták. :) A WCCFtechtől ez sem rossz. :D

  • Abu85

    HÁZIGAZDA

    válasz atok666 #33474 üzenetére

    Pont ez a lényeg. Ha a tömeg nem tudja, hogy mi az, akkor a Win32-es géppark alaposan megcsappan, így pedig a fejlesztőknek az UWP-t kell figyelni, hogy ne csak a Windows 10 felhasználók egy részét tudják célozni. A Microsoft nyilván tudja, hogy miképp lehet ezt ügyesen kivezetni. Észre sem veszed, és már el is tűnt. Küzdeni sem tudsz ellene, mert azokat az embereket kell ennek a dolognak a hasznosságáról meggyőzni, akik azt sem tudják, hogy mi az. Sőt, a legtöbb felhasználó eddig nem fog eljutni. Elfogadják, hogy szimpla frissítéssel nekik lehet Win32-jük, ráadásul ingyen, bele se gondolnak, hogy ha mondjuk 10-ből 7 ember nem kéri a frissítést, akkor a userek maguk ássák a Win32 sírját.

  • Abu85

    HÁZIGAZDA

    válasz Egon #33472 üzenetére

    Az architektúra az mindegy. Az MS számára a lényeg a Win32 kivégzése, illetve felhőbe száműzése. Ha ez megvan, akkor onnantól kezdve teljesen lényegtelen, hogy a vásárolt gép x86 vagy ARM, mert ez már csak fordítás kérdése. Az ARM-ra is lesznek programok, mert a Qualcomm Windows notijait viszik, mint a cukrot.
    Az S mód egyértelműen egy olyan irány, amivel az MS sikeres lehet. Kihagyják a gépekből a Win32-t, mert úgy olcsóbb a licenc a gyártók felé, és a user ingyen frissíthet egy ideig, ha ez kell. De ahogy a Windows 10 S esetében is tapasztalható, a vásárlók zöme nem frissít, hiába ingyenes a dolog. Ez egy nagyon jelentős felfedezés a Windows 10 S-nél. A Microsoftnak nem kell erőszakkal letiltania a Win32-t, elég ha nem szállítja gyári szinten. A többit a vásárlók "nemtörődömsége" elintézi nekik.

  • Abu85

    HÁZIGAZDA

    válasz smc #33470 üzenetére

    Én nem vagyok erről meggyőződve. Az utóbbi időben nagyon nyomatja az AMD a GMI-t. A következő körben már nem csak a prociban lesz, hanem a Vega 20-ban is, de állítólag kapott a Vega 11 is két ilyen linket. Tehát effektíve az AMD jövőképe sem más. Ők a GMI-n keresztül akarják összekötni a lapkákat.

    Egy ideje egyébként az AMD folyamatosan azon van, hogy menjen mindenki a CCIX-re, ami nyílt és szabványos, így nem kényszerülne a piac zárt megoldásokra, de az Intel és az NV erről hallani sem akar. Szóval itt be fog zárni mindenki, ha csak hirtelen nem lesz valami megegyezés. Az AMD is a saját GMI-jét használja majd, az NV az NVLinket, míg az Intel a saját technológiáját.

  • Abu85

    HÁZIGAZDA

    válasz Egon #33468 üzenetére

    Attól függ, hogy miképp kötik be a pGPU-t. Ha PCI Express interfésszel, akkor egy rakás sávot eleve elvisz maga a pGPU. Ha más interfészt használnak erre, akkor pedig egy rakás lapkaterület lesz elköltve rá, és mivel a rendszerben már van pGPU, így az elsődleges spórolás a PCI Express oldalán fog bekövetkezni. Persze az Intelnél sosem ilyen egyszerű. Ők azért nem egyszer ütöttek már meg konkurens céget ott, ahol a legjobban fáj. Márpedig nekik a dGPU csak egy nyűg, ha ők kizárják ezt, akkor mindegy, hogy az AMD mit csinál, mert akkora talajt robbantanak szét a dGPU alatt, hogy értelmetlen lesz erre fejleszteni. Az AMD nem fog tudni hirtelen háromszor több terméket gyártani, hogy az igényeket kiszolgálják. Az igényekkel való szembeevezésnek pedig az Intel a legnagyobb mestere, és a gyárakra vonatkozó erőfölényükkel lenyomják a torkodon azt is, amit nem akarsz.

  • Abu85

    HÁZIGAZDA

    válasz Pipó #33463 üzenetére

    A szabályok megengedik. Az FTC 2015-ig kötelezte az Intelt arra, hogy 16 sávot vezessen ki. Ez a dátum pedig már elmúlt. Az Intelnek van egy saját elképzelése a jövőről. Ők is egy cég. Nem kényszerítheti őket az FTC örökké arra, hogy más cégeket eltartsanak. Az FTC sem lépheti át a hatásköreit.

    (#33465) Raymond: Kikerestem a listát, de persze én voltam a hülye, hogy munkát raktam bele, mert előre láttam, hogy csak személyeskedni jöttél. :( Ezért írtam eredetileg, hogy a Google a barátod. De személyeskedj tovább, ha neked ez jólesik, engem nem zavar. :N Többet ebbe nem rakok időt. A Google-ben mindent megtalálsz. Most már cím szerint tudod ellenőrizni a játékokat. :)

  • Abu85

    HÁZIGAZDA

    válasz Raymond #33461 üzenetére

    Quake
    Quake 3 Arena
    Roblox
    Dota 2
    Rust
    GRID Autosport
    The Talos Principle
    Vainglory
    Score! Hero
    Need for Speed: No Limits
    Heroes of Incredible Tales
    Dream League Soccer
    Ashes of the Singularity
    Olympus Rising
    Doom
    Mad Max
    Galaxy on Fire 3
    War Thunder
    Ballistic Overkill
    Serious Sam VR: The First Encounter
    Serious Sam VR: The Second Encounter
    ESSENCE
    Warhammer 40,000: Dawn of War III
    X Rebirth VR Edition
    F1 2017
    Serious Sam VR: The Last Hope
    Wolfenstein II: The New Colossus
    Apocalypse: The Game
    Serious Sam Fusion 2017
    Rise of the Tomb Raider
    Geocore
    Battlefield 4
    Battlefield: Hardline
    Dragon Age: Inquisition
    Plants vs. Zombies: Garden Warfare
    Sid Meier’s Civilization: Beyond Earth
    Sniper Elite 3
    Thief
    Gears of War: Ultimate Edition
    Caffeine
    Star Wars Battlefront
    Tom Clancy's The Division
    Hitman
    Quantum Break
    Total War: Warhammer
    Deus Ex: Mankind Divided
    The Turing Test
    Forza Motorsport 6: Apex
    Halo 5: Forge
    Heroes & Generals
    Forza Horizon 3
    Gears of War 4
    Battlezone
    Battlefield 1
    Civilization VI
    Sniper Elite 4
    Halo Wars 2
    Total War: Warhammer
    Total War: Warhammer II
    FIFA 18
    Forza Motorsport 7
    Star Wars Battlefront II
    Sword Art Online: Fatal Bullet
    Warhammer: Vermintide 2

  • Abu85

    HÁZIGAZDA

    válasz Egon #33460 üzenetére

    Az AMD terveiben is ez szerepel. Nem az Intel egyedi kreálmánya a 3D-ben való építkezés. [link]
    Mi több, a GTC-n voltak róla elszólások, hogy az NV is ilyet tervez, nincsenek is lemaradva a technikai oldalon. Azzal a jövőképpel, hogy a Microsoft a Win32 appok futtatását átviszi a felhőbe, teljesen reális ARM-mal követni az Intelt és az AMD-t.

  • Abu85

    HÁZIGAZDA

    válasz edari #33456 üzenetére

    Már most 70%-os a részesedésük ezzel a terméktámogatással. Nem ez számít, hanem az, hogy ne tudj választani a vásárlásnál. Ez az Intel koncepciója.

    (#33457) Raymond: Mint írtam a Google a barátod. Nem fogom még egyszer megkeresni mindet. Írd be: Vulkan games, DX12 games és Mantle games.

  • Abu85

    HÁZIGAZDA

    válasz Pipó #33448 üzenetére

    Az egész csak attól függ, hogy az Intel mennyi PCI Express sávot vezet ki. Amint itt lesznek a piacon, amint érdekük fűződik a pGPU-s irány erőltetéséhez, a dGPU-k bekötése meg lesz vágva. Ők nem versenyezni jönnek, hanem uralni ezt a piacot, és mivel ők döntik el, hogy egy dGPU milyen gyors lehet, így természetesen nem fogják hagyni, hogy a pGPU-iknál erősebbek legyenek.

    (#33447) Raymond: A Google a barátod.

    (#33449) cskamacska: Persze, hogy ezt akarják. Maga a Win32 API reális fejlesztést nem kap, tehát hosszabb távon életben tartani sincs értelme, mert fejlesztések nélkül csak hátrány lesz a platformra nézve. Az UWP sok helyen már előrébb jár, máshol viszont még le van maradva, de nagy különbség, hogy az UWP-t fejlesztik, tehát idővel mindenben jobb lesz.

    A boltoknak ehhez nincs közük. A Steam, GoG, stb. akármikor támogathatják az UWP API-s alkalmazásokat.

  • Abu85

    HÁZIGAZDA

    válasz atok666 #33444 üzenetére

    Miért lenne ettől más a PC? Csak annyi történik, hogy a dedikált GPU-kat felváltják a tokozott GPU-k. A céljuk ugyanaz lesz, a teljesítményben is sokáig elmehetnek a HBM3/4-gyel, csak nem 10 cm-re lesznek a procitól, hanem magán a processzoron, vagy amellett. Ez mitől apokalipszis? Ugyanúgy lehet majd ezen is játszani.

    A Win32 elvesztése sem egy apokalipszis. Az S mód elsődleges célja, hogy csökkentse a Win32-t futtatni képes gépek számát. Az MS már régóta ezt tervezi, de nehéz megtenni olyan módon, hogy ráerőszakolják a userre, amit nem akarnak. Az S mód nem ezt csinálja, hanem azt, hogy az adott gép alapértelmezetten nem lesz képes Win32-es programokat futtatni, de a user opcionálisan telepíthet egy kiegészítést, ami ezt a képességet hozzáadja a rendszerhez. A Home a vásárlás után egy rövid ideig ingyenes lesz, míg a Pro állandóan fizetős. A gyártók többsége marad majd az S módnál, mert az MS felé kisebb a licencköltség még akkor is, ha a Home ingyen van a user oldaláról. Ez így első hallásra nem számít nagy dolognak, de a helyzet az, hogy a Windows 10 S tapasztalata alapján a userek közül 70%-nál több vásárló nem foglalkozott a frissítéssel, annak ellenére sem, hogy ingyenes volt. Ergo az S móddal jelentősen meg lehet kurtítani a Win32-re képes gépek számát, miközben a kritikus tömeget el lehet azzal hallgattatni, hogy ha kell, akkor frissíts ingyen Home verzióra. Az eredménye ennek nem ma fog megmutatkozni, hanem pár év múlva, amikor annyira kritikus lesz a Win32 alkalmazásokat futtatni képtelen Windows 10 konfigurációk száma, hogy a fejlesztők inkább átállnak UWP-re, mert azzal minden Windows 10 usert egyszerre célozhatnak. Ezután a Microsoft már komolyabb következmények nélkül kivághatja a Win32-t, és az aktuális kósza tervek szerint áthelyezhetik felhőbe.

    (#33445) Crytek: Explicit API-ról beszéltem mindig, nem csak a DX12-ről. Az Explicit API-t használó játékok száma jelenleg 64.

Új hozzászólás Aktív témák