Új hozzászólás Aktív témák
-
Tudtommal novemberben és decemberben 13 darab DirectX 12-es cím érkezett PC-re. Ugyanezen időszak alatt 0 OpengGL-es, 0 Vulkanos, 3 DirectX 11-es, 1 DirectX 10-es és 1 DirectX 9-es.
Havonta 500+ játék jelenik meg csak a Steamen (stat pl. itt). Akkor ebben a két hónapban a többi 980 (vagy még több) játék milyen API-t használ?
-
huskydog17
addikt
"Tudtommal novemberben és decemberben 13 darab DirectX 12-es cím érkezett PC-re. Ugyanezen időszak alatt 0 OpengGL-es, 0 Vulkanos, 3 DirectX 11-es, 1 DirectX 10-es és 1 DirectX 9-es."
Pontosan honnan vannak a számok? Hol található a pontos lista?
A lista nélkül is látom, hogyi smét ignorálod a játékok,fejlesztők legalább 90, de inkább 99%-át, de ezt már megszoktam tőled."Tehát a reálisan használatban lévő API-k közül a DirectX 12-re érkezett magasan a legtöbb PC-s játék."
vs.
List of Direct3D 9 games: 2.825 games
List of Direct3D 11 games: 3.200 games
List of OpenGL games: 1.455 games
List of Direct3D 12 games: 273 games(Forrás)
Igen-igen tudjuk ezek közül csak a D3D12-t használják, a többit már senki. Igen-igen, az Intel is csak trollkodásból és jókedvében égetett/éget egy csomó pénzt a D3D9 driverbe az AMD pedig az OGL driverbe, mert senki nem használja.
Mikor is frissítette a MS a D3D11-et? 2013-ban, idén lesz 10 éve az utolsó frissítés, régebben, mint az OGL. Senki nem szólt a fejlesztők 99%-ának és a három GPU gyártónak, hogy "ez a buli megdöglött és a MS le se szarja"?
Kérem kapcsolja ki! -
huskydog17
addikt
válasz
philoxenia #91 üzenetére
"A kérdés az, hogy egy általuk tíz év múlva fejlesztett játék futtatható lesz-e egy akkori olyan kategóriás kártyán, mint ami a jelenlegi PC-mben van?"
Ezt most komolyan kérdezed? 10 év múlva megjelenő AAA címekkel akarsz játszani egy GT 1030-al? Remélem ezt nem gondolod komolyan. Miért akarnál és hogy jön az eredeti témához ez a valóságtól teljesen elrugaszkodott elvárás?
Ha a Frictional-ről van még szó, akkor minden játékukkal gond nélkül tudsz játszani a GT 1030-al és a márciusban megjelenő Amnesia 4-el is fogsz tudni játszani. Azt nem várhatod el senkitől, hogy megmondja mi lesz 10 év múlva, remélem ezt viccnek szántad!#99 Abu85:
"de mint írtad ezt a legnépszerűbb OpenGL játékot nem tekinted OpenGL játéknak, így nem érdekelnek itt az eredmények"
NEM ezt írtam. Ara számítottam ,hogy tömény bullshit jön a részedről, de hogy még ilyen hazudozásba kezdesz, arra nem számítottam. Mindig meg tudsz lepni.
Nézzük meg, hogy pontosan mit írtam, ha már neked nem sikerült rendesen visszanézni, tehát ezt írtam:
"*Itt érkeztünk el a korábbi kijelentésemhez, miszerint a Minecraft nem teszt. Az AMD kizárólag a Minecraft-ra vonatkozólag csinált fejlesztést az OGL driver-ben, semmilyen más OGL játék nincs említve és ugye egy játék nem játék, főleg, hogy a Minecraft egy technikai katasztrófa és nem az API miatt. Szóval az AMD Minecraft mérési alapján abszolút semmilyen következtetést nem lehet leszűrni az AMD aktuális OGL driverére vonatkozóan.
Jelenleg 1451 OGL-t támogató játék van a PCGamingwiki adatbázisában, lehet csemegézni. Csak az idei évben egy tucat, OGL-t támogató játék jelent meg, ennyire halott az API."Segítek értelmezni, megpróbálom másképp fogalmazni:
Létezik több ezer OGL játék, amiből az AMD kizárólag egy, azaz EGY darab játékra optimalizálta az újraírt OGL driver-t. Tehát te pedig kizárólag ez alapján, azaz EGY játék alapján általánosítasz az ÖSSZES OGL játékban tapasztalt teljesítményhez, ezt meg is erősítetted. Érted már mi a gond? Sajnos van itt még tovább is. Ahogy írtam, a játék egy technikai katasztrófa, egy értékelhetetlen digitális szemét, ami a GPU-k felét sem képes megmozgatni. A hardver kihasználtság és a performance annyira nagyon rossz ebben a játékban, hogy tanítani kéne, példaként, hogy hogyan NEM szabad játékot programozni. Egy Java alkalmazásról beszélünk, így nem csoda hogy a performance egy fos. Érdekes módon a PH teszteknél rendkívül szigorúan nézed, hogy egy játék milyen lett technikai szempontból, milliószor leírtad, hogy van egy bizonyos általad felállított szint, amit meg kell ütniük a játékoknak és csak akkor kerülhetnek be a tesztekbe, most pedig a világ egyik legpocsékabbul megírt játékánál ezt nem veszed figyelembe, hirtelen ez lett a mérvadó az olyan kijelentéshez, hogy "Az AMD OpenGL drivere most kb. a leggyorsabb, mert újraírták az egészet."Oh ha már itt tartunk, még mindig várom a független tesztet, ami igazolja a fenti állításod, azaz ezt:
"Az AMD OpenGL drivere most kb. a leggyorsabb, mert újraírták az egészet."Olyan tesztet találtam, ahol jelentős gyorsulást mértek például Wolfenstein New Order-ben, de olyan nem találtam, ami bizonyítaná, hogy gyorsabb, mint az NV.
Továbbá idéznék saját magamtól:
"egy játék nem játék"
Ez azt jelenti, hogy kizárólag egy játék alapján nem lehet semmilyen következtetést levonni a sebességre vonatkozóan, de ezt is így egyértelműen leírtam. Még egyszerűebben fogalmazva: Minecraft-on kívül is van sok más OGL játék a piacon, ahol az AMD iszonyat szarul teljesített. Azokkal mi a helyzet? Megnézném én is szívesen ha nem adtam volna egy az RX 470-et 2,5 évvel ezelőtt. Mondanék sok példát, de azokra is mind azt mondanád, hogy szarul vannak megírva, még akkor is ha NV kártyákon hibátlanul működnek."Sőt, van Unigine teszt is OpenGL-re, az is gyorsult bő 80%-ot."
Szintetikus teszt, lényegtelen. Valódi tesztek érdekelnének (és valószínűleg nem csak engem), valódi játékokkal amivel a felhasználók játszani is tudnak."A Frictional motorja valóban OpenGL-ben van írva, csak hát szar is. Ugye évek óta pofázzák a userek, hogy oldják már meg, hogy lehessen például 60 fps-nál többel játszani, de hát nem lehet, mert kurva szar a motor, és nem nagyon van pénz vagy akarat ezen javítani. Ezt kellene tanítani 2023-ban? Hogyan írj olyan motort, ami 60 fps hard limittel működik csak? Meg is kérdezték őket nemrég, hogy a The Bunker motorja végre fel lesz-e húzva a 2023-as sztenderdekhez, vagy ugyanaz a szar lesz, mint régen."
Aha tehát szerinted attól szar egy grafikus motor, hogy "csak" 60 fps-t tud számolni valós időben. Ugye tudod, hogy konzolokon a játékok 99,99%-a sem tud többet 60 fps-nél? Ugye tudod, hogy konzolokon rengeteg játék még 60 fps-t sem tud? Miért szar az a motor, ami a játékosok 99,99%-nak igényét kielégíti? Ezzel ráadásul simán tudnak menni konzolra is, mert konzolon a 60 fps is már hűha! faktornak számít. Sikerült belinkelned egy olyan Steam fórum topicot, ami egy rendkívül szűk réteg irreális elvárásait mutatja. Ugye tudod, hogy az indie stúdiók nagyságrendekkel kevesebb anyagi és emberi erőforrásal rendelkeznek, mint a milliád dolláros nagy stúdiók? Korlátozott anyagi keretekkel miért égessenek pénzt olyan dologba, ami a játékosok többségének felesleges? Csak megsúgom, hogy a Frictional-t a legkisebb mértékben sem fogja érdekelni (hála az égnek), hogy a Terepin gyerek (ő inkább egy troll, teljesen irreális elvárásai vannak az indie csapatoktól és 1-2 másik emberke panaszkodik, mert elvesztették a realitás érzéküket. Amúgy a mai sztendersz pont a 60 fps és ezt a HPL motor tökéletesen teljesíti is. Nincs értelm egy erősen korlázotott büdzséből pnézt égetni egy rendkívül szűk piaci rétegnek. Úgy tűnik, hogy ezzel a Frictional jól döntött, legalábbis a több millió eladott Amnesia és a SOMA gigantikus sikere ezt bizonyítja, vagyis a tények pont neked mondanak ellent (megint). Azért megnéznék még egy oylan indie motort, ami az Amnesia 3 látványát hozza úgy, hogy 11-12 éves CPU-val és egy lassan 7 éves VGA-val betonstabil 60 fps-el megy full max grafikán. Szerintem nem tudsz ilyet mondani. A valóság az, hogy mind a SOMA mind az Amnesia 3 kiválóan van optimalizálva, példaértékűen és ezt nem csak én látom így, hanem sokan mások is akik játszottak is az említett címekkel.
Ha számodra a HPL motor szar, akkor a Java Minecraft-ot minek jellemeznéd? Arra már nem tudnék kellő mértékű negatív jelzőt hozni.Végül csak annyit még, hogy amíg nem tudsz független tesztet linkelni, ami bizonyítaná, hogy az AMD-é a leggyorsabb OGL driver, addig részemről ez a téma lezárva, mert sajnos ahogy számítottam veled értelmesen nem lehet diskurálni ebben a témában. Ha pedig valakit idézni szeretnél, akkor legalább pontosan idézd és arra reagálj, amit írt és ne egy koholt hazugságra ahogy nálam tetted, köszi!
-
Pikari
veterán
Az extensionokat a gyártók készítik. Kb 50 db extension készült hozzá az elmúlt 5 évben.
Íme 2 db randomra: [link] [link]
Akkor szabványosítanak egy extensiont, ha a játék és programfejlesztők széles körben elkezdik használni az adott extensiont, és több grafikuskártya gyártó is úgy dönt, hogy implementálja.
-
Pikari
veterán
Úgy gondolom, hogy nem érted teljesen, hogy működik az opengl. Az opengl extension alapú, nem verzió alapú. DirectXnél a különféle verziók külön apik tulajdonképpen. Az opengl pedig opengl már 30 éve, azóta egyszer nyúltak hozzá komolyabban (3.0 core profilok). Ha sok újabb extension készül hozzá, akkor szabványosítják őket, és emelik a verziószámot, ami tulajdonképpen csak egy string, nem jelent semmit. Az opengl fejlesztése így működik.
Az aláírásom... hát igen. most kivételt tettem, mert idegállapotba kerültem a kommentektől
-
Kansas
addikt
"Nem lehet, hogy a GeForce 7300-mal keverted össze?"
De, lehet, sőt biztos."játékok ezreit tolják ki rá minden héten"
Továbbra se érdekel rajtad kívül senkit, hány játékot adnak ki rá, legfőképpen az nem, hogy mobilra hányat. Egy API nem attól lesz élő, hanem attól, hogy fejlesztik-e.
Az Open GL 4.6 2017-ben jött ki, azóta nem jelent meg újabb verziója.Ettől még akár egy évtizedig is elagonizálhat, mint egy rossz bollywoodi film főhőse, megjelenhet még pár ezer senki által nem játszott játék rá, nincs neki jövője. Illetve de, van, Vulkan-nak hívják.
De ennyi off talán elég is lehet már... joccakát!
u.i.: vicces az aláírásod...
-
Pikari
veterán
Hogy mit ,,éleszt'' fel, az szerintem nézőpont kérdése. Ennyi erővel mondhatom azt, hogy a directx12 halva született, mert havi 6 játékot bírnak rá kiadni. És sokkal inkább igazam lesz, mint annak, aki az openglt temeti, miközben játékok ezreit tolják ki rá minden héten.
Amúgy a GT730 továbbra is egy Directx11-es kártya. Újabb chip van rajta, mint a quadro 4000ren.
Graphics Features
DirectX12 (11_0)
OpenGL4.6
OpenCL3.0
Vulkan1.2.175
CUDA3.5
Shader Model6.5 (5.1)Nem lehet, hogy a GeForce 7300-mal keverted össze?
-
Kansas
addikt
A GT730 az DX9.0c-s kártya, az hogy utólag a feature leveleknek köszönhetően elindulnak rajta esetleg DX10.1/11-es címek is, ezt érdemben nem változtatja meg. Amennyire tudom a tiszta 10.0 nem támogatja a feature leveleket, azok csak 10.1-től kerültek bele...
A Quadro 4000 viszont valóban DX11, azon nem tudom, miért nem azt az API-t használja, ha csak nem kézzel lett OGL-re állítva vagy valami bug nem okozza ezt, vagy Linuxon tolod, vagy... sok oka lehet ennek, kérdezd meg a játék supportját esetleg, ők talán tudják.De az mind nem változtat azon a tényen, hogy ezeknek a játékoknak(különösen a mobil) a supportja nem éleszti fel az OGL-t...
Egy API attól halott, ha nem fejlesztik, mindig lesz pár budget és/vagy aktualizált fejlesztési tudás nélküli fejlesztő, aki pusztán abból az okból fejleszt OGL-re, mert nem ért máshoz vagy valami olyan régi fejlesztőkörnyezete/engine-je van ami csak azt támogatja(pl RPG Maker).
Én is tudok valamennyire latinul, gimnáziumban sokadmagammal 4 évig tanultuk, de attól az még egy holt nyelv... -
Kansas
addikt
Milyen VGA-val?
No nem mintha nem lenne hót mindegy, ez a grafika nem tűnik olyannak, ami komoly VGA-t igényelne, és ha így is csak 36 fps-sel fut, akkor alighanem egy olyan GT730-asról lehet szó amit fentebb is említettél... és nem támogat DX10-et, szóval nem meglepő, ha OGL-re defaultol... -
Pikari
veterán
Szerintem félreérted a DirectX-et a gépigényben. A DirectX nem csak grafikát jelent. A neptunia a DirectX-ből a hangot és a joystick inputot használja. Én októberben játszottam végig, az OpenGL nélkül el se indul, hanem inicializációs hibát dob. A rebirth1 ugyanezt csinálja, az szintén valamikor októberi build. MSI afterburnerrel megnézheted, milyen apit használ.
-
Abu85
HÁZIGAZDA
Érdekes. Nekem sikerült elindítani szeptemberben DirectX 10-zel a Steamről letöltött aktuális verziót. És még jegyzik is a gépigénynél, hogy a DirectX 10 támogatott: [link] - de biztos a fejlesztők tudják rosszul.
Tudtommal novemberben és decemberben 13 darab DirectX 12-es cím érkezett PC-re. Ugyanezen időszak alatt 0 OpengGL-es, 0 Vulkanos, 3 DirectX 11-es, 1 DirectX 10-es és 1 DirectX 9-es.
Tehát a reálisan használatban lévő API-k közül a DirectX 12-re érkezett magasan a legtöbb PC-s játék.
PC-re nem sok androidos játékot portolnak. Itt ilyen hígfosokkal nem lehet felkerülni a Steamre.
#139 Pikari : Nem értettem félre. A játék DirectX 10 API-t használ grafikára. Az, hogy neked a DirectX 10 nem indult el, nem jelent semmit. Pont azért van a játékban OpenGL fallback, hogy ha valakinek olyan őskori hardvere van, amin a DirectX 10 nem megy, vagy valami probléma van a szoftveres háttérrel, akkor ott az OpenGL. Gyengébb grafikát ad, lassabb is, de fut.
-
Pikari
veterán
A directx10 támogatást évekkel ezelőtt kivették a neptunia re3-ból, és a legtöbb neptuniából. azóta kizárólag openglt támogat. És nem 20 éves
szóval azt mondod, hogy 12 db directx12-es játék érkezett pc-re novemberben és decemberben? komoly ipar és közösség lehet a directx12 mögött, ha így egy kézen meg lehet számolgatni a játékokat, amiket kiadnak rá. opengl alapú játékból talán olyan 1-2 ezer újabb game érkezhetett ebben a két hónapban, ha csak az androidos játékok (10-20 ezer db per hó) feltételezett PC portjainak számából indulunk ki https://www.statista.com/statistics/780229/number-of-available-gaming-apps-in-the-google-play-store-quarter/
és bár elég nehéz lehetne felbecsülni, de olyan 400-800ezer opengl játék lehet most a piacon összesen (abból 100-200 ezer körül lehet a pc-re is elérhető opengl alapú játékok száma az alapján, hogy az androidos gamek feljesztőinek oldalán általában szokott lenni pc verzió is), plusz olyan 1 millió régebbi. úgyhogy azt hiszem, maradok ebben a döglött buliban, ami havi 10 ezer körüli játékot ad ki, mint a havi 6 db directx12-es "játékban" repkedjek körbe wasd-vel.
-
Abu85
HÁZIGAZDA
Játszhatsz 20 éve megjelent játékokkal, de 2022-ben hány OpenGL-es játék is jelent meg PC-re? 12 darab. DirectX 12-re csak novemberben és decemberben érkezett ennyi, és akkor még 10 hónapot nem számoltunk. Szóval igen, ez a buli megdöglött, és látszik is, hogy a Khronos le se szarja.
A Hyperdimension Neptunia Re;Birth3 pedig DirectX 10-et használ. Az OpenGL 3.3 csak fallback, ha a VGA nem támogatná a DirectX 10-et, mert a Microsoft API-jával nem csak gyorsabb, de jobb a grafika is.
-
Pikari
veterán
Szegény opengl úgy megdöglött, hogy mára már csak a játékok 99%-a használja, majdnem minden platformon 100%-os piaci részesedése van. Az elmúlt évben 1 db DX9-es, és 1 db DX10-es játékkal játszottam. Az összes többi játék, amivel játszottam (kb 30 db) OpenGL 2.0, 3.3, vagy ES2 volt.
Mondok egy konkrét játékot: Hyperdimension Neptunia Rebirth 3.
Ez eddig tudott nálam AMD kártyákon (4850, 5670, 5xxxvalami) 12 fps-t a gépemen (phenom2).
Ugyanez nvidia kártyákon 40-50 fps (még GT730 szintű kártyákkal is).Ha az AMD 30%-ot gyorsított, akkor az nvidia kártyák még mindig 3x gyorsabbak tulajdonképpen MINDEN létező játék alatt, kivéve persze a PC-re írt AAA titlek alatt, amik valóban directx-et használnak. És senki se játszik velük, max az internetbe frissen beszabadult fanboy, aki ezeket találja meg először twitteren. Nyilván ezért is esett 0 körülire a dedikált AMD kártyák eladása, mivel igazi gamingre majdnemhogy alkalmatlanok.
-
Kansas
addikt
válasz
Robitrix #131 üzenetére
De ne felejtsd el azt sem, hogy az osztatlan memória azt is jelenti, hogy nem kell PCIe buszon keresztül adatot másolgatni a CPU és a GPU közt, és nem kell semminek meglennie egyszerre két helyen. A textúrák pedig pont a gyors SSD-stream(amit támogat a hardveresen gyorsított tömörítés) miatt nem kell hogy állandóan betöltve legyenek a memóriába, elég ha mindig csak az van ott ami épp kell, így sokkal kevesebb a memóriaigény, mint PC-n.
Az a 16GB a PC-n simán felhízhat a többszörösére, amit egy normálisabb gamer PC-ben manapság 16GB system RAM és 12-16GB VRAM szolgál ki... -
tsi
tag
Persze, tök igazad van, főleg mivel a legtöbb játékot nem csak egy helyen lehet beszerezni, de fejlesztője az egy van. Csak sajnos nem egy fejlesztőt láttunk már "bezárni a boltot"... Pont jogi szempontból lenne problémás a későbbiekben, ha mondjuk jogutód nélkül szűnik meg. De nem véletlenül az a cikk lényege, hogy nincs igazán tökéletes megoldás...
-
Robitrix
senior tag
A CPU speciel gyengébb mint a neki megfelelő ős AMD CPU. A konzolokban használt CPU a AMD ZEN 2-es Ryzen 7 3700X változata. Viszont a konzolban levő változat csak maximálisan 3500 MHz-ig meg fel. A PC változat órajele 3,6 GH és képes boostolni 4,3 Ghzig. Az SSD valóban gyors. Viszont Nincsen benne külön RAM és VRAM hanem egy 16 GB-os 256 bites GDR 6-os ram szolgál ki mindent. Ami előny a program futásakor, mert a GDR gyorsabb Viszont hátrány, hogy a 16 GB on osztozni kell a grafikának és a programnak is. Egy nagyobb felbontású jó minőség grafika használat igen csak megcsapolja a RAM-ot
-
tsi
tag
Volt egy ilyen sejtésem, csak igazából a cikket elolvasva az jött le nekem, hogy mivel a fordítás eredménye azonos hardveren de más szoftveres környezet (driver/szoftver verzió) esetén is más lehet, nem beszélve a hardverkombinációk számát, nem hinném hogy lenne fejlesztő, aki minden eshetőségre felkészülve fordítgat shadereket. Vagy akkor a cikkben értettem félre valamit.
-
Chaser
legenda
most van, linkeltem is
anno 5xxx-bél elszámolták a kapacitást, 3xxx-eket nem tudtak gyártatni, azért lett horribilis az áruk
most meg cpu van de lap nincs :d
intelt meg nem követem nagyon, de ott is voltak jó áron lap+cpu kombók
mindenesetre kb mindent megtesznek, hogy a lowend szegmens kihaljon -
1dude
senior tag
CPU -ból se nagyon van már. Ott volt anno az R3 3300X, gyorsan el is tüntették a forgalomból, mert vegyék inkább a R5 3600 -at. Aztán a teljes R3 sorozat ment OEM only meg a levesbe. Athlonok pl hol vannak? Intel ugyan úgy. Ami olcsó volt ment OEM only, még azért a 12. gen i5 -öt megpiszkálták, hogy a nem K variáns csak 6 magos legyen amig a K az 10, nehogy a vásárló jól járjon. A 13. genben meg már inkább ki sem adták, ahogy az i3 -at sem. Majd akkor kiadják, amikor jön a 14. gen... ha kiadják egyeltalán.
Az NV árazása csapnivaló, 1630 -on már bizonyitott. Az AMD féle IGP meg jó szokás szerint egy paper launch lesz, az 1 éve bejelnetett 6800U meg 6800H is alig kapható valamiben. Már ha kapható egyeltalán (6800U).
-
Chaser
legenda
ezt mondom, "elfelejtették" a beugró vonalat vga fronton, cpu-ból azért van, meg lap is volt fillérekért'
hangsúly a volt szón : )
de ha bányának tényleg vége, sztem hoznak újra beugró szintet, legalábbis nv, amd-nél az új igp-k ár ütősek lesznek...kár hogy platform szinten gtk az egész -
Chaser
legenda
én meg boltból vettem mortar wifit 40e-ért újan kicsivel több mint egy éve, de most meg a-a
b450-ek is eltűntek újan, mintha az amd kivezetné az am4-et, csak mondjuk cpu-ból van annyi mint a szemét
5700x is 90e alatt van több helyen, meg vannak 4c/8t-sek 30e-ért is, csak épp lap nincs :dszerk:
1dude
vga-nál bánya megborította nv/amd agyát, utolsó lowend beugrók már nem tudom mikor voltak...amúgy lenne még gt 1030 is, csak az ára bajos : ) -
1dude
senior tag
Se filléres CPU vonal nincs, se filléres VGA nincs, ehhez csatlakozott most az alaplap.
Pl ott van a 8xxx Pentium. Bőven jó lenne desktopra is, mert 5 mag / 6 szál, de már csak mobile only vagy OEM. A desktop változata meg kapott 2 magot, hogy inkább vedd a 300 dolcsis i5 -öt. Persze lehet mondani, hogy vegyél helyette valami akciós több éves terméket. De pont ez lenne a lényeg, hogy legyen már fejlesztés az alsóbb szintekre is, nem pedig majd az hogy "ja, ez az izé 2024 -ben jön, majd 2026 -ban megvesszük"... -
Chaser
legenda
nem értem az összefüggést
neked nincs rá szükséged, oké, nem veszed meg : )
egyébként meg ez szerintem jó irány volt, sokan örülnek ennek
ettől független a gyártók sara is, mert mindent egyre drágábban próbálnak meg eltolni
miközben a konzolok szépen csendben fejlődnek és egyre erősebb notebookok vannak
hááááát így nem csoda, hogy a desktop lemarad, főleg a gamer desktop -
1dude
senior tag
-
dodo1114
csendes tag
Egy ilyen cikkért érdemes volt ma megnyitni a híreket
Csak meg szeretném köszönni a szerzőnek, hogy időt és energiát szánt egy ilyen terjedelmű cikk megírásához és adatokat kapart hozzá össze -
Abu85
HÁZIGAZDA
válasz
huskydog17 #80 üzenetére
A legnépszerűbb OpenGL játék ma vitathatatlanul a Minecraft, de mint írtad ezt a legnépszerűbb OpenGL játékot nem tekinted OpenGL játéknak, így nem érdekelnek itt az eredmények. Ha pedig nem érdekelnek a legnépszerűbb OpenGL játékban mért eredmények, akkor nem akarod látni a tényeket.
Ahogy írtam korábban a probléma az volt, hogy mindkét gyártóra külön kód kellett. Az AMD-re szabott kóddal nem működött az NV drivere, és az NV-re szabott kóddal az AMD drivere. Ezért döglött meg csúnyán az OpenGL, mert egy ilyen API nem tudja ellátni a feladatát.
És a DirectX 11 után nem lett DirectX 12? Az OpenGL 4.6 után mi lett? Ja igen, a Vulkan.Nem csak a Minecraft gyorsult vele, hanem más OpenGL-es cucc is. Sőt, van Unigine teszt is OpenGL-re, az is gyorsult bő 80%-ot. Futtasd le nyugodtan. De valóban a Minecraftért fejlesztették újra. Viszont ettől még maga az API döglött.
Az OpenGL legnagyobb előnye az volt, hogy Macre abból lehetett dolgozni, de az Apple is kidobra a rendszeréből, így igazából értelmetlenné vált. Már aki Macet céloz az MoltenVK-t használ.
#78 Zotya84 : A Transport Fever 2 kapott Vulkan támogatást 2021-ben. Onnan nyílt meg egy rakás platform. A konzolok ezért nyílnak meg most, mert azoknak saját API-juk van, de a Vulkan kódból ezek könnyebben célozhatók. Azt nem tudni, hogy mi lesz az OpenGL mód sorsa, mert 2021 közepe óta nem fejlesztik. Ez nem jelent jót, mert így csak a karbantartási pénzt viszi. Előbb-utóbb hozzányúlnak a baltához és kivágják. Az a kérdés, hogy a konzolos kódot hogyan akarják fejleszteni. Ha a PC-vel együtt, és anyagilag úgy lenne az optimális, akkor még idén kiműthetik az OpenGL módot, mert az elég nagy extra teher lenne a költségeket tekintve. Jelentősége nincs, mert már mindenhol van Vulkan, amit korábban OpenGL-lel céloztak, így nyugodtan lehet kaszálni. Csak a pénzt nyomatni egy olyan API-ba, aminek a fejlesztője rá sem bagózik lassan hat éve, hát nem túl kedvező.
#88 huskydog17 : A Frictional motorja valóban OpenGL-ben van írva, csak hát szar is. Ugye évek óta pofázzák a userek, hogy oldják már meg, hogy lehessen például 60 fps-nál többel játszani, de hát nem lehet, mert kurva szar a motor, és nem nagyon van pénz vagy akarat ezen javítani. Ezt kellene tanítani 2023-ban? Hogyan írj olyan motort, ami 60 fps hard limittel működik csak? Meg is kérdezték őket nemrég, hogy a The Bunker motorja végre fel lesz-e húzva a 2023-as sztenderdekhez, vagy ugyanaz a szar lesz, mint régen. [link]
-
Chaser
legenda
válasz
Hopkins95 #96 üzenetére
szinte egyik sem, összesen van kb 30 a több szárból, vagy több ezerből
nekem is teljesen játszhatatlan az fps kontrollerrel, de az rts sem nagy élmény, de azt még elkezeltem
viszont egé+billzettel abban is sokkal hatékonyabb vagyok
unokaöcskös mondta jól, kontrollerrel olyan mintha kívülállóként játszanék, egér+billzettel meg "benne vagyok a játékban"nonsen5e
igazából mindegy mért nem natív, de akár a sony, akár az ms mondhatná hogy nohölgyekasszonyokurak', kötelező, nem csak opciós
de nem mondják -
Igen, én is nagyon sajnálom, hogy bizonyos játékok konzolon nem támogatják az egér billentyűzetet. Bár igaz, hogy a Microsoft részéről már látok erre is hajlandóságot, mert jön az Age of Empires IV Xboxra egér és billentyűzet támogatással, ami pozitívan meglepett.
Ami még nagyon hiányozna konzolon egér-billentyűzettel, az olyan játékok, mint a Metro széria vagy Battlefield. Bár a Metro Exodus Xboxon már játszható egérrel, a Sonynál továbbra is hiányzik a fejlesztők részéről a támogatás a fent említett játékokban, na ezért marad nálam is egyelőre a PC(nem tehetek róla, szeretem az FPSeket).
-
Chaser
legenda
válasz
Psychopeti #93 üzenetére
még nem, egy darabig még nem is fog
de a gamer pc szépen átalakul rétegtermékké ha így haladunk
a konzolok egyre jobbak, már csak az a bizonyos kontroller tántorít még el sokakat tőle -
Chaser
legenda
összevetni lehet, de vajmi kevés értelme van
olyan vga-val hasonlítod ami magában kb 3x annyiba kerül mint az xsx/ps5 - nyilván új árakról beszélünk -
mire abból gép lesz már cirka ötszörös árdifiről beszélünk
hát hogy szépen fogalmazzak, kurta csúnya lenne ha nem tudna jobb grafikát : )
és akkor tegyük mellé a fogyasztást is, a gép hangját, stb..ezekben is elvérzik az ilyen kategóriás pc, térfogatról beszélve
szerintem a legzseniálisabb konzol ami eddig kijött a series s a maga 2,6l-es térfogatával és kvázi néma működésével - terhelés alatt is -
éa hát azért a kemény 108e ft-ért amennyiért most is hozzávágja alza bárkihez, hát na - most esik le ez infláció előtti msrp alatt van..lol : ) -
szóval ennyiért a fentiekkel el lehet viselni szerintem a gyengébb grafikát is
egyébként a számítási teljesítmény magában csak egy szám
a pc-ből rengeteg komponens van a piacon, nehéz rá fejleszteni, legtöbbször erőből oldják meg
konzolra meg célirányosan fejlesztenek az adott hw-re, és ésszel oldják meg
egyedül azt sajnálom nincs natívan egér+billzet konzolnál játékokban, az még jelentősen megcsapolná a pc-k forgalmát -
philoxenia
MODERÁTOR
válasz
huskydog17 #88 üzenetére
Az jó dolog, ha egy indie csapat egy teljesen saját fejlesztésű motort készít és tart fent, az igazi ritkaság és kincs a mai gaming világban nyilván.
Nem igazán erről beszélek. A kérdés az, hogy egy általuk tíz év múlva fejlesztett játék futtatható lesz-e egy akkori olyan kategóriás kártyán, mint ami a jelenlegi PC-mben van? (GT1030) Mert ha az AAA címekkel tudok játszani konzolon, a csak PC-n játszható játékokért nem fogok méregdrága kártyát venni egy játék kedvéért sem. Gyakorlatilag azért kellett konzolt vennem, mert nem bírtam már a gépfejlesztést az újabb játékokért.
PC-re más okokból is szükség van persze, de játszani utoljára Diablo 3 -al játszottam komolyabban PC-n. Konzolon hozzáférhetők az AAA címek általában. Most kiadott játékok még futnak a konzolomon, amit akkor vettem, mikor már olcsó volt. A PC-m újabb már vagy két-három évvel kb. de bár i3 a proci is, mégis drágább volt. Azon már csak kb. 8-10 éves játékok futnak csak. Ha futnak. Viszont azért tíz éves PC-vel nem szívesen lennék fönn a neten. Meg azért a fotó/videófeldolgozás is kell néha az embernek. -
pzg
tag
válasz
huskydog17 #88 üzenetére
„Nem. A DX12 és a Vulkan a Mantle-ből született, a kettő kb. 90%-ban azonos, semmi közük a legacy API-khoz.”
Akkor mi „Nem”? Ez nem cáfolja a kijelentésemet, hogy „A Vulkan az az OGL-nek, mint a DX12 a DX11-nek, technikailag.” Write-only-ban vagy?
-
pzg
tag
válasz
#88750080 #55 üzenetére
„Nem. Az übershadernek pont az a lényege, hogy lefordított binárisból kevesebb legyen, azaz futásidejű if-else-ekkel kontrollálhatóak legyenek. A source az tök mindegy, de az #ifdef-ekkel pont az ellenkezőjét szokták elérni, hogy egyetlen forrásból sok variáns fordulhasson futásidejű elágazások nélkül.
Pl. DX9-ben ott vannak a SetVertex/PixelShaderConstantsB nevű metódusok, pont a shaderhez köthető 16 db bool-t tudod vele állítani ahhoz, hogy a shadered lefutási ágait vezéreld vele.”Sajnos az előzménybeli hozzászólásomat kicsit szerencsétlenül sikerült megfogalmaznom. Amit valójában állítani akartam, az az, hogy az „übershader” fogalom lényege, hogy a különböző programvariánsokat egyetlen közös forráskódú programba/shaderbe próbálják összevonni, és ebbe belefér mind a futtatáskori if-else, mind a fordításkori #ifdef-#elseif-#endif. A lényeg, hogy közös legyen a forráskód, tehát csak egyetlen forráskód legyen az összes shader-variánsra. Mert a sok különböző komplex shader-variáns, ahol a változatokban vannak egymásból másolt részek is, egyszerűen fenntarthatatlanul fejleszthetetlenek (lásd: code maintenance). Tehát: az „übershader” fogalom a forráskódról szól, és semmit nem mond a lefordított binárisok számáról.
Az if-else témában: Az igaz, hogy a shader futásakori if-else elágazás, amennyiben shader-konstanson alapul, állítólag nem jár plusz erőforrásigénnyel (ellentétben azzal, ha egy pár sorral feljebbi kiszámított érték alapján ágazna el a program, mert utóbbi esetben a GPU mindkét ágat kiszámolná, és utólag dobná el a nem kellőt). De azért egy bool érték ugyanúgy 4 byte-on tárolódik, és azt ugyanúgy át kell passzírozni a VRAM-ba... Tehát ha van egy frame-en, mondjuk hasraütésszerűen, 2000 draw-callod, és a shadernek van pl. 15 fajta végrehajtási változata, akkor 4*15*2000 =120 kByte/frame csak arra, hogy vezéreld a shaderedet, és még semmit nem rajzoltál. Ezt most szorozd be 60 FPS-sel, és kapunk egy jó kis 7 MByte/s-et csak arra, hogy ide-oda ágaztassuk a shadert. Ez lehet sok vagy kevés, de mindenképp megspórolható, ha annyi shaderváltozatot fordítunk #ifdef-ekkel, amennyi kombinációt összesen használunk (többszáz lesz!), és már eleve azt hívjuk meg, amelyik kell az adott draw-callhoz.
-
huskydog17
addikt
válasz
philoxenia #85 üzenetére
Almát körtével hasonlítasz, milliárdos cég hátszelével támogatott sok millió dolláros AAA játékot aztán nagyon fair egy nagyságrendekkel kisebb büdzsével rendelkező indie dev-hez hasonlítani. Tőled azért kicsit komolyabb reakciót vártam volna. Az is meglepő számomra, hogy a Frictional ismeretlen számodra, pedig igencsak híres a három franchise-juk, na persze azoknak akik nem kizárólag a sok millió dolláros AAA címek világában élnek, hanem az indie piacot is figyelik, a horror témában jártas emberkéknek pedig alapműnek számítanak. A Frictional ráadásul olyan jól optimalizálja a HPL motorját, amit tanítani kéne. Ez azonban már nagyon messze van az eredeti témától. Mindössze arra akartam rámutatni, hogy az OGL nagyon nem halott, kb. annyira halott mint a DX9 vagy a DX11, legalábbis Abu felfogása szerint, mert ugye egyike sem frissítik már, de ez teljesen irreleváns.
Amúgy a Teardown is hatalmas siker, indie fronton már a 100.000 példány is siker, nem hogy az egymillió! Ezen felül ha egy indie csapat egy teljesen saját fejlesztésű motort készít és tart fent, az igazi ritkaság és kincs a mai gaming világban.#86 pzg: Nem. A DX12 és a Vulkan a Mantle-ből született, a kettő kb. 90%-ban azonos, semmi közük a legacy API-khoz. Erről rengeteg cikk született még itt a PH-n is, érdemes először olvasgatni azokat mielőtt ilyen valótlan kijelentéseket teszel.
-
boxmaci
tag
Ha te azt gondolod, hogy pusztán a Tflopsokkal meglehet így mondani hol áll egy mai PC egy Series X/PS5-höz képest, vagy egy az egybe összevetve csak a CPU-kat, akkor baromira tévedsz. Azért ezek a konzolok most nagyon jó felépítést kaptak architektúrálisan. Ha csak az eddigi crossgen fejlesztéseket nézzük, akkor így két év után most kb azt látjuk, hogy konzolokon PC high vagy max közeli beállításokban futnak ezek a játékok, az előző genhez képest sokkal jobb framerate-el. Előző generációban két év után jó ha medium vagy low körüli beállításokat tudtak a konzolok... Azokkal a játékmotorokkal, amikkel ki is használják majd rendesen a jelen konzolokat pedig még inkább nem lehet lineárisan megmérni a PC teljesítményt a konzolokkal összevetve. Már most 32 GB memóriát és felsőkategóriás PC konfigokat ajánl egy két játékfejlesztő, hogy konzol minőségben futhasson majd a játékuk. A mostani konzolokban ugyanis brutál jó az SSD I/O adatátvitel sebessége, meg ott a hardveres dekompressziós blokk, amikkel jelentős terhet lehet levenni a CPU és GPU-ról. Plusz egy halom olyan feature-t tudnak, amit csak mostantól kezdve, két év után fognak használni a rájuk készülő játékok. Ezekhez pedig kelleni fognak az erős PC-k és a többlet Tflops, RAM.
-
pzg
tag
válasz
huskydog17 #69 üzenetére
„Te gondoltál arra, hogy szimplán hülyeség amiket leírtál itt? Vulkan-nak semmi köze az OGL-hez, legfeljebb csak annyi, hogy mindkettőt a Khronos Group készítette, de ennyiben ki is merülnek a hasonlóságok.”
A Vulkan az az OGL-nek, mint a DX12 a DX11-nek, technikailag.
-
philoxenia
MODERÁTOR
válasz
huskydog17 #83 üzenetére
Nem kellett rendezni, azt a pár címet ctrl+F-el is megtaláltam...
Egyről sem hallottam eddig.
Szó szerint nyilván nem igaz, hogy nincs játék OGL-re, vagy nem fejlesztenek rá, de gyakorlatilag nem számottevő a részesedése.
Olyan táblázatot kellene keresni, ahol az utóbbi három év játékait bevétel szerint hasonlítja össze OGL vs. nem OGL esetében. Azaz mennyi bevételt termeltek összesen.
Lovaskocsit is látok még néha, de bár falun lakom, még itt is százszor annyi a villanybicikli...Az általad említett játékokból egyet sem ismerek, nem is hallottam róluk...
Viszont, ha komoly igény nem lesz rá, hamarosan (mondjuk tíz éven belül) gyakorlatilag ki fog halni szvsz. az OGL..
Teardown-ra rákerestem 1 millió fölött adtak el, ami nyilván elég sok egy ilyen játékból, de pl. A Ragnarökből azért csak ilyen keveset, mert exkluzív.
A Teardown 16 eur most a steamaen, míg pl. a GoW előző verziója majd kétszer annyiba kerül 40%-al leértékelve és ez itt már csak profitmaximalizálás.
RDR II még mindig 20 eur 67%-al leértékelve a steamen és ugye ez már csak padlássöprés itt is.[link] -
huskydog17
addikt
válasz
philoxenia #76 üzenetére
Komolyan nem értem a kérdést. Ott a részletes táblázat, megjelenési dátum alapján is tudod rendezni, pár másodperc alatt látod, hogy nem csak 10-20 éves játékok vannak ott. Az meg, hogy neked mi a komoly annak semmi köze ahhoz, hogy az API-t a mai napig aktívan használja sok indie fejlesztő, azaz az API nem halott.
Indie téren nyilván sokkal-sokkal nehezebb elérni a milliós nagyságrendű eladást, nem is értem, hogy ez miért várod el tőlük, főleg hogy annak semmi köze az eredeti témához, na meg a legtöbb fejlesztő nem adja csak úgy ki ezt az információt. A táblázatból kedvedre tudsz csemegézni, ne nekem kelljen helyetted értelmezni.
Ha nagyon gyorsan fejből kéne mondanom olyat, amit milliós példányszámban adtak el, akkor a Frictional játékokat( Penumbra, Amnesia, SOMA) lehetne példának hozni, a híres Amnesia sorozat 4. része (Bunker) idén márciusban jelenik meg kizárólag OGL támogatással, ahogy az összes többi rész is. Szitén óriási siker lett még a Teardown, ami szintén OGL only motort használ, vagy a Carrion, szintén OGL only. Ez csak néhány kiragadott példa, napestig lehetne folytatni a sort, de erre ott a teljes táblázat. -
philoxenia
MODERÁTOR
Nem vagyok olyan jó angolból, hogy elolvassam.
Ráadásul ez a játék nemcsak nekem ismeretlen nyilván.
Eddig talán említve se láttam, míg az Elden Ringről, mint kiderült te is olvastál.
Nyilván teljesen más a célközönség, viszont azzal se játszik éppen mindenki.
A legnagyobb példányszámban eladott játékok viszont tudtommal konzolon (is)kezdtek mostanság és nyilván az első két-három évben fogy a legtöbb egy játékból, de a legnagyobb bevétel mindenképp akkor van. -
Zotya84
őstag
válasz
philoxenia #79 üzenetére
Halkan megkérdem, elolvastad a link mögötti tartalmat?
Csak mert anélkül válaszod kicsit fura egy kis csapat lassan, de folyamatosan bővített, javított 3 éves játékánál, aminél ez annyira nem meglepő, ahogy az sem, hogy két évig tartott, mire megcsinálták Macre. Ha olvastad, még furább.
Elden ringet nem ismerem azon kívül, hogy olvastam róla... -
huskydog17
addikt
Előre tudom, hogy idő és energiapocsékolás belemenni ebbe a diskurzusba, mert a valóságot e téren nem vagy hajlandó figyelembe venni, de azért teszek egy próbát az értelmes diskurzusra.
"Az AMD OpenGL drivere most kb. a leggyorsabb, mert újraírták az egészet."
Ki szerint, milyen játékban, milyen setup-al? Hol a teszt, melyik teszt szerint? Konkrét független teszteket kérünk, én sajnos egyet sem találtam az egész interneten. Minecraft nem teszt.*"A korábbi AMD OpenGL driver egy workstation driver volt, ami maradéktalanul betartotta a szabványt, csak nem volt gyors a szabványosság miatt."
Ja persze, számos játék ezért nem volt hajlandó működni vagy egyszerűen iszonyat szarul működött, kb a játszhatatlan volt (vagy még mindig az?)"Vagy szerinted normális, hogy gyártói szinten külön kód kell, mert másképp értelmezi a specifikációt az AMD és az NV?"
Szerinted normális az, ha az OGL játékok zöme NV kártya alatt szépen fut ahogy kell, míg AMD kártyák alatt szarul? Egész véletlenül számos egymástól teljesen független OGL játék hibátlanul működik NV alatt, míg AMD alatt az élmény finoman fogalmazva értékelhetetlen."Mióta nem frissítették az OpenGL-t? Ők már elkönyvelték halottnak."
Legkisebb mértékben sem lényeges információ, szokás szerint értelmetlenül terelsz. Mikor frissítették utoljára a DX11 vagy DX9-et? Érdekes módon mai napig vannak DX9-es DX11-es-es játékok független tesztekben. A bátai beteg kutyát nem érdekli, hogy mikor frissítettek utoljára egy API-t ha még a mai napig számos és népszerű játék használja. Az Intel vajon miért öl pénzt és erőforrást DX9-be? Nekik nem szóltak, hogy lassan 20 éve halott API? Több indie stúdió sokkal jobb optimalizálást érnek el OGL alatt, mint néhány nagy sok millió dolláros AAA cím. A fejlesztőket miért kéne érdeklej az API kora, ha számukra megfelelő sebességet és technikai hátteret biztosít? Amilyen szar volt az Intel DX9 alatt, olyan sz*r az AMD OGL alatt, saját tapasztalat.A legszebb az egészben, hogy ismét szokásodhoz hűen megint saját magaddal kerültél ellentmondásba: ha annyira halott az OGL, akkor az AMD miért ölt pénzt és emberi erőforrást az OGL driverbe? A válasz egyszerű: mert a Minecraft népszerű, túl népszerű. AZ AMD is azt mondja ezzel, hogy ha van olyan játék amiért megéri erőforrást ölni egy 20 éves API-ba, akkor beleölik, azaz lényegtelen, hogy egy API-t mikor frissítettek utoljára.
*Itt érkeztünk el a korábbi kijelentésemhez, miszerint a Minecraft nem teszt. Az AMD kizárólag a Minecraft-ra vonatkozólag csinált fejlesztést az OGL driver-ben, semmilyen más OGL játék nincs említve és ugye egy játék nem játék, főleg, hogy a Minecraft egy technikai katasztrófa és nem az API miatt. Szóval az AMD Minecraft mérési alapján abszolút semmilyen következtetést nem lehet leszűrni az AMD aktuális OGL driverére vonatkozóan.
Jelenleg 1451 OGL-t támogató játék van a PCGamingwiki adatbázisában, lehet csemegézni. Csak az idei évben egy tucat, OGL-t támogató játék jelent meg, ennyire halott az API.#72 E.Kaufmann : Az ATS esetében van DX11-es leképző is, mert a Prism3D motor utólag kapott DX11-et is, ami elvileg a leggyorsabb, de amikor kollégámmal fél éve toltuk az ETS2-t (ugyanaz a motor és leképző) akkor én nem vettem észre különbséget OGL és DX11 között, viszont a játékostársam igen, mert nála az RX470 OGL alatt csak jobban köhögött.
Sajnos a motor brutálisan CPU limites.
-
philoxenia
MODERÁTOR
Gondolj bele, hogy egy 2019-es játék csak most jön konzolokra. Azaz reklám, ilyesmi, hogy egyáltalán tudj róla, hogy létezik már évekkel ezelőtt lecsengett... Mondjuk egy Elden Ring szintű játéknál ez hatalmas öngól lenne.
Webfordítóval megnéztem a cikket. Az ilyen játékokból még jöhet valamennyi pénz, de Boxon valószínűleg rögtön a Game Passban kezd majd, vagy nemsokára odakerül. Nagyon rétegjátéknak tűnik. Az ilyen játékokkal jobb lenne eleve közlekedési cégeknél házalni. Rendes vasúti szimulátor például máig nincs a MÁV-nál. -
Zotya84
őstag
válasz
philoxenia #76 üzenetére
No, hát én a Transport Fever 2-t mondanám komolyabbnak, bár tudom, az itt nem biztos, hogy az. Ellenben 2019-es.
Viszont, ami miatt mégis említésre méltó: elvileg 2 hónapon belül jön a konzolos verziója. Szóval, nem tudom, hogyan, de megoldják valahogy. És biztos, hogy nem DX-re mennek, hiszen Konzol+Win+Linux+MacOS-re is működővé teszik. -
Robitrix
senior tag
válasz
philoxenia #71 üzenetére
Azért ez is relatív. Például egy FPS vagy a belső nézetes lövöldözös játékok alapban nem a kontrollerek terepe. Viszont mégi megjelentek az ilyn játékok a konzolokra. Aztán, hogy mégis ellensúlyozzák a hátrányt, hogy egy kontroller nem kifejezetten pont mutató eszköz, mint egy egér igyekeztek különféle célzás resegitőkkel javitani a kontroller hátrányán(Aim Assist) Mára eljutottak oda, hogy mondjuk vérre menő vita folyik a neten, hogy mennyire sikerült túl tolni a kontroller támogatást a nem támogatott egérhez képest. Az mindenesetre figyelemre méltó, hogy az igazán jó eredményeket a játékban nem egérrel érik el, hanem kontrollerrel. Ami tényleg arra utal, hogy túl vannak támogatva a kontrollerek elvégre normál esetben nem reális, hogy átlagosan kétszer olyan pontosan lőnnek kontrollerrel, mint egérrel. Ja aztán csodálkozom, hogy én vért izzadok az egérrel mire sikerül precizen fejbe lönöm valakit távolabbról. Nekem úgy rá kell illesztenem az egeret pixelre a célra, hogy fejbe löjjem sikeresen az ellenfelet. Miközben akik kontrollerrel játszanak hála a játék szoftveres célzás támogatásának sorra lővi fejbe az ellenfeleket. Szóval a kontroller hátránya nem feltétlenül igaz minden célzos játékban sem.
-
philoxenia
MODERÁTOR
válasz
huskydog17 #69 üzenetére
Olyan lista kéne, amiben nem tíz-húsz éves játékok szerepelnek.
2022-es cím a listában elvétve van. Komoly játékot (amit milliók vesznek meg) mikor írtak utoljára OGL-ben?
Az OGL-ben írt játékot modern konzolokra milyen módon lehet portolni? -
Robitrix
senior tag
A grafika volt rajta megtolva nagyjából 40%-kal erősebbre, mint a PS 4 pro. Amikor ráncfelvarták az elöző konzolgenerációt a Sony jelentősen ráesrösített a grafikára. Megduplázták a shader egységek számát emelték a grafika órjelét stb. Így az alap PS 4 nagyjából 1,92 Tflops lebegőbontos teljesítménye felugrott 4,3 Tflops környékére. (Nagyjából ezt tudja egy GTX 1060 is. A XBOX esetében csak úgy 30% körül emltek a grafikai teljesítményen. Így pár évig azért hátrányban volt az XBOX a PS 4 PRO-hoz képest. Ezt orvosolták végül is az XBOX One X megemelt grafikai teljesítményével már lenyomva a PS 4 PRO-t. CPU-hoz nem igen nyúltak hozzá az maradt a 2017 körüli szinten.
-
Abu85
HÁZIGAZDA
válasz
E.Kaufmann #52 üzenetére
Inkább akkor romlott el, amikor elkezdtek jönni a komolyabb hardverek, és komplexebb shadereket lehetett írni. Na az már nem ment, mert az API egészen az OpenGL 4.6-ig nem alkalmazott köztes nyelvet, így minden gyártóra külön kellett shadert írni, ha valami komolyabb dologról volt szó. Az OpenGL 4.6 ebből a szempontból működne, mert az megkapta a SPIR-V-t, csak már van helyette Vulkan.
Az OpenGL-nek tehát ott lett igazából vége a játékok szempontjából, hogy amikor elkezdődött a shaderek igazi forradalma, és komplex programokat lehetett írni, akkor nem tartották fontosnak a köztes nyelvet. De még ez sem lett volna baj, ha elég egyértelműen fogalmaz a specifikáció, de a GLSL speckót a gyártók szándékosan vagy véletlenül elkezték félreértelmezni, így például voltak gyártói szabványos workstation driverek, és nem szabványos performance driverek, amik nyilván nem ették a szabványos kódot. De a szabványos driverek meg a specifikus kódot nem ették meg, tehát mindenki odáig jutott, hogy per gyártó alapon kellett shadereket írni, vagyis minden gyártóra külön. Az meg ugye milyen szabvány, amikor mindenképpen annyiszor kell dolgozni ahány gyártó van? Ez volt az a pont, ami kivégezte. De amúgy OpenGL 2-es szintig használható még ma is, csak az ugye 2004-es tudászint, ami nem túl elfogadható így 2023-ban.
#69 huskydog17 : Az AMD OpenGL drivere most kb. a leggyorsabb, mert újraírták az egészet. A probléma viszont ugyanaz lett vele, mint az NV OpenGL driverével. Mostantól nem szabványos. De ugye úgy voltak vele, hogy ha az NV így akarja, akkor legyen így, és a szabványosság feladásával fizetnek a teljesítményért. A korábbi AMD OpenGL driver egy workstation driver volt, ami maradéktalanul betartotta a szabványt, csak nem volt gyors a szabványosság miatt. Az, hogy egy API ezt önmagában megengedi maga a tragédia. Vagy szerinted normális, hogy gyártói szinten külön kód kell, mert másképp értelmezi a specifikációt az AMD és az NV? És ez láthatóan a Khronost sem érdekli. Mióta nem frissítették az OpenGL-t? 2017? Ők már elkönyvelték halottnak.
-
E.Kaufmann
veterán
válasz
huskydog17 #69 üzenetére
Na így hírtelen a listából kedvet is kaptam az American Truck Simulator-hoz
-
philoxenia
MODERÁTOR
Nekem a legnagyobb gond a billentyűzet és az egér korlátozott támogatása. Gyakorlatilag egy csomó dolgot nem igazán tudok megoldani kontrollerrel. Az előző boxot azért is adtam neki a fiamnak, mert szinte egyáltalán nem tudtam játszani egy csomó játékkal. Az egeret sokkal pontosabban tudom vezetni. Az meg szenvedés, mikor valamit be kell írni.
-
Robitrix
senior tag
Na ja hiszen a PS 4 2013 karácsonyára jelent meg. a használt 4 magos CPU meg úgy 2011-2012 környékéről származott. Eleve 1,6 és 1,7 GHz-es változatot használtak alapban. Amúgy tudtommal az XBOX-ban volt a 100 mhz-el gyorsabb CPU. Aztán mikor jöttek a ráncfelvarrások PS 4 PRO és egyebek akkor felment a CPU órajel 300-400 Mhzel. Persze ma már teljesítményben egy 4 magos proci 1,6-2,1 GHz-en technikatörténelem azért nem valps teljesítmény.
persze az is igaz, hogy az eszközök teljesítménye és az adot kor játékainak igénye azért erősen kéz a kézben járnak. Elvégre ha valaki készit egy programot akkor igyekszik úgy méretezni a szükséges teljesítményt, hogy adott kor átlag hardverén megfelelően fusson. Elvégre egy játékot nem ezer Richi Richnek kell eladni beverly Hillsen. akinek 5 milliós számítógépe van, hanem pár százezer John Smithnek, akinek 1000-1500 dolláros az átlag gépe. Belölük van pár 100 ezer potenciális vevő.
-
huskydog17
addikt
válasz
E.Kaufmann #52 üzenetére
"Nem teljesen értem ezt, hogy az OpenGL alkalmatlan játékokhoz."
Nem az."Ugye régen voltak rá jó játékok."
Most is vannak.A PH-n kizárólag csak azt veszik figyelembe, hogy az aktuális sok millió dolláros AAA címeket hogyan készítik. Az, hogy számos indie stúdió jobbnál jobb játékokat csinál OGL alatt, az itt nem számít, pontosabban azt ignorálják, azok itt nem léteznek. Ezért olvashatsz itt olyan bullshit kijelentéseket, hogy az OGL alkalmatlan játékra. Ha az lenne, akkor sok éve teljesen kihalt volna, de nem halt ki, sőt több olyan indie csapat van, akik saját fejlesztésű OGL motort írtak és továbbra is azt fejlesztik.
Abu mindig 1-2 nagy pénzes stúdió munkája alapján általánosít az egész gaming iparra, ami - a mellett, hogy nyilván über-gáz - tőle sajnos nem új, épp ezért nem szabad neki mindent elhinni amit összehord. Ezen felül ő azért írja katasztrofálisnak az API-t, met az AMD OGL drivere egy nagy rakás kaki kb. másfél évtizede, de ezt ő soha nem fogja elismerni, épp ellenkezőleg. Ugyanaz a mese, minthogy hirtelen sz*r lett az összes PC-s RT szabvány. Végtelenül egyszerű a képlet nála: amiben sz*r az AMD, ott Abu szerint nem az AMD termék a rossz, hanem a szabvány. Nem szabad őt komolyan venni és kész.#53 pzg : Te gondoltál arra, hogy szimplán hülyeség amiket leírtál itt? Vulkan-nak semmi köze az OGL-hez, legfeljebb csak annyi, hogy mindkettőt a Khronos Group készítette, de ennyiben ki is merülnek a hasonlóságok.
Továbbá itt a valóság többi része. -
PuMbA
titán
"Vagyis az XBOX One X mint az elöző generáció legerösebb konzolja végül is jól teljesít ma is."
Csak az a baj, hogy a 30fps-nél több nem megy neki a gyenge CPU miatt. Túl erős benne a GPU, a CPU meg nagyon gyenge. Elég féllábas gép. A Series S sokkal kiegyensúlyozottabb összeállítás, mert képes 60 fps-re.
-
Robitrix
senior tag
válasz
philoxenia #61 üzenetére
Az XBOX One X az a legerősebb konzol volt az elöző generációban a maga 6 Tflops grafikai teljesítményével lenyomta a PS 4 PRO 4,3 Tflops teljesítményét. SImán lenyomja a lebutitott XBOX series S CPU-ban nem de grafikában feltétlenül. Persze olyan adatokat nem tudok, mint memória sávszél, memória órajel vagy egyáltalán a VRAM tipusa és egyebek. De 32 bites lebegőpontos számításban tényleg erősebb a grafika. Vagyis az XBOX One X mint az elöző generáció legerösebb konzolja végül is jól teljesít ma is.
-
PuMbA
titán
"ezzel együtt bár volt 8 mag a konzolban de nem igen lépett túl az igény a PC-kben is sok éven át a tipikusan 4 magos igényen"
Mert az a 8 darab Jaguar mag kegyetlen lassú volt, a 30fps-t alig bírta kiköhögni és egy 4 magos Intel PC proci gyorsabb volt
Ezért maradt PC-kben a 4 mag, mert a magszámnál sokkal fontosabb az összteljesítmény. Most is hozza a konzolokban lévő 8 magos teljesítményét egy legújabb 6 magos proci, hiszen az architektúra folyamatosan javul.
-
Robitrix
senior tag
Olyan szempontból reális a hasonlitás, hogy a legjobb konzolok teljesítményét veti össze az ember a legjobb PC grafikák teljesitményével. Persze, ahogy telnek az évek nyilván az átlagos PC grafikák teljesítménye is kapaszkodik felfele. Azért ha azt nézi meg az ember, hogy mi volt 3 éve az átlagos PC grafika teljesítmény és mi ma azért van jelentős alőre lépés.(nem csak az árban)
És nyilván jelentősen más lesz az a szint, amit mondjuk 2-3 év múlva majd átlagnak tekintünk. 2-3 év alatt kifognak adni a grafika gyártók vagy két új sorzatot. Vélhetően mondjuk 3 év múlva nagyjából azt fogja jelenteni mondjuk egy RTX 4000-es sorozat a grafikai kártyák közt, mint ma egy GTX-1000-es....
-
Robitrix
senior tag
a PS 4 és az annak megfelelő XBOX-okban kapásból 8 mag volt eleve akkoriban. egy 2 darab 4 magos AMD proci variáns volt bennük. Azt hivták eredetileg Jaguár arcitekturtának és szerverekbe vagy munkaállomásokba szánták. Aztán villámgyorsan túl lépett rajuk a piac, mert már karcsú volt ilyen gépekbe a 4 magos cpu. Így a felejtésre is lett volna itélve a cpu mikior felkarolták némi változással, hogy akkor elgyen az a PS 4 és ÍXBOX CPU-ja. De már kapásból elve két darabot raktak bele a konzolokba. Ezzel együtt bár volt 8 mag a konzolban de nem igen lépett túl az igény a PC-kben is sok éven át a tipikusan 4 magos igényen. És bár tény, hogy a mai konzolokban egy 8/16-os AMD CPU varriáns van, de továbbra se tobzodunk igaán az olyan játékokban, amik mondjuk 8+ magnál vagy szálnál többet igényelnének. Igaz azért egy játékprogramban logikai alapon elég nehéz úgy megirni a programágakat hogy azok értelmesen és párhuzamosan sok magot és szálat használjanak adott pillanatban. Egy játék program túl seeméyn és véltelen vezérelt így nehéz tervezni akárhány ány párhuzamos programágat. más egy feldolgozó program, ami ugyan azt a feladatot végzi különféle adatokon ugyan abban a feladatban. Például egy képfeldolgozó akármilyen feladat. Mint például a Cinebench renderelése. Ha 4 magom van akkor 4 képdarabot renderel egyszere ha 64 szálam van akkor meg 64 darabot. ott skálázható a teljesítmény és osztható a feladat. Egy játék programban nem. Így valami azt súgja, hogy 10 év múlva se fogunk kihasználni mondjuk játékban egy akkori átlagos 64 vagy 128 magos(szálas) CPU-t.
Azért tutira ránk fogják sózni, hogy az a menő aztán továbbra is csak 8-10 magon fogunk játszani....
-
Robitrix
senior tag
ez azért egyáltalán nem biztos a csapás irányt tekinteve. Ráadásul eleve vannak eltérések az XBOS és a PS-re megjelenő játékokra, amihez ma már teljesen egyenértáküen készülnek a PC verziók. Többnyire igyekeznek minden platformra kiadni a játékot, hogy minnél szélesebb réteghez jusson el. Sok bőrt lehúzni a rókáról. Amúgy számos játék van, ami konkrétan először PC-re jelenik meg aztán lesz belőle valamelyik konzolon játék.
-
Robitrix
senior tag
Na j csak a netről letöltés hátránya, hogy használunk vagy 150 féle videókártyát. Aztán simán lehet szerte az utolsó 3 féle driver a kártyához a gépeken. Vagyis adott esetben simán keresgélni kéne vagy 400-450 verzióból, hogy nekem pontosan melyikre van szükségem. Ráadásul nem vagyok teljesen meggyőződve róla, hogy X játékhoz készülő shader fordítás mennyire felel meg Y játékhoz készülő forditással. Vagyis mondjuk egy Warzone esetében készülő shader forditás mennyire passzolna mondjuk egy Starwar Battlefront II-vel(ott is van shader fordítás játék inditáskor) vagyis ha eltérnek egymástól vélhetően vagyis figyelni kéne arra, hogy melyik játék melyik hardveréhez és melyik driveréhez való fordításra van szükség.
-
philoxenia
MODERÁTOR
Gyakorlati példát hoznék, felhasználói oldalról. A Witcher 3 most kapott ráncfelvarrást és korábbi generációs konzolon (XBox One X) játszok vele. Ráadásul sokadszor. A játék még mindig nagyon jól néz ki. Alapvetően tehát az, hogy egy játékból mennyi "vehető ki" akár grafikailag is, nem a technika/technológia függvénye csak. Anno húsz huszonöt éve, mikor még minden grafikus kártya generáció óriási előrelépés volt, sokkal többet számított, hiszen amikor a Ps1-et először láttam élőben, a saját PC-mhez képest "áll-leejtős" volt a grafikája. Ma a játékok viszont már olyan szinten szépek és részletesek, amit nehéz tovább fokozni rövid idő alatt. Ma alapvetően a grafikai szépsége egy játéknak nemcsak, sőt, ki merem jelenteni, főleg nem a technikán múlik, hanem a művészi, alkotói teljesítményen. Mindenkinek rengeteg színben vannak festékei és rengeteg ecsetvastagság is rendelkezésre áll, nem mint anno, amikor egy ceruzával kellett hatalmas teljesítményt elérni. A grafikus kártyák számítási teljesítményének jó része ezért további fejlődésük esetén kihasználatlan marad. Ha majd olyan dolgokban tudnak besegíteni, ami nem a megjelenítéssel kapcsolatos, mint nemrég a kriptovaluták termelése, akkor sokat fog jelenteni. Most a 4k felbontás nagyon elégnek tűnik. A mai megjelenítőméretek mellett pláne. Ha majd falnyi tévé lesz minden lakásban, lesz értelme a 8k vagy magasabb felbontásnak. Jelenleg a lakásméret a keményebb dió la legtöbb helyen.
Másik példával élve, mikor megjelentek az első digitális fényképezőgépek, sehol nem voltak a filmhez képest. Aztán a profi gépek elérték, majd meghaladták a filmes gépek teljesítményét, később már az amatőrök is. (most persze a szenzorok teljesítményéről beszélek) Jelenleg egy közepes mobiltelefonban már olyan technika van, ami a legtöbb ember igényeit kielégíti. A fotósok szakmájának túlélését már nem a profi fényképezőgép minősége teszi lehetővé, (a technikai kidolgozás feltételeivel együtt) hanem a szakértelem, a világítás, a stúdiókörülmények. A játékosok túlnyomó többsége egyszerűen játszani akar, szép játékokkal persze, de kevés játék van, ahol a valósághűség a képi világban adja a játékélményt, mert egyszerűen nincs rá idő játék közben, hogy azt csodáljuk, mert inkább a történések a fontosak és az irányítás. -
Chaser
legenda
ahogy mondod, azért nem ilyen árkategóriás vga-hoz kellene hasonlítani
ha most megnézed egy konzol árát és abból milyen pc-t kapsz - amibe ugye nem árt cpu, aaplap, memória, ssd, táp sem -, akkor a következtetés:
lol
: )
bár xsx és ps5 ára kicsit magasabb lett, de még akkor is anyagilag kicsit élhetőbb, kis s-ről ne is beszéljünk -
PuMbA
titán
"Mi lesz itt 6 év múlva?????"
Az, ami eddig. A konzol a játékfejlesztés fő csapásiránya, így az lesz a mértékadó gépigényben. Előző generációs konzolok idején is elég volt PC-hez egy közepes sebességű 4 magos proci évekig, mert a konzolokban is hasonló teljesítményű volt. Most is elég lesz egy Zen 3, Intel Rocket / Alder Lake + egy 12 TFLOPS-os RTX3060 vagy RX6600XT még évekig, ha nem akarunk extra-ultra grafikát
-
Robitrix
senior tag
Mondjuk én tipikusan WZ-t játszom, ahol szintén van változáskor shader fordítás. Bár ők optimalizálásnak hívják. Valójában azt a havonta 3-4 percet simán ki lehet birni, amíg lezajlik úgy kb. havonta egyszer. Ha ez az ára annak, hogy optimálisabban fusson a grafika a konkrét hardveren simán elviselem.
-
Robitrix
senior tag
viszont a konzolok grafikai teljesítménye már most kezd jócskán elamaradni a újabb PC grafikáktól. Például egy xbox series s grafikának a teljesítménye 32 bitre lebegő pontos számításban 4 tflops. egy XBOX seris x meg 12 Tflops. a PS 5 meg 10,2 Tflops. Ezzel szemben egy 3090 TI úgy 40-43 Tflops. egy RTX 4090 meg úgy 75-80 Tflops kb. És csak 2 éve vannak az újabb konzolok. eltelik úgy még két év és a konzolok nagyjából az életciklusuk felénél lesznek mikor már a PC-k grafikája valahol a 100-150 Tflops körül fog járni. Persze nyilván nem mindenki 3090 TI vagy RTX 4090 illetve 2 év múlva RTX 5090 vagy RTX 6090(vagy ki tudja) stb grafikát fog használni. Minden esetre egy konzol nem fejlödik éveken át. az csak azt tudja ami belekerül a vásárláskor. Ha megnézzük a PS 3 vagy PS 4 életciklusát látszik, hogy a konzol generációka úgy 7-8 évre tervezik. Optimális esetben az életciklusuk felénél nagyjából megjelenik egy némileg ráncfelvarrt model, mint a PS 4->PS 4 PRO esetében. Ma már egy alap PS 4 teljesítménye sok játékhoz marhára halovány. De a CPU-k tekintetében se túl fényes a helyzet. Bár az új konzolokban levő CPU lényegében az AMD Ryzen 7 3700X.nek egy varriánsa. Ami azért már 2 generációval el van maradva a mostani PC CPU sorozatoktól és csak 2 év telt el. Mi lesz itt 6 év múlva?????
-
#88750080
törölt tag
Sajnos de, fejlesztenek (pedig illene már kihalnia). Vagy legalábbis régebbieket portolnak rá.
A Vulkanhoz/DX12-höz (explicit APIk) az egyszerű fejlesztő nem ért, túl sok boilerplate kódot igényel és az eredmény sem lesz olyan, mintha egy régebbi API-val maga a driver oldotta volna meg a kritikus dolgokat (implicit APIk).
A barom Khronos még a mesh shadereket is beleerőltette az OGL-be, valószínűleg pont ezért.Esetleg ha valami keretrendszert vagy engine-t használ az illető, akkor közvetve fejleszthet Vulkanra.
-
#88750080
törölt tag
Nem. Az übershadernek pont az a lényege, hogy lefordított binárisból kevesebb legyen, azaz futásidejű if-else-ekkel kontrollálhatóak legyenek. A source az tök mindegy, de az #ifdef-ekkel pont az ellenkezőjét szokták elérni, hogy egyetlen forrásból sok variáns fordulhasson futásidejű elágazások nélkül.
Pl. DX9-ben ott vannak a SetVertex/PixelShaderConstantsB nevű metódusok, pont a shaderhez köthető 16 db bool-t tudod vele állítani ahhoz, hogy a shadered lefutási ágait vezéreld vele.Rakás példát is tudnék mondani, ami ténylegesen így működik, pl. a Splinter Cell 3, de úgy általában véve azok a játékok, amelyek deferred renderinget használnak.
(Egyébként az, hogy lehetőleg minél több mindent a GPU-n oldj meg, még a feltételes blokkokat is ott futtasd, nem olyan újkeletű dolog, már a kommandlist-be is lehet feltételesen végrehajtható cuccokat beleírni. Pl. régen egy occlusion query-n mint feltételen alapuló Draw hívásokhoz a query eredményét előbb vissza kellett olvasni a CPU-ra, és ott eldönteni, hogy egyáltalán meghívod-e a kérdéses Draw-kat. Ma meg már a GPU-n el lehet intézni az egészet azzal, hogy a query eredményén alapuló feltételes blokkba írod bele a Draw-parancsokat, nem kell a CPU-n várakozni).
-
E.Kaufmann
veterán
Én a Quake sorozatra gondoltam, meg erre a mondatra:
"Az OpenGL ilyen szempontból játékra teljesen alkalmatlan API volt, és ezen már az sem segített, hogy időközben a Khronos Group elintézte hozzá a SPIR-V támogatását, addigra ugyanis a játékfejlesztők túlléptek ezen a poklon."
Mármint az egyedi shader programok szempontjából volt alkalmatlan, de a fixfunkciós időkben még jó volt? -
pzg
tag
válasz
E.Kaufmann #52 üzenetére
Az OpenGL új verzióit pár éve már Vulkannak hívják, ezért a régebbi OpenGL-lel már senki nem fejleszt játékot. Erre gondoltál?
-
E.Kaufmann
veterán
Nem teljesen értem ezt, hogy az OpenGL alkalmatlan játékokhoz. Ugye régen voltak rá jó játékok. Vagy ez a programozható majd unified shader időszakban romlott el a DX7-DX9 időszak között, amikor már szükség volt ezekre?
-
L.Edit
tag
válasz
Hopkins95 #45 üzenetére
Elviekben, de az a blokk a GPU-ba került be, és annak az erőforrásat terheli, ami szintén az fps-t adja
.
Amíg a fordítás tényleg olyan kevés időt vesz igénybe, ami nem akadályozza a GPU-t sem a textúrák betöltésben, sem a stabil frame gyártásban, addig ez egy valid megoldása lehet ennek a problémának. -
nonsen5e
veterán
Az, hogy a piac beárazta, az teljesen irreleváns, nem értem ez, hogy jön ide.
(szinte) Mindent beáraz a piac, ez alapján nem lenne értelme olcsóról meg drágáról beszélni, de ettől függetlenül ugyanúgy bárki ráhúzhatja bármire, hogy olcsó vagy drága (számára).Tökre mindegy, hogy a beragadt 1660 mennyibe kerül. Ha jól tudom már nem is gyártják, random bármilyen termékből lehet őskövület darabokat találni horrorisztikus árakon árukeresőn. Illetve attól még, hogy ez még rosszabb ár-érték aránnyal rendelkezik, az nem fogja azt jelenteni, hogy ettől hirtelen már jó áron van az előbbi.
-
copass
veterán
"Attól még, hogy eddig irreálisan drága volt, továbbra sem jelenti azt, hogy most olcsók lennének.."
a piac beárazta szépen. óriási volt a kereslet a homemadeETHbányászat miatt, ezzel jött egy chiphiány és violá.
GTX 1660 még mindig 130k (80k volt eredetileg), RTX 3060 áron...na ez irreális...
lehet itt hisztizni, hogy nem ér ennyit meg annyit.
"előző generációs modell"...egek! -
Cyberboy42
senior tag
Ezen a téren pont hogy az nvidiának meg az intelnek kéne összefognia.. Amd-nek ott van a konzol ugye..
-
Ami végeredményben ugyan olyan tüneteket okozna a megjelenítésben, mintha a CPU lenne megterhelve ezzel a feladattal, és az nem tudná időben kiszólgálni a GPU-t adattal.
Éppen hogy nem, mivel ezzel levennénk a terhet a CPU-ról, ami az FPS-t adja és egy specifikusan ilyen célra fejlesztett blokkra bíznánk a munkát, ami ha jól lett megtervezve, akkor elméletben villámgyorsan végezne a feladattal és mire betölt a játék, a shaderek elképzelésem szerint már le lennének fordítva. Biztos hogy nyűg egy ilyet beépíteni, azt aláírom, de ha a cégek közösen szoftveresen nem hajlandók foglalkozni a dologgal, akkor egy ilyen különutas megoldást a GPU gyártók helyében mérlegelnék.
-
L.Edit
tag
válasz
Hopkins95 #41 üzenetére
Ezzel én nem akarnék vitába szálni. itt a gyorsító a terheléshez mérten megfelelően ki van szólgálva memóriasávszélességgel, de ha ugyan ezt a funkciót a cpu-n belül a rendszermemóriára kötve, vagy egy másik PCI-express porton ülő hardveren szeretnéd megvalósítani, akkor töredék teljesítményre lenne képes, mert nem lenne képes az adat olyan gyorsan mozogni a felhasználási helyek között.
Gpu-ban működhet, kérdés hogy mekkora mennyiségű memória lecsippentése szükséges, amivel már elég gyors a folyamat. Ill. a memóriavezérlőn és a pci-express vezérlőn produkálna-e a GPU normál működésével konkuráló terheléseket? Ami végeredményben ugyan olyan tüneteket okozna a megjelenítésben, mintha a CPU lenne megterhelve ezzel a feladattal, és az nem tudná időben kiszólgálni a GPU-t adattal.
-
szasanyi
félisten
PC mindenese (PC, MiniPC, laptop esetleg táblagép igény szerint) a legtöbb embernek aki játszik és/vagy játszani akar már van. Ha mégsem, akkor olyan - játékra alkalmassága kivételével ugye - relatíve olcsón megveheti, hiszen akár belépő szint is jó lehet.
Egy új konzolt nem lehet használt PC alkatrészekkel összehasonlítani, mint ahogy a legális játékszoftver sem a torrentes kalóz verzióval. Ezen túl a lemezes konzolos játékok - a PC játékoktól eltérően - eladható, elcserélhető szóval adott esetben párezer forintos költségekről van szó új játékoknál (ritkán annyiról sem). Ez jobb is, mert ha nem tetszett vagy meguntad em az van mint PC esetében. Ezek miatt ez a véleményed is meglehetősen fals lett. -
PC-be célhardvert illeszteni fixen, az mindig kissebb hatásfok javulást hoz, mint célhardverbe tennéd meg ugyan ezt.
Azért ezzel vitatkoznék, nézd csak meg az Nvidia a Turingtól kezdve a dedikáltan beépített RT és tensor magokkal mire képes - az RT magokkal hardveresen gyorsított ray tracinget, a tensor magokkal hardveresen gyorsított DLSS-t kínál, ezzel jobb RT teljesítményt biztosítva a konzoloknál is. Ezt pedig megfejeli még az új Ada Lovelace architektúrájuk egy beépített optical flow acceleratorral, ami további jelentős előnyt biztosít az Ampere architektúrához képest.
Ha az Nvidia képes volt dedikált hardveres blokkokkal más esetben ilyen mértékben fokozni a teljesítményt, miért ne működhetne PC-n hatékonyan ugyanúgy egy hardveresen gyorsított shader fordító blokk?
-
L.Edit
tag
válasz
Hopkins95 #30 üzenetére
Mivel beavatkozási lehetőségnek ez mardt, és a hoszzú évek során, erre a probléma kezelési módszerre (és a nem megoldásra) szoktatta rá felhasználóit, így ez lett a csoporton belül megszokott és elvárt magatartás.
Nem látszik az, hogy a következő 3-5 évben bármilyen tartós erőforrás limitbe ütközne a pc, így kényszer->akarat hiányában nem lesz ebben változás.Szűk keresztmetszet kérdése: PC-be célhardvert illeszteni fixen, az mindig kissebb hatásfok javulást hoz, mint célhárdverbe tennéd meg ugyan ezt. Mert itt egyszerűen a környezet lesz képtelen kiszolgálni azt maradéktalanul, hiszen annak alapkoncepciója is "csak" univerzális felhasználásra alkalmas. Mivel a végeredmény nem lesz perfekt, így kb. pazarlás célhardverben gondolkodni.
-
ergoGnomik
tag
válasz
Csokissütis #35 üzenetére
A MS/Khronos szarozást kifelejtetted.
-
nonsen5e
veterán
MSRP-re meg nem kell hivatkozni, az semmit se számít...
lol
Használt cuccot sem akar mindenki venni.
Ennyi erővel azt is mondhatom, hogy a kamionról lepottyant videokártya meg ingyen van, nézzed már, az még olcsóbb.Attól még, hogy eddig irreálisan drága volt, továbbra sem jelenti azt, hogy most olcsók lennének.. relatíve maximum, de ebben az esetben meg ha tavaly 214 millió forint lett volna a GT210, idén meg csak 2 millió, arra kontextus nélkül rámondaná bárki, hogy rohadt olcsó? Segítek: nem.
A 100k-s használt (másfél éves, előző generációs modell) az sehogy sem jó deal, mikor a GTX 560/660/760/960, ésatöbbi újonnan volt fele ennyi.
-
Csokissütis
kezdő
Ahogy többen megjegyezték, vannak játékok akik jól tudják kezelni a shader fordítást. Ez a cikk egy elcseszett játék a callisto problémáját lovagolja meg, és hangulatkeltésre használja a szarul megírt játékot, hogy mehessen az intel/nv szarozás.
-
pzg
tag
válasz
#88750080 #13 üzenetére
Az übershader nem a sok lefordított variáns elkerülésére van, hanem hogy a sok variánst mégis egyetlen forráskódban megírt fájlban lehessen kezelni/áttekinteni. Tehát nem futáskori if() {...} else {...} elágazóblokkokkal van tele, hanem fordításkori #ifdef-#else-#endif-ekkel. Ezáltal ha a programozók használnak mondjuk tizenötfajta #define címkét egy übershaderben, akkor a játék indulásakor le lehet ennek a 15-nek mindenfajta kombinációjára fordíttatni a géppel egy-egy shadert, és a játék minden helyzetben meg tudja hívni a még éppen "legrövidebbet és leggyorsabbat". Mégis forráskód szinten csak egy közös überváltozat létezik.
Úgy kell elképzelni, hogy mondjuk valakinek van A, B és C változója, és kell neki egy program (shader), ami kiszámolja A*B*C értékét. De mivel a hardvere lassú, ezért ha előre tudja, hogy most éppen B=1, akkor érdemes egy olyan programot futtatnia, ami csak A*C értékét számolja ki. Ezért, hogy ne kelljen hétfajta programot írnia, ezt így írja meg:
float ret = 1;
#ifdef A
ret = ret * a;
#endif
#ifdef B
ret = ret * b;
#endif
#ifdef C
ret = ret * c;
#endif
return ret;És így egy ilyen übershaderből tud hétféle shadert fordítani.
-
PuMbA
titán
Ez a netről letöltés jó ötlet. Én a játék menüjében történő fordítással is rendben lennék, kivárom azt a 10-15 percet, de akkor ne frissítgessék hetente a VGA drivert és a játékot, hogy állandóan újra kelljen fordítgatni.
-
Én ezt is megértem, hogy a grafikus kártya gyártók akarnak ezzel foglalkozni, de én olyasmire gondolok itt, hogy a Sony vagy a Microsoft tervezett a lapkára egy dedikált hardveresen gyorsított adatkitömörítő blokkot, hogy az adatot egyből a memóriába lehessen streamelni.
Na most ha már annyiba kerülnek ezek az új számítógép processzorok, amennyibe, nem lenne szerintem földtől elrugaszkodott dolog elvárni, hogy ha láthatóan szoftveres módon a cégek nem hajlandóak megoldani a problémát, akkor fogom a hardvert és megoldom legalább az én hardveremen.
De tudom, ez vágyálom marad csak, mert ahogy a cikk is írja, amíg az emberek megveszik a drága hardvert a játékokhoz, eszükben sincs elkezdeni ilyeneken gondolkodni. -
JulianSinulf
őstag
Engem csak az zavar, hogy:
a) a játék nem írja ki, hogy várjál már, mert még nem jó,
b) egyes játékok sokkal gyorsabban dolgoznak, mint mások, így van, ahol egyáltalán nem tapasztalható akadás.Nekem tetszett, hogy a konzollal össze lett hasonlítva, így sokat dobott az érthetőségen. Főleg, hogy konzolon miért úgy fut, ahogy.
Más esetben a konzol és PC nem igazán tehető egymás mellé. A konzol adott beállításokkal dolgozik, adott grafika mellett. PS5-ön váltható, hogy minőség vagy gyorsaság. Egyszer próbáltam ki a minőséget, különbséget nem láttam, de akadást igen. Gyorsaságra menve is nagyon szépek a játékok. Viszont PC-n feljebb lehet lépni a szépségben akadás nélkül. És van, akinek ez is számít. Vagy az, hogy egyes játékok nincsenek konzolra, esetleg kontrollerrel nem olyan jó játszani egy-két játékot. Nekem van mind a kettő. Így azt is eldönthetem, hogy hova, mennyit adok ki egy játékért. De a PC nem csak játékra van használva, viszont a játék miatt van benne erős VGA. -
Solten
őstag
PS5 nem erdekel, jo meg a PS4, siman tudtam venni az uj boxot az elsok kozott, a scalperek sem olyan gyorsak mint az emberek gondoljak...
Ha nagon akartam volna PS5-t, megoldom. Amugy tojok ra mennyi lett a dVGA, nem fogok mar tobbet venni, sokkal jobb a celeszkoz, joval olcsobban. A francnak kell egy sokat zabalo tegla a leego csatlakozojaval.
-
Sinesol
veterán
Aza baj, hogy az játékon kivül nemigen jó semmire, sőt még játékra sem minden esetben optimális megoldás. Na meg azért nincs itt akkora probléma, mint amit a cikk sugall, csak ugye kellett valami tartalom, plusz meg kellett lennie a napi csunya zöldek, kékek mantrának is..
-
copass
veterán
csak hogy értsd: tavaly márciusban 340E volt egy RTX 3060 12GB, onnan tudom mert akkor vettem!
egyrészt örültem hogy kaptam, mert akkor már várólistás volt a boltokban is. melóhoz kellett, az összeset (~-5-6 db) megvettem amit kapott a bolt.
használtan [link] 100E már kapsz egyet. mert a bányászok örülnek ha megveszi tőlük bárki is. ha rámenős vagy 70E is megkapod...tapasztalat.
MSRP-re meg nem kell hivatkozni, az semmit se számít... -
kurta9999
tag
A cikk remek, viszont: nemtudom miért baj az a pár perc várakozási idő a játékok elején, inkább betöltés előtt fordítsa le a shadereket, mint realtime futás közben ami következtében csökken az FPS esetleg mikrolaggok is lesznek. Inkább kivárom azt a pár percet. Pl COD Warzone és Horizon Zero Dawn is így csinálja, és az égvilágon semmi gond nem volt velük. Amúgyis egyre jobban terjednek el a 6 - 8+ magos processzorok, ezek normális időn belül megbirkóznak a feladattal.
-
L.Edit
tag
válasz
Hopkins95 #19 üzenetére
Én úgy veszem ki a cikkből, hogy nem az a fő probléma, hogy mennyi időt vesz igénybe a folyamat, hanem az, hogy valakinek meg kell csinálnia, valamilyen értékes erőforrást elhasználni rá és ehhez nincs túl nagy kedv. Röviden: nyűg.
Ez az egész tanácstalanság csak arról szól, hogy kit szivassanak. Ha bekerül egy fix funkciós egység a cpu-ba, ami csak ezt csinálja, az sem találtatna 100%-os megoldásnak. Mert azt le kell valakinek terveznie, valamint megeszi a tranzisztort/területet olyan egységek elől, amiket jóval univerzálisabban fel lehet használni, ergo 2x kerül pénzébe a CPU gyártónak, ha beleáll ebbe a feladatba.
-
Rendhagyó cikk, már nagyon ideje volt, köszönjük!
Ami a shader fordítást illeti, az nem lehetne megoldás, hogy a proci vagy VGA-gyártók beintegrálnának a lapkára egy hardveresen gyorsított shaderfordító blokkot, ami sokkal hatékonyabban el tudná végezni az amúgy hagyományos processzormagra rót feladatot? Azt értem, hogy amíg az emberek így is megveszik a hardvert, minek dolgozzanak ezzel, de nem tudna ebből az egyik gyártó előnyt kovácsolni és erre felépíteni a marketinget, hogy ők ezt a dolgot hardveresen megoldották és ezért az ő hardverükön simább a játékélmény?
-
copass
veterán
meh...az ugye nem fordul meg a fejedben hogy a PC-t "BÁRMIRE" használhatod és fejlesztheted,mindenféle korlátozás nélkül...
a célhardver, meg célhardver. esetünkben azé van hogy jáccá és persze hogy fizess mindenért...slusszpassz. akinek csak erre kell hajrá.
ha nincs pénzed akkor nem kell RTX-et venni, de attól még tudsz játszani mással.
funfact 170E már kapsz egy 3060-at, amin minden megy.
Solten: senkit nem érdekel már az ETH, szarér hugyér veszel most már VGA-t felesleges azt idehozni. de akkor se vettél szart se mert miattuk chiphiány volt mindenhol, tehát PS5 se volt...
Chaser: nemidevalósivagy?! -
Pikari
veterán
A probléma a shader és maga a GPU. A nem is olyan távoli jövőben szorosabbra fogják a grafikai funkcionalitást integrálni a processzorokban, és maga az igp is el fog tűnni. A grafikára optimizált áramkörök valószínűleg elérhetőek lesznek utasítás szinten, és ahol az általános célú fordítóprogram nem fordít eléggé hatékony kódot, ott egy kis inline assemblyvel belenyúl majd a grafikus engine fejlesztője.
Persze ettől a forgatókönyvtől az olyan vállalatok, mint például az nvidia, rettegnek, és foggal körömmel kapaszkodva menekülnek olyan 500w körüli videókártyákba, akár azon az áron is, hogy nyugodtan leolvadhat a tápcsatlakozó, hiszen a low-end kártyák már egyre inkább képtelenek a processzorokkal (igpkkel, de akár egy llvmpipeal szemben is) piacképesnek maradni.
-
Csabis
aktív tag
Azt az egyet nem vágom hogy miért is van osszehasonlitva a konzol a pc-vel.
Tudva levő hogy 1 tipusú vga hardvare van benne igy kb nem kell semerre sem kb 50féle termékre optimalizálni.
Illetve azokat is PC n irják.. majd forditják Konzolra..
Illet hogy az árak elmentek .. az kb a kapitalizmus eredménye.. illetve hogy az eszköz amivel fizetni kell érte.. nem annyi az értéke mint 20 éve kb.. pedig 30éve is az uj gép 1500 dodo volt most is annyi kb -
#88750080
törölt tag
A PSO és shader-specializálási "probléma" a kezdetektől fogva megvolt, csak az implicit APIk esetében a driver gondoskodott az összerakásukról (a Draw és Dispatch API-hívások pillanatában meglevő állapotból), a szükséges fizikai (GPU bájtkódos) shadervariánsok fordítgatásáról, cache-eléséről, stb., tipikusan háttérszálon.
Az explicit APIkkal (DX12, Vulkan) az volt az említett "forradalmi" lépés, hogy mindezt már nem csinálja meg a driver, az egész feladatot odadobja a fejlesztőnek, aki cserébe akár több szálon is építhet command listeket, és akár kínlódhat a videómemória manuális lapozgatásával is (régen az is automatikus volt). Tyuhaj, végre nem csak egy CPU mag dolgozik egyetlen cmdlist-en, hanem többet is be lehet fogni, ha a rendering egymással párhuzamosítható részekre osztható, és a csúnya memórialapozás sem akasztgatja meg a folyamatot, szép sima konzolos játékélményt kapunk jó CPU-kihasználtsággal!
Illetve volt még egy "forradalmi" lépés: megjelentek a magasabb szintű (IL) shader kódok, amelyek GPU-s bájtkódra történő fordítása több időt vesz igénybe, mint a régi DXBC, amely olyan alacsonyszintű fogalmakkal dolgozik, mint pl. a regiszter. Ezt pont azért dobta a MS az újkeletű, modernebb DXIL kedvéért, mert pl. a GPU wave-műveletek leírására már nagyon nem volt alkalmas. Sőt, a MS tovább is ment, ha a driver támogatja a DXIL-t, akkor DX12-höz a DXBC-s shader kódot röptében DXIL-re konvertálja, és csak úgy adja oda a drivernek (dxilconv.dll).
A gyakorlatban explicit API-hoz vagy egy kiforrott engine-t vagy keretrendszert használ az ember, vagy inkább neki se álljon, mert egyrészt a pipeline-objektumok kezelését szinte biztos nem fogja olyan hatékonyan megoldani, mint egy driver a korábbi API-kkal, másrészt háttérszálon sem fogja mindezt olyan hatékonyan vagy egyáltalán kezelni, mint egy driver a korábbi API-kkal, tehát ha csak a korábbi lineárisan renderelő (egy cmdlist-es) cuccunkat írjuk át explicit API-ra, akkor még lassabb és xarabb is lesz.
Ja, a shaderek "elő"- és "utótagja" alatt valószínűleg az input/output signature-t érti a szerző, vagy esetleg a kódtörzs elején levő dcl_* (declare) pseudo-utasításokat, amelyek metainformációt adnak arról, hogy a kód milyen becsatolt erőforrásokat ér el (textúrák, konst bufferek, stb), milyen formában (pl. statikus, dinamikus indexelés), hány temporális regisztert használ, stb. Shader model 4.0 előtt ezek nagy része nem volt meg, akár assembly-ben is írhattál shadert, és a metaadatot (shader reflection) a drivernek (vagy esetleg az API frontendnek a driver számára) kb. magából a kódtörzsből kellett kibányásznia, ami egy plusz interpretációs menetet is jelenthetett (mint a kétmenetes assemblernél).
Nem tudom, hogy ezeken az elő- és utótagokon mit kell a cikk szerint változtatni, mert kb. semmit. A szerző arra gondolhatott, hogy a konkrét GPU-s bájtkódot nemcsak maga az absztrakt shaderkód határozza meg, hanem a pipeline más állapotai is, ebből következően az FXC-vel vagy DXC-vel lefordított bájtkódok csak template-ek a driver számára, amiből aztán a PSO-k összerakásakor különböző verziók fordulnak. Egy példa erre: ha írsz egy SM2.0-s pixel shadert DX9-hez, de a pipeline-on az alpha testing vagy a pixelköd engedélyezve van, akkor azt modern hardveren jó eséllyel magába a shaderbe kell belefordítani, mert az már nem támogatja a régi "fixed function" jellegű dolgokat, mint a korabeli GPU-k, amikre az API-t kitalálták. Jó élmény volt ezekkel elszórakozni, rengeteg cache hatékony kezelését kívánja meg.
Egyébként nem tudom, mit csinálnak a mai játékok, mi a francot fordítgatnak olyan sokáig. Régen a sok shadervariáns elkerülése miatt írtak übershadereket, mindenféle feltételes elágazásokkal és paraméterezéssel. A mai GPU-khoz ez pont illene, hiszen arra mennek rá, hogy minél kevesebb Draw-hívással inkább a GPU-t dolgoztasd, úgyis sok feldolgozó pipeline-ja van. De über-shaderekhez miért kell ennyi fordítási idő?
Az Oblivion IV (DX9) pl. azzal kezdi, hogy induláskor legyárt az API-n kb. 300+ vertex/pixel shadert, amit aztán használni is fog, de ezek DXIL-re konvertálásából sem láttam semmi drasztikus perfromance-csökkenést, nemhogy percekig tartó fordítgatást. -
Solten
őstag
külön játékra tartani egy eszközt luxus még mindig
Nem egeszen, mikor a banyaszat meno volt, egy csucs VGA araba siman belefert egy Switch-XBOX-PS kombo. Sok ember tobb-fele konzolt birtokol es attert a konzolokra mert nem is lehetett szinte ertelmes dVGA-t kapni, a belepok meg meregdragak voltak. Es ez csak egy komponens.
-
szasanyi
félisten
A "külön játékra tartani egy eszközt luxus még mindig" kijelentésed nem kicsit fura.
A játékkonzolok célhardverek ezért játékra jobban használhatóak (tulajdonképpen ezt a cikk is alátámasztja, bár más megfogalmazásban). És akinek mondjuk a PS5 csak játékra luxus annak a sokszázerzes dVGA nem az?Csak kérdezem... főként mert az csupán a PC egy komponense. És ha legalább annyira képes mint egy PS5 akkor sokkal (!) többe kerül. Ha meg nem elég a Dynamic 4K@60-90FPS hanem natív kell... akkor millióhoz közeli tétel a komplett PC).
-
Emcski
lelkes újonc
Callisto protocol látványosan rossz volt az ampere gpu-s eszközeimmel a shader forditás nem volt meg ugye korrekten oldva. A dx11 es módra átkapcsolás csak rontott a sebességen. Annyival jobban nem futott 7900 xtx el sem. A hidnál ahol be lehetett látni a cellákat félkörben meg sok volt a tűz 3x fps volt ezzel a kártyával is meg 3080 as kártyával is. Cpu bottleneckes durván ez a tákolmány játék rtvel együtt. Nélküle sokkal jobban fut!
-
sh4d0w
félisten
A leforditott shaderek megosztasa johetne akar a fejlesztoktol is, akkor nincs jogi problema a megosztassal.
De ez az egesz, ugy, ahogy van, rohejes. Volt egy pre-DX12 korszak, ahol a driverek es a DX reteg kozosen megoldottak ezt a feladatot. Aztan jott a DX12, hogy hu, mennyire jo lesz, nem lesz olyan vastag a koztesreteg. Most kiderul, hogy megsem jo, mert a gyartok nem csapatjatekosok. Korabban a DX11 draw callok szama limitalta erosen a sebesseget, ma a shaderek forditasa.
Vicc.
-
-
CPT.Pirk
Jómunkásember
"Technikailag tehát adja magát az ötlet, hogy legyen a PC-s shader fordítás közösségi szintre emelve, de jogi értelemben ez sem egy egyszerű kérdéskor." - de nem ezt csinálja már egy ideje a Steam?
Régebben még volt, hogy akár 15 percet is dolgozott 100%-on a vga-m, mielőtt elindult volna az utolsó Tomb Raider egy játék vagy driver frissítés után. Ma már csak annyit látok, hogy shader előtöltési izé letöltése és már megy is a játék.
-
nonsen5e
veterán
Ez. Meg nem mintha nem duplázódott volna a konzolok ára is, és azzal semmi mást nem tudok csinálni mint játszani, azon kívül egy díszdoboz a nappaliban.
Illetve ha nem akar valaki 16K + ultrán játszani (Steam survey szerint a játékosok 65%-ának van fullHD, és 2.6%-ának 4K, szóval valóban nem akarnak), akkor nevetve elvan még ma is ősrégi konfigokkal, utóbbi pár évben kb. 1-2 kivételtől eltekintve nem nőttek a minimum gépigények.paprobert: Ez a lényeg. Nem értem miért nincs több játékban vagy fixen, vagy legalább opcióként a shader fordítás induláskor. Kibírok új játékonként egy egyszeri 5 percet; kimegyek mosdóba, főzök egy kávét, meglocsolom a macskát, megetetem a virágokat, feltöltöm a kontrollert...
-
paprobert
őstag
Remek cikk lett, köszönjük!
Én úgy veszem észre, hogy minden futásbeli probléma megszűnik, ha nincs valós idejű fordítás.
Igazából ez a gond, hogy a valós idejű fordítás nem éppen valós idejű.A felvázolt lehetőségek közül az indításkori shader fordítás kávézgatással (COD-nál működik), vagy egy központi shader shader cache adatbázisból való letöltése tűnik életképesnek.
A Steam és egyéb játékáruházak korában az utóbbi kifejezetten adná magát, mint megoldás. -
joghurt
addikt
A lefordított cucc megosztásánál nem személyes adatról van szó, de valóban szükséges a felhasználó hozzájárulása (hasonlóan a Windows Update megosztásához). Ugyanakkor itt azért kemény biztonsági kérdések is merülnek fel: egy megbuherált shader kódot töltök fel elsőként, ettől kezdve az összes ilyen hardveres ezt fogja megkapni. Ráadásul a lefordított cuccok letöltése sem ezredmásodpercek alatt történik meg.
-
Televan74
nagyúr
Konzolt kell venni, PC -t meg hagyni megdögleni a saját ürülékében! A megfelelő hardverek extrém drágák lettek, de sokan még így is kifizetik, mert remélik hogy minden rendben lesz. Pedig nem, sosem fognak megváltozni a hardvergyártók. Egy jövőbeli szép ígéretért adják el nekünk a drága hardvereket, amik ma sem használhatóak optimálisan.
Új hozzászólás Aktív témák
- OLED TV topic
- Battlefield 6
- Windows 11
- Milyen processzort vegyek?
- CURVE - "All your cards in one." Minden bankkártyád egyben.
- Samsung Galaxy S25 - végre van kicsi!
- Milyen notebookot vegyek?
- Autós topik
- Facebook és Messenger
- Intel Core Ultra 3, Core Ultra 5, Ultra 7, Ultra 9 "Arrow Lake" LGA 1851
- További aktív témák...
- Azonnali készpénzes nVidia RTX 3000 sorozat videokártya felvásárlás személyesen / csomagküldéssel
- Eladó iPhone 12 mini 64GB bevizsgált, hibátlan készülék
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
- Felturbóznád a gèped? Ezt Neked ajánljuk!
- DELL Precision 5560 i7-11850H 32GB 1000GB T1200 FHD+ 1 év garancia
Állásajánlatok
Cég: FOTC
Város: Budapest