Új hozzászólás Aktív témák
-
Linóleum
csendes tag
Erre a dologra még kíváncsi leszek! Mert ha azt nézzük, hogy az AMD az "APU" processzorokat igen erős integrált VGA-val ruházták fel, akkor erre lehet már némi sansz! Mondjuk azt nem tudom, hogy az nVidia kártyákkal hogyan működik. De ez akár egy "aranykor" kezdete is lehetne! És ha úgy nem is, hogy egyszerre megy a gépben egy nVidia és egy AMD kártya akkor legalább ezzel az integrált VGA+Egy másik sem egy olyan rossz megoldás, de ez már az AMD-nél elvileg már működik és hozzá kell tennem, hogy elég jól! De remélem, hogy egyszer létrejöhet egy AMD+nVidia dolog!
-
Kíváncsi leszek rá, hány játék fejlesztője köteleződik el a többvégéás szerelem mellett a közeli jövőben, és hogy milyen gyors lesz az átállás.
-
mrhitoshi
veterán
Nem csak te. Szerintem orbitális nagy bukások lesznek. Már most is vannak, de mi lesz ezután? És nem csak az optimalizálásra kell gondolni, hanem a hanyagságra. Lehet majd 1-2 év múlva belejönnek a fejlesztők, de az elején szerintem iszonyatos nagy fejetlenség lesz. Arról nem is beszélve, hogy beszűkül a piac, mivel a kisebb fejlesztők teljesen kiszorulnak ebből a szegmensből, és majd irányíthatnak a nagyok, akiknek csak a profit a lényeg.
-
qisqaqas
senior tag
válasz
Feruendios #92 üzenetére
A kisebb stúdiókkal mi lesz? Licencelhetik az Unity-t, vagy valamelyik játékmotort, ugye?
Ez az új API történet rengeteg megválaszolatlan kérdést vet fel. Szívesen hallanék fejleszőket, hogy mit gondolnak erről és hogy állnak hozzá. Persze marketing BS nélkül. Azt hallottuk hogy jobb lesz, de vajon fog-e fájni? Ha elő akarok venni egy 5-8 éves játékot nosztalgiázni, fog-e futni a gépen?
Az addig jó, hogy magasztalják és várják mint a messiást, vakítanak minket, de mi lesz ebből amíg késztermék lesz? Mármint féltermék, a másik fele megvásárolható 10-15db DLC formájában.
-
Feruendios
tag
Kinőtte a DirectX jelenlegi formáját a PC, kell ez a DX12 a jelenlegi API-k nagyságrendekkel lassabbak mint amit ki lehetne hozzni direktbe a GPU-ból, az meg, hogy ez mennyibe fog kerülni ha Destiny 500millió $-os árcímkéjét nézzük bele fog férni az Engine fejlesztésbe, egy kis Hardver specifikus támogatás.
-
Robert07
aktív tag
Anno a Lucid Hydra is hasonló volt, csak ott volt egy vezérlőchip az alaplapon ami a kártyáknak osztotta a pci-e sávokat. 2 alaplap kapott ilyet, a Crosshair IV extreme és egy P55-ös MSI.
A támogatás hiánya miatt megszűnt
Néhány játék jól skálázódott, úgy, mintha teljesen normál SLI/CFX lett volna alatta, sőt, a bridge-es CFX-nél néhány %-al néha gyorsabb is volt.
Viszont a driverproblémák miatt megszűnt, mert kellett hozzá egyszerre catalyst és forceware is, plusz a vezérlőprogram.
Meg néhány játék lassabb lett tőle.Pedig nem volt rossz próbálkozás, csak a driver a legnehezebb rész.
Azt nem tudom pontosan hogy mit használt, de valószínűleg AFR volt. -
Himm
csendes tag
Teljes mertekben igazat adok neked, annyit hozzatennek meg annyit esetleg , hogy negativ hatasa is szerintem nagyon sok lesz, az egyszeru embereknel sokkal tobb hibalehetoseg adodik akik majd fizetn fognak azert hogy valaki (pl egy szervizes) megoldja a gondok. Tehat tanulni emberek, utanaolvasni mindennek, es napirenden lenni!
-
zoli121
aktív tag
-
dredbiro
senior tag
Valamikor korábban, talán úgy 2007-2008 környékén lehetett olvasni hasonló hibrid megoldásról, azt hiszem a nvidia 8800 és ati 3850-et próbáltak egyszerre üzemeltetni,bár lehet hogy rosszul emlékszem.
-
e00dgy
aktív tag
Kár előre jósolni bármit is.
Hozhatja ez azt a változást, hogy minőségibb, jobb hardver kihasználást eredményező játékok / programok születnek, vagy semmi sem változik.
Akkor miért lovagolni már most rajta, még épp egy éve, hogy van egy 270X -es kártyám, de pisztoly nyomok a fejemnek ha már most azon agyalok, hogy cserélnem kell...
Mellesleg a Windows 10-et már nagyon várjuk! Más miatt!
-
Abu85
HÁZIGAZDA
Az kevés. Bele kell írni a programba a támogatást. Egyébként a DirectX 12 SDK-ban benne lesz a V-Sync és az A-Sync kezeléséhez szükséges library. Az A-Sync pedig minden szabványos implementációra jó, tehát a FreeSync-re is, meg majd arra, amit hoz az Intel. Illetve, ha az NV egyszer támogatni fogja, akkor arra is.
-
alevan
őstag
Á, megoldja majd az MS egy sync.dll-el, amit a játékfejlesztő csak be kell rakjon a könyvtárba.
(nem értek a programozáshoz, szal remélem baromságot nem írtam
)
Amúgy AMD partnerprogramosok valszeg támogatják majd a FreeSync-et out of the box, az nVidia partnerek a G-Sync-et, az Intelesek pedig majd vagy a FreeSync-et vagy az IntelSync-et (tudtommal még nem jelentett be semmit az Intel "Sync" téren).
-
Abu85
HÁZIGAZDA
válasz
#32839680 #81 üzenetére
Igazából a driver ki tudja olvasni a frame buffer tartalmát, ha az alkalmazás megmondja, hogy az hol található. Arra nem képes a driver, hogy lássa a tartalom változását. Akármikor képes frissíteni a monitoron megjelenő képet a már kijelölt memóriaterület tartalmával, csak low-level API-val fogalma sincs róla, hogy az mikor tekinthető egy teljes képnek és mikor van éppen puffercsere. Ezt jeleznie kell az alkalmazásnak a driver számára.
-
RyanGiggs
őstag
DX12-ben csak akkor lesz FreeSync támogatás, ha a játék fejlesztője beleírja a programba?
-
Abu85
HÁZIGAZDA
Nem érthető. Pont, hogy érthetetlenebb, mivel a cikk ilyen állításokkal nem állt elő.
Ezért ajánlom az elolvasását, mert kitér azokra a dolgokra, amelyekre te is.
Amúgy a DX12-ben úgy lesznek lekezelve a kártyákon a dolgok, ahogy a programozó leprogramozza. Ez teljes egészében az alkalmazás reszortja lesz, driver ebbe nem avatkozik be, nem tud beavatkozni. -
Jack@l
veterán
Kb olyan hasznos, mint a gsyncre meg truaudióra fogni, hogy majd amiatt nem mennek jól a dolgok, pedig rohadtul nem ez a gond. Sokkal prózaibb a probléma, máshogy épülnek fel a kártyák, gondolom dx12-ben is teljesen máshogy kell lekezelni miajd ugyanazt a dolgot eltérő arhitektúrán. Ezt kódban egyszerűbb lefork-olni, de ezeket mixelni már rohadtul nem. NV AMD meg intel vga-kon igencsak különböző a végeredménye is egyes játékoknak, tök jó lesz majd ha egy scene-t több kártya renderel és mikor ezeket öszerakják lesz belőlik egy szép nagy álcaháló kinézetű kép, amin simán látszik hogy különbözőek az árnyalatok/shaderek/textúra szűrők.
Így már remélem érthető amit írni akartam. -
Abu85
HÁZIGAZDA
Nem csodálom, hogy ezek után ilyen hsz-t írtál. Pont az ellenkezőjét tette a cikkünk, mint hogy a Tom's Hardware ismeretlen forrásának mondanivalóját átvette. De még egyszer írom, köszönjük a hozzászólást. Szerintem is rendkívül hasznos és kiemelkedően értelmes dolog úgy véleményt alkotni valamiről, aminek az elolvasására sem áldoztál időt.
Persze hazudnék, ha azt írnám, hogy meglepődtem.
-
Jack@l
veterán
Szóval szakmai tökéletességet jelentő Tomhardver meg nem nevezhető forrásét étvette a ph is, aham...
Tök hihető a történet, csak egy aprócska baj van vele, hogy a büdös életben nem fog megvalósulni soha dx12 alatt.
A lehetőség persze adott, csak kb 5x annyi munka lenne vele, mint platformonként külön. Kompromisszumokról, kártyánként eltérő végeredményről már nem is beszélve...De jó klikkvadász meg álmodozásra serkentő cikk.
-
Balazs26
csendes tag
"akár az is megoldható, hogy egy GeForce és egy Radeon kéz a kézben együtt dolgozzon"
Mi lesz így a ventillátorboyokkal?
-
Abu85
HÁZIGAZDA
Leírom nagyon egyszerűen. A fejlesztő a program indításakor detektálhatja az összes GPU-t, és arra implementálhat több GPU-s módot. Akár AFR-t, akár SFR-t, vagy egzotikusabbat. Valszeg az utóbbi lesz a nyerő, de stratégiáknál az SFR is jó alternatíva.
Viszont ha nincs programba épített támogatás, akkor sehogy sem fog működni a több GPU. És azt semmilyen driver nem oldja meg. És ez nem a DX12-n múlik. A támogatás lehetőségég az explicit memóriamenedzsment teszi lehetővé. -
_Scythe_
aktív tag
1. Nem Yerli mondta először, és azért azt lássuk már be, hogy a Crysis "picit" többet tett le az asztalra, mint az akkori játékok.... összesen. (grafikai értelemben, pl SSAO, hogy egyet mondjak...)
2. Én a Doom 3-ra emlékszek, annak az Ultra beállításainál írta ki, hogy "For future hardware".(2+1 és ha már Doom és id Software, arra emlékszünk, hogy nekik mi volt a megmondásuk bármilyen release date-ről kérdezték őket? "When it's done". Talán ide kellene visszatérni, és addig hegeszteni a játékot, amíg jó nem lesz. Glide-ra is meg kellett írni anno, most is megtudják ezt tenni és szeirntem jóval több tool, fejlesztői környezet áll rendelkezésre, mint anno)
-
HM...........
érdekes egy gondolatmenet -
Kronos3000
senior tag
Most jól megkavarták az egészet,a végén meg kiderül a nagy semmi.Már amit az átlag ebből hasznosítani fog....
-
Redneck
nagyúr
válasz
#32839680 #58 üzenetére
Igen, ez a másik kedvenc dumám. A Crysis volt az első 2007-ben ahol elhangzott ez a dolog Yerli bácsi szájából. Nekem már mindegy én eldöntöttem hogy játékra konzolt veszek idén. Lehet hogy lesznek korlátok, meg nem a legüberfullosabbmegahádé grafika, de ezt az állandó PC-s vergődést nem akarom folytatni. Költs el egy valag pénzt hogy az instabilan futó játékot tolhasd? Nem.
A GTA 5 lesz az utolsó amit PC-n kipróbálok és kifizetek. Kivétel ha rosszakat ír róla mindenki. Akkor az a pénz is PS-re megy.
-
Redneck
nagyúr
Egy dolog a lényeges szerintem játékos szemmel. Minden a fejlesztőn múlik. Így jogosan anyázhat majd az ember ha a fejlesztők b*sztak rendesen megírni valamit. Még a végén nem tudnak ujjal mutogatni senkire ha produktum nem olyan lesz mint ahogy ígérték.
-
jacint78
addikt
válasz
kriszpontaz #54 üzenetére
Lehet benne valami, de tényleg ne adj nekik ötleteket.
-
jacint78
addikt
Nagyonjól hangzanak a leírtak, de egyben fel is vetődik néhány érdekes kérdés, mert minden mondat vége az volt, hogy mostantól a fejlesztőknek kell megírniuk. Ha a fejelsztők edig is nagyon nehezen oldották meg (ha megoldották) a játékok optimalizálását, akkor most vajon egy játék megjelenése után hány évig kell pecselniük a játékot, mire működni fog rendesen minden hardveren?
-
qisqaqas
senior tag
válasz
Outsiderman #48 üzenetére
Úgy ám! Akinek van arra pénze hogy vegyen 100-300kért vidkarit az nem 720pben vagy 1080p ben fog játszadozni. Meg ugye a multimonitorról még szó sem esett
-
djculture
félisten
válasz
#32839680 #49 üzenetére
Egyelőre még az első genes VLIW-es 5850-en is jó megy minden médiumban pont arra várok hogy milesz dx12 érában, valahogy nincs kedvem első genes gcn-eket (átnevezések drágán) venni a második az meg áll egy szr szériából (260) meg egy legdrágábból (290) harmadik verzios gcn meg össze vissza herélt verzió (285).
Majd karácsonykor veszek az új szériából remélem az már nem ilyen etetés átnevezésekröl fog szólni hanem valós innovációrol. -
Outsiderman
tag
60fps meglesz 50000Ft-os karikon FullHD-ban, de addig eltelik pár év és akkor már a 4k felé fognak fordulni a gamerek. Ahhoz ugyan úgy kell majd az erős hardver(ek) mint most.
A GPUk "együttműködése" nemcsak Nvidia és AMD-re, hanem a többi GPU és iGPU gyártó hardverére is vonatkozik. Tehát elvben AMD vagy NVIDIA GPU is képes lesz összedolgozni AMD és Intel iGPU-va is.
-
KisDre
senior tag
válasz
tibcsi0407 #41 üzenetére
A mikro$zoftot
-
aram01
nagyúr
április 1 van?
-
qisqaqas
senior tag
válasz
kriszpontaz #39 üzenetére
CUDA az teljesen más tészta. Nem kuka.
-
tibcsi0407
félisten
Na az ilyen cikknél kit kell szidnia a trolloknak?
-
kriszpontaz
veterán
Visszatérve az NV-s zárt PhysX-re, ha már volt róla szó. Ha eddig jelen volt a gépben egy AMD kártya, akkor a vezérlőprogram (NV) kapásból tiltotta a PhysX-et az NV kártyán is. Most, hogy a DX12-nél már sok szerepe nem lesz a vezérlőprogramnak, hogyan fogja a PhysX technológiát használni az adott fejlesztő, vagy hogy tudja tiltani vegyes VGA-k mellett az NV a PhysX használatát (ha a vezérlőprogram nem tud beleugatni)? Vagy közvetlen hozzáféréssel fog ez működni DX12 alatt, vagy ez is kuka?
Meg persze a CUDA kérdés....az is kuka? -
Abu85
HÁZIGAZDA
A mostani modellben a több GPU-ról nem a játék dönt, hanem a gyártó. Azért nincs SFR, mert a mai játékokban ez a technika lassít. Nem is keveset. Az SFR addig jó, amíg az egyes effektekhez nincs szükség a teljes képi információra. És egyébként ma is megoldható lenne az SFR kényszerítése, ha elfogadod, hogy két GPU-val az egy GPU-s teljesítmény 50-70%-át kapod csak. Na ugye, hogy nem hangzik jól.
-
Abu85
HÁZIGAZDA
Az SFR leginkább stratégiai játékokban fog működni. Persze oda valóban ez lesz a legjobb alternatíva.
Az SLI és a Crossfire a kényszerített technológiák neve. Ezek mennek. A GPU-kat a program közvetlenül kezeli egymás mellett. Az alkalmazás detektálja az erőforrásokat és arra lehet speciális rutint írni. Ha nem írja meg a program fejlesztője, akkor csak egy GPU fog működni, ha megírja, akkor úgy működnek majd a hardverek, ahogy a speciális eljárás működteti.
Egyébként mondom még SLI és Crossfire logós alaplapra sem lesz szükség, csak szimplán két PCI Express portra. A hidat is dobhatod ki. -
flash-
veterán
"Jöhet a megkövezés és remélem nektek lesz igazatok amikor vaj simán fognak futni a játékok min 60 fps-el az 50000 Ft-os karikon is kimaxolva. Ennek örülnék én is a leginkább."
ami biztos nem következik be mert akkor a százakárhány ezres vga-k piacának annyi lenne,márpedig elég nagy az a réteg aki a csúcskártyákra költ,
nekik nem érdekük hogy jobban fusson a játék csak az hogy nagyobb legyen a bevétel.. -
Abu85
HÁZIGAZDA
Miért van benne direkt támogatás? Megengedi, hogy detektálják a fejlesztők az erőforrásokat és azokat úgy használják, ahogy akarják. Az SLI és a CF meghalt, mert a kényszerítés már nem üzemképes az új API-kkal.
Még a hidakra sincs szükség a DX12-vel. A PCI Express kapcsolaton keresztül fog működni az adatmásolás. -
mufi
senior tag
..és felébrednek a fejlesztők és a bal kezük belelóg a bilibe....
-
qad
senior tag
"Dx12 Alacsony szintű hardverelérést biztosító grafikus API lesz akkor ez a gyakorlatba azonnal azt kellene hogy jelentse hogy dx 12 nél elég lesz olcsóbb gyengébb vga?"
Dehogy, az elvileg felszabaduló erőforrást gyorsan el fogják pazarolni valami másra, ha szerencsénk van akkor látunk valami újat is plusszba, ha nincs szerencsénk akkor ugyanazt kapjuk a fejlesztők meg ráfogják a nyuszira, mint a dx 11-nél. Emlékszek még a nagy dx11 mizérinál is 15-20% erőforrás felszabadulást írtak amiből nem láttam semmit.
Az nv és az amd kártya eddig is dolgozhatott együtt de csak bizonyos driverekkel és megadott kártya sorrendben, ha a tulaj extra effekteket is akart a játékba. Nem tudom mi lesz ebből ha még a multigpu-t is csak nagy elvétve támogatják egyes játékok a jelenben, nagy eséllyel még ennyi sem lesz ha a fejlesztőkön múlik(látjuk most is mennyi időt fordítanak a remek portolásra).
Jöhet a megkövezés és remélem nektek lesz igazatok amikor vaj simán fognak futni a játékok min 60 fps-el az 50000 Ft-os karikon is kimaxolva. Ennek örülnék én is a leginkább. -
djgeg
őstag
Csak én félek, hogy a mai csodálatos játék fejlesztők+ kiadóik amilyen bughalmazokat adnak ki mostanában, hogy teljes hozzáférést kapnak a hardverhez és rájuk bízzuk magunkat? Ment a sírás, hogy több hozzáférést akarnak a hardverhez, de azt majd jól vezérelni is kell... Mi meg akkor fogunk anyázni, ha a fejlesztők bénáznak majd szart adnak ki.
-
alevan
őstag
az NVIDIA is dolgozik egy olyan licenckonstrukción, amellyel a fejlesztőstúdiók kedvező áron juthatnak hozzá a G-Sync implementálásához szükséges fejlesztőkörnyezethez.
Szóval fizessen a fejlesztő, hogy az NVIDIA sajá, zárt technológiáját támogassa.
-
flash-
veterán
DX12 Alacsony szintű hardverelérést biztosító grafikus API lesz akkor ez a gyakorlatba azonnal azt kellene hogy jelentse hogy dx 12 nél elég lesz olcsóbb,gyengébb vga?
pl egy 30-40 ezres dx 12 es vga-val az aktuális új játékok full grafikán 60 fpsel fognak futni, a 30-40 fps helyett?vagy ezt majd úgy fogják megoldani hogy felemelik a vga-k árát hogy a dx12 sebességbeli előnyéből ne legyen semmi anyagi előnyünk?
vagy ez vagy pedig az hogy nem lesz semmi komolyabb gyorsulás.
régóta követem az informatikát csodák sose voltak nem is lesznek!!
-
-
Whysperer
addikt
az intel az amd meg az nv olvadjon össze. árulajnak processzor 300 ezerért mge vga-t 400 -ért és máris egy helyre kell írni aztán 700 ezerért lesz egy olyan géped..... Én szerintem inkább már egy giga mega atom server kéen ahov abefizetsz 1000 Ft/hónap aztán azon futna aprogramod a laksáodba meg egy monitor lenne meg output eszközök aztán midnen menne mindenkinek ugyan úgy! 8)
-
mikk2000
őstag
A lényeget nem érted... ez a sok infó meg cikk arra jó hogy jól megkavarjon mindenkit, meg hogy elhitesse a fejlődés látszatát, pedig csak annyi történt, hogy visszatértünk a DOS korszakba, amikor is a videókártyát direktbe kellett programozni, ráadásul többfélét
Nincs új a nap alatt. Jójó, lesz azért egy vékony keretréteg hogy mégse teljesen DOS koppintás legyen már.
El lett mondva többször is, hogy a DX12 inkább csak a nagy stúdióknak lesz jó, akiknek nem fekszik a magasszintű DX (lassúság, debugolhatóság korlátja, nem tudni pontosan mi történik). Tehát pont az van hogy hiába látszólag több a meló, de mivel látja mi történik, rajta múlik mi történik, hatékonyabban, azaz gyorsabban tud dolgozni, tehát pont hogy kevesebb munkája lesz a fejlesztőnek egy idő után, hogy megtanulta az architektúrát, és szerzett gyakorlatot is). Ebben a bekezdésben levő okosságotaz abu cikkekből tanultam, szóval te is olvashattad volna
A többi fejlesztő, a "kisebbek"... a többiek teljes nyugalommal írhatnak "korábbi" DX verzióban játékokat, hiszen a DX verziók nem tűnnek el
Tulajdonképpen ott van a gond, hogy ezt nem is DirectX-nek kéne nevezni, mert ez teljesen másról szól. Hiszen sutba dobta a kompatibilitást, az egységességet bizonyos sebességnövekedésért (a jelenben, később szopás lesz). Lehetett volna a neve mondjuk MS-Mantle
Ami engem zavarni fog, hogy ha neadjisten jól meg van írva egy játék, ami jól is fut, 2 generációval későbbi vga-n lehet fele annyi fps-el megy majd, mintha direktben DX11-re írták volna meg...a játékfejlesztők meg egy idő után nagyon nem szoktak foglalkozni a játékokkal, tehát ez borítékolható lesz. Ráadásul ha nem lesz élsimítás megoldva (így is arra leszek kényszerítve amit a játék tud, és nem rakhatok mondjuk SMAA-t) akkor bele@ok egy baltát a monitorba az biztos...
-
Khan13
senior tag
-
[CsuCsu]
őstag
Ez így rendben is van, de ezt nem a DX12 hanem a több erőforrás (munkaerő, pénz) számlájára írom. A kicsi eddig is licenszelt (vagy valami botcsinálta ákombákom engine-t használ aminél az utolsó licensz is jobb).
A szakadék nem azért fog nőni, mert a kicsik helyzete romlik, hanem mert a befektetett energia a nagyok számára több megtérüléssel jár a jobb platform miatt. A kicsik maradnak ott ahol eddig is voltak. Eddig sem volt pénzük házon belül fejleszteni, most sem lesz.
-
Abu85
HÁZIGAZDA
Bizonyos effekt már compute shaderen megy. Az a baj, hogy a fejlesztők a fizikára elkezdték háttérbe helyezni a middleware-eket, mert óriási a sebességbeli lemaradásuk a nulláról fejlesztett jól beintegrált technikákkal szemben. Az, hogy a DX12 több kontrollt ad, ezt az irányzatot csak felgyorsítja.
(#12) [CsuCsu]: Az mindenképpen látszik, hogy a nagy stúdiók és a kicsik között növekszik a szakadék, és erre még rá is tesz egy lapáttal, hogy a kiadók elkezdték a pénzt szórni a fejlesztésekre, hogy lehagyják a licencelhető motorokat.
-
[CsuCsu]
őstag
Ugyanúgy lesznek keret engine-k (UE4.0 stb) mint eddig is a közepes fejlesztőknek. Minek fejlesszen sajátot, annál azért olcsóbb a licenc. Az indiek is az előre megírt vezérlőket fogják használni, eddig sem nagyon jöttek egetrengető technikai újdonságokkal. Én emiatt nem aggódnék.
Eddig is többnyire csak az AAA stúdiók dolgoztak házon belüli technikával. Mindenki más licencel. Aki pedig nem, az majd fog.
-
Outsiderman
tag
A fejlesztők nagyobb szabadságot akartak, és meg is kapták. Most rajtuk a világ szeme.
Sajnos lesznek olyan fejlesztők akik ezzel a nagy szabadsággal majd nem tudnak mit kezdeni. -
Xmister
senior tag
Ne legyen igazam, de nekem nagyon ugy tunik, hogy a jatek piac sokkal erosebben kette fog szakadni.
A meant to played jatekok gsync+a tobbi nv only technologiat fogjak tamogatni, a gaming evolved jatekok pedig az async+trueadio+stb.Vagyis nem eleg, hogy a mukodo sync-hez gpu+monitor kozosen kell valasztani, meg igy sem fog minden jatekkal jol mukodni.
Lehet, hogy tul hw kozeli mar ez a lepes...de remelem nem lesz igazam.
-
Rengeteg munka áttolódik a fejlesztőkre. Át kell majd csoportosítani egy csomó embert. A mostani driver írókat supportnak a fejlesztőkhöz például. Inkább azt látom, hogy emiatt nem lesz megvalósítva semmi, max a nagyon nagy kiadóknál, akiknek van rá pénzük.
-
MaTpr0F
senior tag
Túl szép, hogy igaz legyen kategória.
-
Abu85
HÁZIGAZDA
A drivernek a DX12-ben zéró lehetősége van az alkalmazás működését befolyásolni. Nincsenek meg azok az információi, amelyekkel ez lehetséges, mert az alkalmazás direkten vezérli a GPU-t. Ezért nem fog működni egy csomó minden, ami eddig működött. Csak a fejlesztőknek lesz lehetősége a hardverek képességeit specifikusan használni.
-
Duck663
őstag
Na ezt az nv nem fogja hagyni! Amúgy is, ha Radeont érzékel a rendszerben pl tiltja a shitX-et... Úgyhogy ez a mixelgetés ezek után is épp annyira nehézkes, és ellehetetlenített lesz mint most.
-
Már várjuk a rendszerösszeomlásokat. Úgy hiányzik.
-
djculture
félisten
A fejlesztőknek se energiájuk se pénzük nem lesz erre, eddig is leszrták a pc-t tudja érzi mindenki amilyen minőségű portok jöttek ki..
-
zzola
titán
Ez valami urban legend vagy tényleg komoly?
Új hozzászólás Aktív témák
- Apple MacBook
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Xiaomi Pad 6 - kiapadhatatlan jóság
- Apple Watch Sport - ez is csak egy okosóra
- Filmvilág
- Samsung Galaxy A56 - megbízható középszerűség
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Nintendo Switch 2
- Autós topik
- Okos Otthon / Smart Home
- További aktív témák...
- ÁRGARANCIA!Épített KomPhone i5 14400F 32/64GB RAM RX 9060 XT 16GB GAMER PC termékbeszámítással
- HP ZBook Firefly 14 i7-1165G7 16GB 512GB Nvidia Quadro T500 4GB 14" FHD 1 év garancia
- LG 27UN880-B - 27" IPS ERGO - 3840x2160 4K - 60Hz - DisplayHDR 400 - USB Type-C - AMD FreeSync - Mac
- Apple iPhone SE 2022 / 256GB / Kártyafüggetlen / 12Hó Garancia
- BESZÁMÍTÁS! Microsoft XBOX Series X 1TB SSD fekete játékkonzol garanciával hibátlan működéssel
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest