-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
stratova
veterán
válasz Malibutomi #8550 üzenetére
-
KillerKollar
senior tag
-
TESCO-Zsömle
félisten
-
stratova
veterán
válasz TESCO-Zsömle #8553 üzenetére
Szvsz ha Radeon 390X - vagy bármi is legyen a neve - 2015-ben sem érkezne meg, egyre komolyabban veszítene a részesedéséből AMD.
Ha ez "csak" egy frissítés még az sem lenne baj, csak tényleg versenyképes legyen. -
KillerKollar
senior tag
Az R300-ról tudni lehetett hogy még a GCN alapjaira fog épülni és mivel az csak 2015-ben jön így várható volt hogy az azutáni generáció csak 2016-ban jön,amúgy a 290X is már több mint egy éve kint van és ha jól emlékszem a 7970 már majdnem 2 éve kint volt mire megjött a 290X.
-
Abu85
HÁZIGAZDA
Felesleges vadiúj architektúrát várni. A GCN-t a DX12 sem fogja tudni kihasználni. Túl korlátozott még az új API is ahhoz, hogy az aktuális architektúra tudását teljesen elérhetővé tegye. Egyedül az Xbox One kap speckó kiterjesztéseket, de PC-n ezek nem lesznek elérhetők. A legtöbb fejlesztés az AMD számára szoftveres jellegű lesz, mert a hardverek tudását elérhetővé akarják tenni a fejlesztőknek.
Ezért hallotok kevés hardverről az AMD oldalán, mert a mostani rendszerek jobb kihasználásán dolgoznak, ugyanis túl messze vannak a fejlesztők attól, amit elvileg ki lehetne használni, és amit az aktuális szabványos szoftveres rétegek megengednek.
Azért kap a PS4 olyan innovációkat, mint a Far Cry 4-féle HRAA, mert ott a GNM-ből elérhető a hardver képességeinek nagy része. Ezt kell elérni PC-n.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
válasz TESCO-Zsömle #8553 üzenetére
szerintem logikus, amit csinálnak, a GCN-ben még van optimalizációs potenciál. különösen akkor, ha a 2015-ös kártyák már alacsonyabb csíkszélességen jönnek - jobb elkerülni, hogy a komoly architektúraváltással együtt a gyártástechnológia is cserélődjön.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Sondi1986
addikt
Lehet hogy 2015-ben hoznak ki egy GCN +HBM variánst tesztelés képen.
[ Szerkesztve ]
-
Sondi1986
addikt
Egy kis hírmorzsa: AMD Fiji XT and Bermuda XT make Mystery Appearance
-
Sondi1986
addikt
Érdekesség hogy már szerepel rajta a GM200-as chip is.
-
Abu85
HÁZIGAZDA
Ezek bullshitek. Én beszélgettem az AMD-vel. Lesznek új hardverek, de most nem ez a prioritás, mert a szoftveres oldal annyira le van maradva, hogy a két éve megjelent hardvereket sem lehet kihasználni. Nagyon érdekes, hogy a fejlesztők számos olyan R&D projektet indítottak az elmúlt években, amelyek egyszerűen nem működnek DirectX alatt. Rengeteg effekt a parlagon hever, mert nem lehet beépíteni azokat, pedig vannak 3-4-5 TFLOPS-os alázós hardverek. Egy 6-7 TFLOPS-os hardver jó, de ugyanúgy nem tudná futtatni a sok kidolgozott effektet, ezért van most fókuszban a szoftveres oldal.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Crytek
veterán
Amit leírsz az még jobban bullshitnek hangzik.
Szoftveres oldal ja persze majd 6 évre visszamenőleg fejlesztenek kiknek? A kutya nem foglalkozik már a "régi" kártyáikkal!
Szimplán annyi van megijedtek NV-től ,mert túlzottan elmentek a kurvajó/semmit nem fogyaszt irányba ami nekik nem biztos hogy menni fog ezért jön a terelés.
Next PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
Egy mai átlag játék 30%-ra terheli a GPU-kat. Ez szerinted jó? Mert szerintem nagyon messze vagyunk attól, hogy az legyen. És ha ezen nem változtatunk, akkor amikor 90%-ra terhelik a konzolokat a PC egyszerűen lemarad, mert folyamatosan be kell érni a 30%-kal. Sőt, a PC-n a terhelés mértéke csökken, ami szintén kritikus probléma, mivel két éve még az átlagos leterheltség 40% fölött volt.
Felhasználóként ez lehet, hogy hidegen hagy, de egy gyártót már nem, mert egy negatív tendenciára mutat rá, és nem árt odamenni a fejlesztőkhöz, hogy mi vagy ki a felelős.Bármikor átkonfigurálhatják a GCN-t, hogy fogyasszon kevesebbet. Ugyanazt a stratégiát folytathatnák, amit az NV, csak az AMD nem teszi, mert az NV ezért beáldozta az EA, Square Enix, Deep Silver, Capcom, SEGA, stb. kiadók támogatását.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
"Szimplán annyi van megijedtek NV-től ,mert túlzottan elmentek a kurvajó/semmit nem fogyaszt irányba"
Véletlenül se zavarjon, hogy az Nv buta hardverei tartják vissza a PC játékpiaci fejlődést évek óta. Azért az vicces, hogy ehhez sokan még tapsolnak is.
Tényleg remek dolog, adni egy full buta, lebutított csipet csúcskártya áron. Még jó, hogy keveset fogyaszt. Komolyan... -
Abu85
HÁZIGAZDA
Kérdés mit nyernek vele? Mondjuk a legnagyobb PC-s kiadók lojalitását? Valószínűleg úgy vannak vele, hogy hol kell aláírni. Nagyon egyszerű a koncepció. A régi nagy NVIDIA fanatikus programozók, mint John Carmack vagy Tim Sweeney már nem a PC-s gamingre fókuszálnak, tehát van egy olyan réteg, amelynek az AMD mondhatja, hogy nézd, mi megadjuk, amire vágysz, és ezért cserébe csak a lelkedet kérjük. És mivel az NV a GameWorks után közutálatnak örvend e fejlesztők körében, nem is nehéz a meggyőzés. A mai top tízes fejlesztői csoport "I Am Mantle" pólókat visel a PC-s előadásokon. Van rá esély, hogy ezt az API-t támogassa az NV? Nem. Érdekli ezeket a fejlesztőket? Láthatóan kurvára nem. Sőt, John Kloetzli állandóan odaszúrja az NV-nek, hogy csináljanak végre egy low-level API-t.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
Szerintem gbors úgy értette, hogy ha a juzerek a jobb teljesítmény / fogyasztás mutató miatt nV-t vesznek, akkor hiába szeretik a fejlesztők az AMD-t, kénytelenek lesznek nV kártyákon is jól futó kódot kiadni, különben nem lesz kinek eladni a játékot.
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
Crytek
veterán
Azt kellene már észrevenni AMD vonalon,hogy hiába a "hatalmas" technologiai előny már évek óta mire megy vele az AMD ,de cső komolyan?
Mert láthatóan tesztek alapján kb semmire mert "szar , buta, fos fejletlen" (minden ami nem amd) cuccai vigan ott vannak az atik mellett /felett teljesítményben.
Nem mellesleg eddig a ps3 meg az xbox 360 tartotta vissza a pc-t most meg már amikor ezek "halottak" hirtelen az nv igaz? LOL , köszönöm hogy feldobtad a napomat.
Next PC Upgrade: 2022
-
bpatrick
csendes tag
lassan mehettek az amd vs nvdia topicba
-
Thrawn
félisten
Mindkét gyártóra igaz, hogy alacsony a GPU-k kihasználása. Teccikérteni?
Azzal, hogy az AMD-t fikázod, egyben fikázod az NV-t is, de ez ne zavarjon egy cseppet sem, a trollokat amúgy sem szokta.Different songs for different moods. łłł DIII Thrawn#2856 łłł Look! More hidden footprints! łłł D4BAD łłł WoT: s_thrawn łłł
-
Gainka
őstag
Szerinted a jatekok programok jobban futnak majd attol hogy kevesebbet fogyaszt a video kartyad? Lol.
Nem irkalok ide allandoan ezert ez uton koszonom a kollegaknak, a hirmorzsakat hireket.
Meg annyi hogy most proba keppen valtottam meg persze egy ajanlat miatt, 7790-rol 760-ra azon kivul hogy tobb fpsem van sok kulondseget nem veszek eszre es tudjatok ez a baj. :/
-
Crytek
veterán
Senki nem mondott ilyet én se.
Meg erről a kihasználtságról sem ejtettem szót mert nem érdekel úgy sem fogják megoldani. Magát az egész pc-t kellene konzolosítani hogy legyen valami előrelépés, de ez nem ma fog megtörténni.
Engem csak az zavart hogy évek óta csak ezt a technologiai bla blát tudja lökni az amd és szapulja az NV-t hogy elavult mégis a játékokban ugyanott vannak érdekes.Next PC Upgrade: 2022
-
Thrawn
félisten
Hol szapulja az AMD az NV-t?
A kommentjeidet visszaolvasva nekem úgy tűnik, hogy fogalmad sincs mi zajlik ebben az iparágban az utóbbi időben. Ezek szerint nem troll vagy csak szimplán tudatlan.Different songs for different moods. łłł DIII Thrawn#2856 łłł Look! More hidden footprints! łłł D4BAD łłł WoT: s_thrawn łłł
-
félisten
Pont azért tartanak kb azonos szinten, mert a szoftver egy limitet képez, ahol csak a kártyák nyers ereje számít csak.
Mindezt annak ellenére, hogy az egyik GPU-ban kevesebb a tartalék, a másikban több.
Az egyik céget nem nagyon érdekli ez az egész, a másik próbálja megváltoztatni, eddig mérsékelt látható sikerrel. A második álláspontját igazolja a DX12, az OpenGL next és a Apple Metal megszületése.Az AMD ott cseszi el, hogy túl hamar kezd el kommunikálni a távoli jövőről, ezért az összes VérPisike holnaputánra vár 300%-os fps növekedést.
Túl "lelkesek" (lámák) e téren; ahelyett, hogy bölcsen kussolnának, hogy minden amit mondanak, annak legyen kézzel fogható eredménye normális időn belül. Nem tesznek le kevesebbet az asztalra, mint mások, csak tól sokat jár a szájuk. Erre meg rátezs pár lapáttal a fan-ok messiás várása is (CPU fronton ugyebár már csak ez segíthet), ami felnagyítja a jövő fejlesztéseit irreális magasságokba.
[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
Abu85
HÁZIGAZDA
A jól futó kód lényegtelen, mert azt meg lehet oldani bármivel. Egyszerűen csak le kell tiltani az effektek egy részét. Például a Nitrous új verziójában a Motion Blur már nem aktiválható DX módban, mert jóval több számítás igényel, mint korábban.
Mindenkinek egyéni döntése, hogy milyen hardvert vesz. Ebbe a fejlesztők sem szeretnének beleszólni. Viszont megadják majd a lehetőséget, hogy elérd az xyz effektet a modern irányzatokkal. A PC-ben az a jó, hogy eldöntheted mit szeretnél. De ha kell az effekt, akkor nincs választásod. Muszáj azt a hardvert venni, amit a fejlesztő ajánl. Például a Civ 6-ban nem tudod aktiválni a legjobb élsimítást GCN-es AMD hardver nélkül.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #8582 üzenetére
Nem ezt mondtam, csak azt, hogy a prioritás a szoftver, mert ott van több éves lemaradás. Az új hardver sok előnyt nem kínál, max annyit, hogy több erőből lesz kevés kihasználva. Az AMD szerint a PC-piac érdeke jelenleg az, hogy a ma elérhető hardvereket használják ki jobban a fejlesztők, mert a teljesítményük kétharmad részét simán bennük hagyják. Jó nem kell mindent kisajtolni, de legalább a 60% legyen meg. Ez jó az új hardvereknek is. A felhasználóknak pedig főleg, mert nem feltétlenül kell hardverre költeniük.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
daveoff
veterán
Mielőtt megjelent a Mantle ugyanezt mondtad, hogy az majd ki fogja használni a hardvert 40% helyett 80-90%-ban, és nem így lett. Csak gyengébb processzor esetén van előnye, a VGA ereje semmivel nem lett több tőle (talán egy kicsivel, minimális). Vagy én értek valamit rosszul?
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Abu85
HÁZIGAZDA
válasz daveoff #8584 üzenetére
Annyit elértünk, hogy az új API-val készülő játékok terhelése 60-70% közötti. Ami egy jó ~10%-os ugrás az ide tartozó játékok DX11 portjaihoz képest. Ami nagy ugrásnak tűnik az a Nitrous. A StarSwarmban a hardverkihasználás sosem esik 50% alá, míg DX11-es portnál a hardverkihasználás 2-20% közötti. Persze ez a program alpha, de ezt tényleg nem a DX11-re építették, tehát látszik, hogy működik.
Amiről még nincs adat az az asszinkron compute, ami most került be az Omega driverrel. Ez növelheti a hardverkihasználást 80-90%-ra. Ezzel egyes compute effekteket teljesen ingyenessé tehetők. Ha bekapcsolod, akkor nem fogja levenni érte az fps-t. Ez egyelőre csak pár PS4 exkluzív játékokban működik, de idővel át lesz mentve PC-be a koncepció.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
válasz daveoff #8584 üzenetére
Azért azt ne felejtsd el, hogy a mai játékok elsősorban még DX11-re készültek. Amúgy a saját tapasztalat, hogy igencsak erős CPU-val is nálam igencsak erősödött a VGA is pl. BF4-ben, DX-ben csak High-on tudtam tolni, Mantle-ben pedig minden tekintetben jobban futott Ultrán is.... Pedig egy i5 4690K 4,4Ghz-en nem épp gyenge 16GB 2133Mhz-es ram társaságában.
A Mantle csak lehetőséget ad a kihasználatlan erőforrások kihasználására, de kell a játék is, ami él vele. Másfelől a felszabaduló rengeteg processzoridőt is ezer dologra használhatja a fejlesztő, csak ha használja, akkor nagy cumi lenne DX alatt.Javaslom ezt a régi APU13-as előadást: [link].
Magam is bár rég elmentettem megnézendő videónak, de csak nemrég volt lehetőségem megtekinteni, és eléggé szépen körbejárják a témát. Ez is elég jó, Johan Andersson-tól: [link].A StarSwarm demó pedig igenis jó példa arra, micsoda lehetőségek lakoznak a Mantle-ben, ha kihasználják őket....
[ Szerkesztve ]
-
daveoff
veterán
Engem a StarSwarm pont nem érdekel, mert az nem játék. A jelenleg elérhető Mantle támogatott játékokban minimális a gyorsulás DX-hez képest, átlagosan 5% körüli. Na most akkor ennyit jelent, hogy a hardver jobban ki van használva, 5%-ot?
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Abu85
HÁZIGAZDA
válasz daveoff #8587 üzenetére
A StarSwarm abból a szempontból nagyon fontos, hogy az már egy új elvek szerint épített motorra épül. A Nitrous ledönti azt a régi modellt, hogy van egy viszonylag egyszerű leképződ, és nagyrészt post-process effekttel szépíted meg. A filmekben a CGI azért néz ki piszok jól, mert nem ilyen formában valósul meg. A Nitrous működése a filmekben használt CGI modellhez hasonló, vagyis ez az első motor, ahol funkcionálisan lehetségessé válik a grafikai minőségugrás gondolata.
A StarSwarm technikai demó célja az, hogy bebizonyítsa, hogy a CGI minőségéhez szükséges alapokat képes stabil teljesítménnyel feldolgozni. Ez elég jól sikerült, hiszen az aktuális játékokban alkalmazottnál százszor nagyobb terhelés mellett sem omlik össze a sebesség, azaz nem a hardver az akadálya a grafika fejlődésének.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
tök jó lesz, ha az egyik IHV-nek lesznek kiadói, a másiknak meg vásárlói... én örülök, hogy John Kloetzli & co. are Mantle, de amíg a Mantle nekik jó, a játékosok meg alig vesznek észre belőle valamit, addig fogyasztóként irreleváns. OK, aláírom, pont JK-ék a Civ-ben csináltak valamit, ami frankó - nem nagy, de frankó. csakhogy abból a nagy propagandából, amit többek között Te is folytatsz 1+ éve, már rég ki kellett volna esni valaminek, ami AMD-n besza-behu, nVidián meg összesza-összehu én hót komolyan mondom nVidia tulajként, hogy nagyon szeretnék látni már egy ilyet - nekem az lenne a fejlődés, nem az, hogy gyorsabban optimalizál a dev társadalom.
(#8570) HSM: ne már, Te annál sztem okosabb vagy, mint hogy ezt a demagóg marhaságot terjeszd... mi változott pl., amikor megjelent a DX11, és már az nVidia is tudta a 10.1-et? a nagy büdös semmi. ugyanez van most a DX 11.akárhánnyal - sőt, most már maga a DX11 az ellenség, az meg már csak nem az nVidia bűne...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
HSM
félisten
A DX10.1 volt az utolsó komoly upgrade DX szinten. A DX11 meg úgy beragadt, mint a huzat. Miért fejlesztettek volna, ha az Nv a DX11-et se hozza a VGA piaci igen komoly részesedésével? Ha a Mantle nem jön, sanszosan a DX12 se lenne még sehol....
Pont ez a "gond" az Nv-vel... Arra mennek csak, ami feltűnő. És remekül csinálják. Ugyanakkor ez nem visz előre. Hiába jobbak a ma játékában, ezzel csak erősen fékezik az újszerű dolgok létrehozását...
Gondold végig csak azt, milyen cég, hogy még az új GPU-ikat se dokumentálják... Vicc.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Mert nem próbáltad ki sosem élesben. Én nem tudnék játszani a Thiefen 18 fps-sel, vagy a Dragon Age Inquisitionnel 12 fps-sel DX11 alatt, miközben ezekben a játékokban az AMD API-jával rendre 42 és 37 fps-sel játszok ugyanolyan beállítással. Ez olyan oltári bizonyíték a működésére, hogy konkrétan kiüti a falat.
És a valóság az, hogy a tömegek által használt PC-k közelebb vannak az én gépemhez, mint a tesztekben használt 4,5 GHz-re tuningolt processzorral dolgozó konfigokhoz.A Civilization 6-ban egy picit más hatása van. Ott is nő a sebesség, de ami érezhetően változik az a körváltás, amikor már a világ nagy részét felfedezted. DX alatt sokszor 2-4 percig számolja az AI a lépését. Az AMD API-jával 10-20 másodperc maximum. Ez egy óriási előny számomra, mert nem zökkent ki a játékból.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
daveoff
veterán
Ha a Mantle hardverkihasználása annyival jobb, mint a DX, akkor az miért csak a gyenge CPU-nál okoz gyorsulást? Egy erős CPU-nál miért nem nő a hardverkihasználtság? Az én konfigommal, egy 290-el, thief-ben DX-el 73fps volt az átlag, Mantle-el 79. Én, mint laikus csak ennyit látok belőle, nekem ez semmi. Inkább veszek egy erősebb hardvert, aztán lesz 100fps-em, na az már érezhető gyorsulás. A másik meg, hogy DX-el is bőven játszható a játék egy 290-el is. Én értem, hogy az irány jó, meg szűkséges, de amit eddig láttam az nem győzött meg egyáltalán.
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
stratova
veterán
válasz daveoff #8592 üzenetére
Csak sanda sejtés, de lehet hogy Abu kifejezetten a shader procik kihasználására célzott.
Ettől függetlenül a többi egység (pl TMU ROP) már komolyabban ki van használva, így nem mutatkozik meg komolyabb javulás vagy más ponton nem teljesen kiegyensúlyozott a VGA.
Viszont ha úgy vesszük pl a Hawaii/Tahiti kártyáknak jelenleg játékos szempontból teljesen feleslegesen magasabb a DP Flops aránya. Kérdés ez is hasznosítható lenne-e általános számításra más API-val játékok alatt.StarSwarm számomra mondjuk azért furcsa példa, mert tipikusan olyan területet szimulál, ahol rengeteg egységgel kell számolni, így komoly a CPU-ra jutó teher.
Pár online MMO is elég durván skálázódik magszállal és IPC-vel együtt (korábbról Guild Wars 2 talán). -
nagyúr
nVidia VGA-val DX alatt sem esik le a Thief 18 FPS-re, még egy 2 magos Sandy Pentium mellett sem. a Dragon Age-ről sem találok sehol ilyen degradáló eredményeket, még az FX4000-es AMD-kkal sem.
no meg elég visszás, hogy úgy próbálod igazolni a modern technológia eredményességét, hogy egy 6 éves architektúrájú CPU-t teszel a vadonatúj AMD VGA mellé ezt hívják corner case-nek, és minden, csak nem bizonyíték.a Civ6 AI mitől gyorsabb? átad a VGA-nak is számításokat?
(#8590) HSM: asszem belefutottunk vmi csillagközi anomáliába, és eltérő univerzumokból beszélgetünk. a DX 10.1 komoly upgrade volt? wtf? a kompjútséder meg má' nem is menő?
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Sajnos leesik. GTX 770-nel sem volt több, mint az R9 285-tel. Ez egy API limitáció. Nem tudsz ellene mit tenni.
Dragon Age nehezebb ügy, mert ott van valami programhiba. Már jeleztem a Bioware-nek, hogy ledobja magáról a hardver. Írták, hogy tudnak róla, de jelenleg nem teljesen stabil a DX mód. Azt mondjuk aláírom, hogy ez nem a gyártók hibája.
Nem veszek csak azért gyorsabb processzort, hogy teljesen felesleges számításokat végezhessen el egy elavult API.A Civ6 DX alatt az AI egy szálon számolja. Ráadásul négymagos procin azon a szálon, amelyiken renderel, mivel a másik három mag a driveré. Az AMD API-ján minden szálat igénybe vesz. DX alatt is próbálkoztak a többszálú optimalizálással, de csak lassabb lett, így végül maradt az egyszálú számításkorlátozás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Werkly
őstag
Ha már találgatós..................
-
nagyúr
nem inkább egy optimalizációs probléma egy olyan CPU esetén, ami 2 éve már a térképeken sincs rajta?
amit a Civ-ről írsz, az elég érthetetlenül hangzik. mit csinál a driver három szállal? de mondjuk ez már itt nagyon off...
(#8595) HSM: yep, úgy rendben van - a DX11 valóban némileg half-assed kísérlet (bár javaslom, olvass vissza, miket írtak róla anno egyes pingvinek ). akkor viszont tényleg nem értem, miért az nVidia fogja vissza a fejlődést, amikor több, mint fél évvel korábban volt DX10-es cuccuk...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
daveoff
veterán
válasz KillerKollar #8599 üzenetére
Ez csak simán egy felturbózott Hawaii, ami simán elképzelhető. Viszont VRAM-ot pakolhatnának rá többet is....
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- XFX RX 6600 XT SPEEDSTER SWFT 210