Új hozzászólás Aktív témák
-
Ren Hoek
veterán
"Poor Volta" technikailag?
Aha, szóval hoznak egy modern GPU-t, aminek a feature-jeit megint nem használja majd semmi egészen kb a Voltáig. Addig meg 1070-1080 szinten lesz... miközben ott az 1080 Ti és a Titan P.Tehát Poor Volta, mert még a jelenlegi "gagyi" Pascalt sem sikerül beérni a "jelenben"
Vagy ez is olyan lesz, mint az overlockers dream?Mod: ja és nekem is feltűnt, aláraknak egy 1 TB/s memóriát felreklámozzák a high bw-t, és akkor lekommunikálják, hogy az új feature sikeresen csökkenti a bandwidth igényt...
Laikus számára is teljes ellentmondás ... -
cyberkind
félisten
Én eddig úgy tudtam, hogy a Volta jött volna most nem a Pascal, de lehet, hogy tévedek, nem tudom.

(#25191) ->Raizen<-
Ez csak a PC alapú kozoloknak köszönhető, lassan összeáll a kép a DX12-vel és a Shader Model 6.0-val, aztán jönnek az igazi ctrl c - ctrl v portok, öröm lesz játszani.
-
-
#85552128
törölt tag
-
FLATRONW
őstag
Én ezt értem, hogy ugyanannyi a számítás. Már nagyon régóta nem számít, hogy milyen textura minőséget állítunk be, ha belefér a VRAM-ba, akkor max 1-2 fps a különbség.
Csak az a bajom, hogy régen ezzel senki sem törődött. A texturákat felnyomták maximumra és ez negatívan érintette a kevesebb VRAM-al rendelkező kártyákat. Pedig megtehették volna azt, hogy a textura részletességet minimumra veszik mindenhol, hiszen nem oszt nem szoroz. A végeredmény pedig abban az esetben más lett volna.
Pedig nagyon jól tették, hogy mindent maxra toltak, mert a vásárlók arra kíváncsiak, hogy maximum minőség mellett melyik a jobb.
Sajnos ezzel az önkényes módosítással annak a kornak vége van.
Lesz két hasonló teljesítményű kártya, csak ép a minőség nem lesz azonos. Az ilyen tesztek nagyon át fogják baszni a kevésbé hozzáértő vásárlókat. -
V!ck
senior tag
Azt mondtad, hogy Radeonon 2gb vram a minimum Doom vulkan alatt. Az létezik, hogy annyira minimum, hogy kevés is?
A problémám a következő (volt) : R9 380 2GB, Doom, Vulkan, ~medium settings, kis tereken 70-110fps, nagy területeken bezuhant 24-26 fps-re, bármit csináltam. Low-med-high (nem csak a textúra) beállítások alkalmazása esetén sem változott semmi, nagy területeken koppra ugyanúgy bezuhant 24-26 fps-re (mindig ugyanott, ugyanúgy álltam meg, úgy ellenőriztem). Szűk folyosókon, kis területeken szépen kijöttek a beállítások közötti fps különbségek. Mondhatná itt bárki, hogy "mert az FX", de nem lehet cpu limit, hiszen most RX 480-nal nem ugrok be 90 fps alá sem, ultra beállításokkal
-
FLATRONW
őstag
A teszteredmények nem összehasonlíthatóak, mert nem ugyanazt a minőséget kapjuk.
Egyébként melyik verzió volt a 480-ból? A 8 GB-os vagy a 4 GB-os? Elég fura lenne, ha a 8 GB-os verziót mutogatnák ilyen pop-up teszteknél, miközben a másik oldalról 3 és 3,5 GB-os kártyák vannak tesztelve.
-
TTomax
félisten
Akkor a Fury X ennyével gyengébb lenne mint a 980Ti?Az opció akkor is bennmaradhatott volna,majd az user eldönti tetszik-e neki,nem hiszem hogy mérne a játék valamit is szimplán device id alapján szelektál,és annak mindig megvan az a hátránya hogy ha 3év után elöveszed a játék akkor levágja neked minimumra a grafikát merthogy nem ismeri fel a vgad,a frissitése meg luxus...ilyen volt a GTA IV is...
-
TTomax
félisten
Nekem nem kell teszt,látom a saját gépemnél mennyi az annyi,és azt is látom hogy Vulkan alatt viszont zero a másik gpu használata,igy marad az OGL mert gyorsabb.Egyébként én nem vagyok elalélva annyira a Doomtól,igen rühellem az olyan motorokat amelyek automatikusan letiltan ilyen-olyan grafikai opciókat mondván nincs elég VRAM az user gépében a grafikus megjelenitön,szóval ennyire szuper az az OGL port nálam,de több gpuval nem nagyon van más megoldás.
-
TTomax
félisten
Nohh azért ne ferditsünk,valóban nem skálázódik hatékonyan az AFR OGL alatt,de azért a Vulkán se hoz +50%ot OGLhez képest,a flagship amd oldalon meg még mindig a Fury duo.Azt is tegyük hozzá,hogy az OGLhez mért a javulás,mert DX11 port nincs,és hát az OGL minden csak nem jó api...
(#24972) HSM
Ugye nem a coil whinera gondolsz cicogás alatt,mert annak ilyen formában semmi köze nincs a fogyasztáshoz.
-
Asbee
veterán
Mellé beszélés. Nem ittről beszéltem hanem, általánosságban. És azzal mi a helyzet aminél fordított a helyzet a mai napig? Sokadik alkalommal, ismét közelében sem vagyunk annak amit jósoltál, csak most éppen kifejezetten ezeknél a kártyáknál. Persze van, ahol van javulás, ezt nem vitatom egy percig sem. De megint egy téma ami akkor nem lett óvatosabban kezelve....
-
Asbee
veterán
Ha mutatsz 10 ilyen játékot, amivel játszanak is, azt mondom egyet értek. Amúgy meg 390-ről van szó.
(#24959) fules: )): Nem vitatom a javulást, csak sajnos ismét egy bukott jövőképhez jutottunk ennél a témánál is, amit annó óvatosabban kellett volna kezelni és kommunikálni.
-
#85552128
törölt tag
Az AMD ugyan nem csinált semmilyen mérőprogramot.
Egy GUI és egy Overlay az OCAT ami integrálja PresentMont és ezt használja a mérésre és ezekből az adatokból dolgozik - ezt egyébként más oldalakon ki is emelik, hogy lényegében egy GUI a PresentMonhoz...
Fel lehet rakni, utána lehet nézni, ugyanolyan adatokat generál mint a PresentMon még a logfile neve is az. Az OCAT license.txt-jében pedg be van linkelve a PresentMon githubja...Annyit csinál ez az egész, hogy egyben van egy jó benchmarkoló csomag, de a munka lényegi részét továbbra is a PresentMon végzi (ami egyébként az Intel fejlesztése).
Szóval ennyit erről, hogy rosszak voltak a mérések...
-
#85552128
törölt tag
Ez gyakorlatilag egy PresentMon GUI/mod - amivel eddig is mindenki mért, te pedig azt állítottad a BF1 bencheknél is, hogy csak a játékba épített benchmarkokkal lehet rendesen mérni (sőt egyenesen azt, hogy egy külső program egyáltalán nem láthatja mi folyik a játékban) úgyhogy nem érnek semmit. Most meg maga az AMD cáfolta meg

-
No de nem azt kell nézni mi volt a múltba, hanem hogy milyen lehetőségek vannak a jövőben. Kit érdekel eddig mi volt, ami eddig volt nem működik. Változtatni kell...

A két, két és fél év pedig... hát nem. Ennél sokkal gyorsabban meg lehet ezt oldani, 1 éven belül vagy kevesebb. Sosem ezért várunk, hanem vagy a logikai design kér időt, vagy pedig a gyártástech nincs kész.
A kettő között már gyorsan megy a dolog, ha minden kész van (csak pénz és erőforrások kérdése inkább). Számos példa van rá, már évek óta, ha kell éven belül lehet hozni új termékeket.Persze igen attól is függ az idő mit és milyen formában veszel.
-
Miért kéne egy generációval régebbit licencelni?

Az RTG csak az NV-vel vesenyezne igazából... a többiek meg eldönhetik kell e nekik RTG GPU vagy nem.
Nem mellesleg, ki garantálja hogy verné?
Lásd Apple többet kihozott az ARM-ból, mint bárki más...
Most, ha netán az lenne, amit pletykálnak, hogy intel vesz RTG IP-t, neadjisten komplett GPU-t, és sokkal jobban tudja implementálni, vagy gyártástech miatt jobb lesz, mint az AMD, akkor máris bukik az elméleted.
Őszintén amióta bejelentették hogy RTG és külön válnak amennyre csak lehet én ezt várom és a legesleglogikusabb lépés lenne...
Ettől független ugyanúgy benne van, hogy marad minden mint most... azis lehet még a Zen sikerére/bukására várnak... ha siker marad így, ha bukás, akkor meg a tényleges szétválás nehogy magával rántsa az RTG-t az AMD vergődése. -
#85552128
törölt tag
Te folyamatosan a Polarisról beszélsz én meg a régi kártyákról. Az nV részéről megkapták a támogatást az AMD részéről nem. Pont.
Azt pedig a userek majd eldöntik melyik élmény a jobb. A 970/980 tulajok csak áradoznak, hogy óriási a különbség, a 380/390/Fury tulajok meg max álmodhatnak róla.

Nyilván ha a Maxwell-re meglehetett normálisan csinálni akkor a GCN2-3 is tudná. -
#85552128
törölt tag
Ha megkapta csak nincs engedélyezve akkor mit kapott meg ?

Aha 470/480 megkapja, de a 390/Fury nem, mert "minőséget" akarnak, persze - akkor nem adják ki semmire. Meg arra is hat, hogy ha nincs stabil 90 FPS-ed akkor jobb VR élményed legyen, ennek köszönhetően pedig nem minimum 970 kell hanem egy 960 is elég, de a többi HW is profitál belőle.
Bár nyilván, ha az nVidia csinálja ezt akkor downgrade, mesterséges elavultatás stb. ha az AMD akkor jól van ez így, nem kell az...

-
kovcsrob
tag
Ami ebből az egészből nekem lejött:
A "független" csapat készít egy tesztprogramot. Vagy a még kevésbé függetlan egy motort egy játékhoz. Amiben megpróbálja a becsült egyéb hardverelemek erőforrását elosztani.
Erre még rájön a driver (nem low level esetén), ami szintén belenyúl az erőforrásgazdálkodásba. (ráadásul ez még változik is
... bár a kártya egyéb paraméterei is változhatnak egy driver frissítéstől.)Rám nézve a következmény:
Mivel
a CPU m 30-50% gyengébb mitn a tesztgépekben i5 4460
a memóriám jelenleg csak 8GB
és a játékokat RAID re telepítem SSD helyett (ami lassabb)
Az egyéb hardvereim paraméterei lényegesen eltérnek az optimumtól. Tehát a tesztek KB kuka.Mivel a driver jelentősen beleszól az erőforráselosztásba és mivel tudjuk, hogy a driver figyeli, hogy mi fut. Ezért a kifejezetten teszt célra írt szoftverekben csalni.. izé optimalizálni pár százalékot már már kötelező. Szóval azok meg végképp kuka.
Mivel a fogyasztásméréseknél a tüskék ideje csak nehezen figyelembevehető. Értsd: nem tudjuk, hogy egy AMD kártya pontosan mekkora teljesítménytöbbletet igényel és az eltérő erőforrásgazdálkodás miatt, mekkora a plusz terhelés igény... vagy épp spórolás.... vagy csak nagyon komplex tesztekkel tudhatnánk meg. Így ez is majdnem kuka. (de legalább minimális értelme van)
A hűtés hatékonysága és zajszintmérés totál környezetfüggő. (ház stb) De még műterheléssel is az eltérő terhelési jellemzők miatt(impulzus szerűen vagy statikusan kell hőt elvezetni) ....
ÉS erre még rájönnek az eltérő felhasználói igények.
ésszerű döntés KB nem hozható....
az egész VS kérdés szinte! csak érzelmi dolog -
Solymi81
aktív tag
Azért szerintem ez mégiscsak probléma, mert így könnyen mondhatja mindegyik fejlesztő ill. grafikus kártya gyártó, hogy vedd meg a legújabb 8 vagy X GB-os kártyánkat, mert csak azzal élvezheted teljes részletességben a játékot. Sőt, mégha esetleg a gyengébb kártya bírná, még akkor se fogod tudni, mert önkényesen letiltják a választási lehetőséged.
Továbbmenve pedig igen könnyen, szinte észrevehetetlenül lehet majd a textúrák felbontását változtatni, mert ha nem állsz meg minden méteren a textúrában gyönyörködni, akkor többnyire észre se fogod venni, hogy csökkent a textúra felbontása.Természetesen ez gyártófüggetlen dolog és játékfejlesztők/kiadók részéről fog jönni az a pofátlanság, hogy, nem lesznek a játékok rendesen optimalizálva. Nem mintha most jól lennének.
-
FLATRONW
őstag
Az világos, hogy a ugyanazt a terhelést kapja low textura mellett a GPU, mint Ultra textura mellett.
Az is világos, hogy remélhetőleg a benchmarkokban erőltetve lesz a textura minőség.
De felmerül egy kérdés. Mégpedig az, hogy mennyire lett volna fair DX11 alatt a 2GB-os kártyákat alacsony textura minőség mellett mérni? Mindegyik tesztoldal maximális beállítást alkalmazott (szerintem ez így igazságos) és ezt sok esetben a 2GB-os kártyák meg is érezték. -
Ez világos, de attól még nem azt a grafikát méred, amit szerettél volna. Nem tudod detektálni azt, hogy X VGA-nál a játék VRAM limites. Másrészt a játékosok részéről meg menni fog a sárdobálás, hogy ronda homályos a játék maxon, pedig valójában csak kevés a VRAM a VGA-jukon.
-
sakal83
addikt
Szia ABU
Az állásfoglalásodra lennék kíváncsi VRAM témában. Gondolom sokakat érdekelne, hogy mi az elég, mi lesz elég, melyiket érdemes választani, mert a gyártók azért adtak egy kis felütést a usereknek:
1. GTX1060 3GB vs 6GB
2. RX470 4Gb vs 8GB
3. RX480 4GB vs 8GBFullhd tekintetében érdekelne a véleményed
Jelenleg elég-e 3 és 4 Gb, ha igen meddig?
Mit okoz, ha kifutunk a memóriából?
Azonos kategórián belül melyiket érdemes választani a halandónak.Pl nekem most van egy 3Gb GTX1060-am, őszinte vagyok nagyon elégedett vagyok vele, de 2 évre tervezek vele, így szóba került, hogy leváltom 6 Gb-osra. Sokakat foglalkoztat ez a kérdés. A gtx970 vs gtx1060 3 Gb viszonylatában is.
Köszönöm, ha kifejted a véleményed

-
pengwin
addikt
Továbbra is érthetetlen, hogy a Civ6 mégis miért ennyire GPU intenzív.
Látványban semmi előrelépés a Civ
E-hez, sőt, kis túlzással a Civ5-höz képest sem, mégis a hardver többszörösét igényli.
Ráadásul nem Vulkannal jött ki, és később is csak DX12-t fog támogatni, pedig a C
E Mantle-ös (Multiplatform!!!) játék volt... egyszerűen ordít a játékról, hogy nem a játékosok érdekei voltak az elsődlegesek a fejlesztésnél, hanem a MS meg a hardvergyártók szempontjai domináltak. -
Petykemano
veterán
-
wjbhbdux
veterán
a kérdés csak az hogy egy ilyen 2D fosban miért nincs 200FPS akár integrált videoval
jól tömheti a kiadó zsebét az összes hardver gyártó hogy ez így jelenik megadler741: a full beállítást váltogasd párszor, néha beakad. alternatívaként itt egy program ami javítja a HDMI fakóságot, minden driver telepítés után alkalmazni kell. Szörnyű, hogy ez az alap beállítás.
-
#85552128
törölt tag
el van rejtve = a grafikai beállításoknál van a felbontásválasztás alatt - még én is rögtön észre vettem akinek nincs is multigpus konfigja. Szóval x számú kártya tesztelésénél és x számú felbontásváltásnál valószínűbbnek tartom, hogy nem működik mintsem azt, hogy nem vették észre.
-
-
huskydog17
addikt
"A VTX3D célja az volt, hogy Kínában érjen el sikereket, ugyanakkor annak ellenére a PowerColor maradt inkább a kedveltebb márka, hogy a VTX3D-t Kínára szabták."
Nem egészen, itt azért pontosítsunk egy kicsit. A VTX3D célterülete Ázsia és Európa volt, ahogy a hivatalos közleményben is szerepel. Európában a Powercolor mellett még a Club3D-vel is meg kellett birkóznia.
-
HSM
félisten
Pedig a VRM-re hűtést tenni azért nem egy nagy tudomány, se nem drága.
(#24406) proci985: Én már régóta azt figyeltem meg, hogy a VTX3D ugyanazokat a kártyákat hozta, mint a PowerColor, csak kindertojás minőségű műanyagokkal meg néhál kicsit jobban megvágott dizájnnal cserébe alig-alig olcsóbban.
Nem csoda, hogy annyira nem volt rá nagy igény egy PowerColor meleltt. -
proci985
MODERÁTOR
ja, mondjuk VTX3Dnek a vege fele tenyleg nem volt sok ertelme. volt Powercolor PCS+ es VTX3D X-Edition kartyam (mindketto hazon belul elvileg flagship, bar a PCS+ 7850 volt, az X-Edition pedig 290X), a VTX3D minosegben siman hozta a PCS+ minoseget. az meg foleg moka volt, hogy az elvileg kinara szant olcso VTX3D X-Edition osszessegeben minosegibb volt, mint az Asus Matrix Platinum 290X fronton. pl normalisabb volt a backplateje (egy Giga 970 G1hez kepest is), meg nem sporoltak le a memhutest rola.
EVGA mar a 970nel is lejjebb adta, ld az elvagott hocsoves cicergo 970 ACXek.
(#24403) FollowTheORI: HD2900at sose hevertek ki... HD48x0 szeria akkor mi volt? meg a GTX280nal amikor hirtelen parszaz dollarral arat kellett csokkenteni?
. 480al semmi baj nem volt azon kivul, hogy nagyon meleg volt es csak ket kijelzot tudott meghajtani szimultan. -
huskydog17
addikt
OK, akkor viszont erre mi a magyarázatod?
13 Minutes of Watch Dogs 2 PC Gameplay
Ez tutira PC gameplay, az NV rakta fel, egy GTX1080-al ment ami röhögve bírja 4k alatt is a 60fps-t, ennek ellenére a játékot FullHD 30 fps-el vették fel. Na ez ultra gáz. Nekem van egy olyan érzésem, hogy annyira hulladék lesz a PC port, hogy még a GTX 1080 sem fogja bírni a stabil 60 fps-t FullHD alatt, de remélek nem lesz igazam! Ez a 30fps felvétel legalábbis a premier előtt pár nappal nagyon gyanús! -
Abu85
HÁZIGAZDA
Ehhez még annyit, hogy ez már a tervezésen meglátszik, mert az NV a ROP-ok kialakításán spórol. A Maxwell óta kihagyják a dedikált color-depth cache-t. Ez egy alapvető tranyóspórolás, amivel ugyan vesztenek némi tempót, de számolni kell azzal, hogy sok ROP kell.
A többi kérdésre:
A DX11 eleve sokat hagy a modern GPU-kban. A D3BC egy tizenx éves alap a négykomponenses vektor ALU-s függőséglimites architektúrákra. Ma már ettől gyökeresen eltérnek a hardverek. Ezért jön a D3BC helyére a DXIL.Az API specifikáció nem foglalkozik a CPU-terheléssel. Az API csak követel valamit, amit valahogy a meghajtónak el kell érnie. Akár a host CPU befogásával. Nyilván a mintavételezőbe bekötött erőforrás nem varázslattal kerül át a multiprocesszorba.
-
namaste
tag
Olyan nincs, hogy több ROP-ot igényel az NV és kevesebbet az AMD, a ROP igény nem függ attól, hol helyezkedik el a TBR-IMR skálán.
A programokon múlik, hogyan használják a hardvert és persze az API-tól is, mit enged meg. DX11 esetén sok marad a GCN-ben, a ROP lesz a korlát, még a compute shader sem segít, mert nem lehet párhuzamosan futtatni a grafikával. Ezt oldja meg a DX12 async compute, a nem használt ALU-kat munkára lehet fogni.
Az SM6 és az AGS nem önmagáért van, l'art pour l'art, hanem a hatékonyság növelése miatt, minél több hasznos számítást lehessen végezni. Azaz az elméleti FLOPS-ból minél többet kihozni.Erről a Tier 2 processzorterhelésről kérek egy API leírást.
-
schawo
titán
Szerencsére pc-re nem csak ócska konzolportok léteznek, különben nem szabadna pc-t venni egyáltalán, csak konzolt. A játékok döntő többségének semmi köze a konzolokhoz, és ott marad a dx11.
Ráadásul a Win10 részesedése alacsony és csökken. Az ingyenes áttérők egy része visszatért az alaprendszerhez.
-
namaste
tag
Akkor gyorsabb a GCN, ha van async compute, az AGS csak hab a torán.
Hasonlítsd össze az RX 480 - GTX 1060 vagy az RX 460 - GTX 1050Ti eredményeit, van összefüggés a számítási teljesítmény és az FPS között.
Az RX 480 +30% számítási és -30% ROP teljesítménnyel 20-30%-kal több FPS-t ad.
Az RX 460 ugyanannyi számítási és fele ROP teljesítménnyel 10%-kal kevesebb FPS-t ad.Bekötési modell: nem értem miért járna több processzorterheléssel. GCN-ben az az SGPR-ben vannak a leírók, NV-nél a konstans memóriában, mindkét cég hardvere úgy van felépítve, hogy optimálisan kezelje.
Tehát nincs kötelező RS szabály, akkor abba belefér az NV ajánlása is, ha valaki NV-re akar optimalizálni, akkor megteheti.
-
namaste
tag
Ez nem ilyen egyszerű. És ez alapvetően félre van értve.
A GCN azért tud jól alkalmazkodni ezekhez az explicit API-khoz, mert ...
... mert gyorsabb (FLOPS) mint a kategóriatárs NV kártya. DX11 alatt az ALU-kat nem tudja kihasználni, egy részük üresen jár.
Mindig kiválasztasz egy dolgot, amivel megmagyarázod miért jobb a GCN, pl. most éppen a skalár egység.
GCN feltételes elágazás: jó, működik, sokoldalú, de van valami előnye a hardveres vezérléssel szemben? Az elágazás vezérléséhez több utasítás kell: elmenteni a maszkot, beírni a kontroll regiszterbe az új maszkot, ugyanezt megcsinálni a másik ágra, majd visszaírni az eredeti maszkot. Ezek mind külön-külön utasítás, egy skalár utasítás végrehajtásához 4 órajel kell.
Az NV ajánlásai megsértik a DX12 előírásait?
Amikor az MS ajánlásokat tesz az RS használatára, akkor figyelembe veszi az Xbox GCN GPU-ját, azaz a saját hardverét.Az NV milyen formátumot nem támogat a Root Signature-ben?
-
HSM
félisten
Tény, hogy én közelse tudtam volna ilyen szépen levezetni (reszpekt érte, igen hasznos összefoglaló olvasmány lett
), de alapvetően azt írtad le, amit én is összefoglaltam abban a két sorban. 
Ahogy írod: " Egyszerűen voltak tipikus feladatok, és arra vonatkozóan tipikusan tudni lehetett, hogy a fejlesztő milyen puffert és milyen formátumot fog használni", pont ez a lényeg, hogy az Nv ezekre gyúrta ki a maga architektúráit, illetve a gyors elérésekkel rengeteget tudtak nyerni fogyasztásban és DX11 alatti hatékonyságban, de ennek éppen ez volt az ára, hogy rugalmatlanabb a rendszer.Igen, az jó, ha az API diktálja a tempót, egészen addig, míg az API diktálja azt, és nincs beláthatatlan hátrányban a hardverekkel szemben, mint a DX11 már elég régóta....

Nem az a baj, ha a már több, mint 3 éves GCN-ek nem fognak úgy hasítani, mint az újabbak, hanem ha kihasználatlanul maradnak a képességek, amiket generációról generációra beépítenek az újabb és újabb GCN verziókba. -
Ren Hoek
veterán
Az lesz a mérvadó ahogy a nagy külföldi oldalak tesztelnek. Nyilván lesz DX12 szekció is egyre nagyobb részben... de csak azzal tesztelni, miközben alig van értelmes cím?
Persze ha kaptok emiatt AMD-től kenyérre valót, akkor érthető... csak a pártatlanság sérül...de nem probléma
kinek mi.. -
Ren Hoek
veterán
Akkor max nem olvassuk el, mert nem lesz túl sok infótartalma

Gondolod, hogy csak a szutyok DX12 játékok miatt fog megvenni valaki egy kártyát? Még egy rakás DX11 játék van amiben érdemes tesztelni, mert azzal játszanak az emberek. Pl én egy Witcher 3-at, GTA 5-öt (etc...) szeretnék használni, amiben szeretném látni hogyan szerepel a kártyám...
-
Raggie
őstag
Hát én azért sajnálnám, ha az 1070-nek nem állítanának közvetlen ellenfelet. Én is hasonló ár és teljesítményű kártyára várok a pirosaktól. Kisebb teljesítményre nem szívesen cserélnék, ennél még több pénzem meg nem lesz a közeljövőben rá...

Remélem lebutítanak azért valamit erre a szintre is. Vaaaagy lesz ilyen olcsó a feljebbi kategória!

(zöld cégnek továbbra sem vagyok hajlandó pénzt adni semmilyen módon) -
#02119936
törölt tag
C: meghajtó már most is SSD van szóval haladok a korral.
De ezek SATA-s
SSD elég csiga tempóval rendelkeznek a GPU szükségleteihez mérten. M2 már jobb ez sem az igazi Z97 es lapok csak 10GB/s 170es 32GB/s max és lepke fing a készülő HBM 2 vram-okhoz képest.
Készülnek majd komolyabb SSD-k is a parlagon heverő PCI express 16x 2X-es slot-ba vagy hogy gondolják ezt megoldani a sebesség problémát. ? -
huskydog17
addikt
"Egy ember hat hét alatt meg tudja csinálni."
Ezt mondd a fejlesztőknek! Amúgy ki mondta ezt neked? Forrást please!
"A valós meló a motorstruktúra, de az kész."
Nem. A Cryengine 3.x-es verziók DirectX11-re lettek megírva. Az 5-ös verziók már új struktúrát használnak. Ezt írták is a fejlesztők, hogy a 3.8-ra váltás csak az 5-ös főverzióra való átállás első nagy lépcsője. -
#85552128
törölt tag
"A 3.6 óta van Mantle leképező a CryEngine-ben, és abból nagyon egyszerű DX12 leképezőt csinálni."
Láttuk mennyire egyszerű pl. a Frostbite-nál: 2014 óta van Mantle publikusan az engineben, de a 2015 végi Battlefront, vagy a 2016-os Mirrors Edge sem kapott DX12-t, csak több mint két és fél évvel később a BF1 kapott egy jelenleg is problémás DX12 támogatást.
-
huskydog17
addikt
"Az Ark: Survival Evolved még készül, de az Unreal Engine 4 alap DX12 módja nagyon instabil, ezért a fejlesztők úgy döntöttek, hogy a Microsoft segítségével írnak egy sajátot. Ezért nem jelent meg az előző év nyarára ígért DX12 mód. De Xbox One-on már ezzel fut, és ezt át fogják rakni PC-re, amint hozza a Microsoft a Windows 10 frissítéseit a következő körben."
Láttuk hogyan fut Xbox-on.
"Az Umbra még nem jelent meg. Viszont a CryEngine miatt támogatni fogja a DX12 módot. Ez nekik csak egy pipa a buildnél."
Feltételezem itt a Wolcen: Lords of Mayhem című játékról van szó. Ha igen, akkor szerintem itt még 2018 előtt nem lesz DX12, a Cryengine 5-re való átállás még csak tervben van, de még nem kezdtek neki, idén nyáron álltak át 3.8.6-ra.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- SAPPHIRE RX 9060 XT 16GB GDDR6 NITRO+ - Új, Bontatlan, 3 év garancia - Eladó!
- SAPPHIRE RX 9060 XT 16GB GDDR6 PURE OC - Új, Bontatlan, 3 év garancia - Eladó!
- ASUS RTX 5090 32GB GDDR7 ROG ASTRAL OC - Új, Bontatlan, 3 év garancia - Eladó!
- Új garancias PNY OC rtx 4070 super 3 ventis OC verzio!
- Veszek RTX 4070!!
- Apple iPhone 13 Mini 128GB /Kártyafüggetlen / 12Hó Garancia / 99% akku
- HP 24" IPS LED FULL HD monitor 24fh 4HZ37AA
- Telefon felvásárlás!! Apple Watch Series 6/Apple Watch Series 7/Apple Watch Series 8
- HIBÁTLAN iPhone 13 mini 128GB Starlight -1 ÉV GARANCIA - Kártyafüggetlen, MS3288
- HIBÁTLAN iPhone 13 mini 128GB Midnight -1 ÉV GARANCIA - Kártyafüggetlen, MS3330
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: Promenade Publishing House Kft.
Város: Budapest



Laikus számára is teljes ellentmondás ...






E-hez, sőt, kis túlzással a Civ5-höz képest sem, mégis a hardver többszörösét igényli.
![;]](http://cdn.rios.hu/dl/s/v1.gif)

De ezek SATA-s

