Új hozzászólás Aktív témák
-
-
#45185024
törölt tag
Mi az az NDA ? National Defense Academy ???
A Bethesda bemutatót nagyon várom, hogy mi lehet a két RPG amit idén nagy titokba kiadnak.
Lehet azt élőben meg is nézem.
Nagy BUMM lesz ez minden portálnak a Prohardvernek is, a teljes 300 as széria az összes gyártóval, információ bomba minden mennyiségbe teljes töménységgel.
Nem is emlékszem volt e ilyen már hogy valaki a teljes szériát egyszerre robbantja be a köztudatba. -
Komplikato
veterán
válasz
kalozhun100 #85 üzenetére
Még nem, az NDA 16-án jár le, utána lesz teszt, fotó, infó özön, ár, megjelenés.
-
-
#45185024
törölt tag
De E3 -ra befáradsz asszem reggel 9 kor nyit és megveszed
De ha nem akarsz elmenni csak nézd: E3] -
#45185024
törölt tag
válasz
Menthirist #74 üzenetére
Értem és elfogadom de akkor hogy magyarázzátok ezt az oldalt?
[300 as széria]
Itt az egy magosra 8 a 2 magosra 16 Gigát mondanak !!! (390x 390x2) -
Komplikato
veterán
Ez azért nem ide vágó példa, mert a mondatba foglalt rész IGAZ volt. Ugyan is akkori PC-k 256K vagy 512K memóriával jöttek ki, így az OS és egy combosabb alkalmazás csak cipőkanállal fért a memóriába. 640K-val tényleg már jobb volt, de igazából 1MB-al csúszott jól a DOS, főleg 5.x felett.
-
alabaro
csendes tag
De a különböző kártyákon mennyi munkával jár az optimalizáció DX12 alatt? Sok? Lehet hogy csak beállítások kérdése? 'butaguru' vagyok
-
sb
veterán
válasz
#06658560 #80 üzenetére
Az a gond, hogy ha én nem érteném akkor nem írnál olyat amire már korábban megadtam a választ.
Crysis1: Kiadták úgy, hogy 2-3x jobb hw kellett hozzá mint az aktuális. Mi volt a népszerűség titka?
1. Hogy szebb volt mint bármi más. 2. Hogy jött később hw, amivel futott.Nézd meg ma mi a helyzet: Ha valami szar akkor a csúcshw-n is szar.
Ill. most az új apikkal tudsz írni megint sokkal jobbat mint a jelenlegi játékok, tehát az 1. pont teljesülni fog. A 2. pont pedig nem, mert nem jön gyorsabb hw ill. DX11 alatt nem tudod jobban kihasználni.
Még egyszer: Titan X-et is tehetsz alá, lehet, hogy gyorsabb lesz egy tizedárú kártyán.Szóval most nincs hw-s előrelépési lehetőség. Sw-s pedig van, méghozzá nagy.
Ezért van az, hogy aki nem lép az nem tud eladni majd. Semmit, se hw-t se sw-t. -
#06658560
törölt tag
Szerintem te nem vagy hajlandó felfogni, megérteni. Mindegy.
"Teljesítményigényes játékból viszont nem tudsz 3x szebbet/jobbat gyártani mert nincs hw ami futtatná. És nem is tudsz hozzá letenni az asztalra... vagy ha egyszer mégis akkor 10x annyiba fog kerülni mint a mondjuk megtriplázott sw fejlesztői költséged."
Problémára példa: Crysis 1, pl. Le volt szarva milyen hardver kell alá, megcsinálták olyanra amilyenre, megvette a nép. Miért is optimalizálták volna jobban? Most miért optimalizálnák jobban, mikor vakon is megveszik az emberek a játékokat, mert marketing, mert hype, mert hú de jók a renderelt videók? Illetve hol lesz ezek után érdeke a fejlesztőnek egy utolsó szutyok iGPU-s rendszerre optimalizálni? Mennyit fog vele nyerni a cég?
-
sb
veterán
válasz
#06658560 #77 üzenetére
Még mindig nem fogod fel amit írok.
Foglalkozom fejlesztéssel, tisztában vagyok vele, hogy A legdrágább erőforrás jelenleg.Viszont ha együtt nézed és nem olyan környezetben ahol mindegy a teljesítmény ott ez megváltozik/megváltozott.
Gyk, hogy értsd:
1. Könyvelőprogram elfut bármin, le van szarva az optimalizáció, nyilván nem fog senki csillió pénzt beleölni a fejlesztésbe feleslegesen.
2. Teljesítményigényes játékból viszont nem tudsz 3x szebbet/jobbat gyártani mert nincs hw ami futtatná. És nem is tudsz hozzá letenni az asztalra... vagy ha egyszer mégis akkor 10x annyiba fog kerülni mint a mondjuk megtriplázott sw fejlesztői költséged.Teccikérteni?
-
#06658560
törölt tag
"Ha így lesz az azért lesz csupán mert büdös a munka."
Nem feltétlen: egyrészt gondolom te se szeretsz ingyen dolgozni, másrészt amit valamiért mintha rendre ignorálnál: nincs korlátlanul rendelkezésre álló idő. Valamint nem is tudnak minden konfigra tesztelni.
"Nem létezik optimális megoldás több célra."
Nem is optimális megoldásról van szó mindenre, hanem arról, hogy nem lesz optimalizálva mindenre. Ami végeredményben akár nagyobb szopás lehet, mert hangosabb lesz a vevő. Pláne, ha egy közepes kártyán jobban fut az adott program, mint az ő csúcskártyáján.
"Ha viszont pár hónap munkával van egy a mainál 3x jobb grafikájú játékod... mondjuk egy 30k-s 7850-en. Míg sw nélkül nincs meg ugyanez egy Titan X-en se... ? Melyik az olcsóbb össze fejlesztésben?"
Ha mint szoftverfejlesztő cég gondolkodom, nekem az, ha leszarom a plusz három hónap munkát.
-
válasz
Menthirist #74 üzenetére
Oké, igazad lehet. Nem darabonként, hanem rétegenként van 1 giga.
-
én úgy tudom 256 megás rétegek vannak, ebből jelenleg 4-et tudnak egymásra rétegezni, ezért minden egyes blokk 1 gigás lehet,
Az interposerre jelenleg 4 darab blokkot lehet tenni (mindegyiket 1024 bites kapcsolattal a gpu-ra). Innen a 4096 bit és a 4 gigás méret. Majd ha lesznek 2 gigás blokkok, akkor jöhetnek a 8 gigás kártyák. -
#45185024
törölt tag
Le tudja ezt valaki írni pontosan hogy mi miatt nem tud csak 4 Gigát kezelni a HBM es rendszer?
GDDR5 ből miért tud a Titán X 12 Gigát felpakolni a HBM meg miért csak 4 et?
És akkor a 2 GPUs azért tud mert a másik GPU a másik 4 Gigás HBM ről szedi az adatot? -
Malibutomi
nagyúr
válasz
v_peter2012 #55 üzenetére
Vagyis ahova nem kell. [link]
Our results clearly show that 12 GB is overkill for the Titan X. Eight GB of memory would have been more than enough, and, in my opinion, future-proof. Even today, the 6 GB of the two-year-old Titan are too much as 4 GB is enough for all titles to date. Both the Xbox One and PS4 have 8 GB of VRAM of which 5 GB and 4.5 GB are, respectively, available to games, so I seriously doubt developers will exceed that amount any time soon.
Orulnek ha 8gb-al jonne azert a 390X (vagy ahogy hivni fogjak), de nem hiszem hogy tul sokszor futna problemaba 4gb-al sem.
-
sb
veterán
Fuss neki még egyszer annak amit leírtam.
Arról szól az egész - és ezért rinyál minden low level programozásban nem hívő - hogy nem 30% különbség lesz.
Röviden összefoglalva:
- Rossz esetben majd nem fut a program.
- Vagy "végtelenszer" gyorsabb lesz mert az egyik képtelen megjeleníteni az sw-s bottleneckek miatt azt amit a másik meg tud.Fosni lehet tőle... nekem is rémlik mi volt régen. És azt is tudom, hogy sokan nem lesznek ezt képesek kezelni. De majd lesz egy ügyes réteg aki meg igen. A férgese meg hullik...
Más út nem nagyon van.
1. Vagy sz*rlassú, optimalizálatlan és nagyon lefojtott játékok maradnak mint most DX11-ben és marad az állóvíz. Évek óta nem lépünk előre sehova.
2. Vagy megírják rendesen és beletolják a plussz munkát a DX12-be.
Ők élnek a piacból. Az ő érdekük, hogy ne az 1. pont felé menjünk és a 143. ugyanolyan grafikájú CoD-ot kiadva meghaljon végleg a PC gaming. Se játékot nem vesz az ember ha nincs előrelépés se új hw-t.
A usernek mindegy, max konzol lesz belőle. Ez az ő érdekük, hogy tudjanak valahova fejlődni. -
Nem arról van szó, hogy beletolsz még +30% munkát és kapsz 15% sebességtöbbletet...
Ha az lesz, hogy ha beletolsz 30% munkát, és akkor kapsz 30% sebességtöbbletet, akkor az már most bukó, mert nem tolnak bele 30% munkát. Eddig se toltak bele, ezután sem fognak. Amikor ki kell adni, akkor ki kell adni, ha tetszik, ha nem. A DX12 kedvéért nem fognak tovább dolgozni a projekten, hiszen attól nem nő az árbevétel, csak elfáradnak. Ha lassú, akkor lassú marad, ha bugos, akkor bugos. Ismerjük, így volt eddig is, ezen nem változat holmi api. Csak legfeljebb ezután nem csak a játék fog összerohadni egy-egy kapkodásból fakadó bug következtében, hanem visz mindent, mint a piros hetes. Én fosok a DX12-től, én még emlékszem arra, amikor a játékfejlesztőknek még teljes kontrollja volt a hardver felett.
-
sb
veterán
válasz
#06658560 #66 üzenetére
"A probléma megoldása nem az lenne, hogy mindent rábaszunk a fejlesztőre, hogy csináld, ahogy jól esik.
Szerintem jobban, mint fog az alacsony hozzáférésű mondjuk öt év múlva."
Ez a két mondatod a kulcs.
És simán lehet, hogy igazad lesz. Nem fog működni és nem lehet ráb*szni a fejlesztőre a feladatot.De ez nem attól van/lesz, hogy a low level koncepció és a 50 féle fragmentáció kezelése rossz lenne. És nem is azért mert a magas szintű nyelv/vastag driver jó lenne.
Ha így lesz az azért lesz csupán mert büdös a munka.A fejlesztő nem akarja a nyakába venni... az általános, mikrosütőn is futó kód meg nem optimális.
Óóó, micsoda meglepetés... mintha nem láttuk volna még ezt a történelemben. De rugaszkodjunk el a fejlesztéstől... jó kenyérpirítós mosógép és terepre való szupersportautó sincs.
Nem létezik optimális megoldás több célra.A programok sem fogják magukat megírni asm szinten órajelre, pipelineok-ra optimalizálva 100 féle architektúrára ahogyan gyorsak sem lesznek 0 munkával általános virtuális rétegeken futtatva.
Ez elvi probléma amit vagy belát az ember vagy nem.Ill. attól függ melyik épp az "olcsóbb". Ha a fos program alá 5Ft egy mobil SOC amin villámsebesen fut akkor senki nem fog hónapokat sw fejlesztésbe ölni.
Ha viszont pár hónap munkával van egy a mainál 3x jobb grafikájú játékod... mondjuk egy 30k-s 7850-en. Míg sw nélkül nincs meg ugyanez egy Titan X-en se... ? Melyik az olcsóbb össze fejlesztésben? -
Jack@l
veterán
"Nem arról van szó, hogy beletolsz még +30% munkát és kapsz 15% sebességtöbbletet... "
Pedig de, beletolsz +50% munkát és jó ha majd kapsz 10% sebességtöbletet ugyanazzal a gpu-val, rendes procival egy húsvér játékban. Fel kéne fogni, draw call az csak egy elkenyésző kis szelete a renderelési folyamatnak, ezen lovagolnak addig amíg rá nem döbben a nép hogy low levellel se jön el a megváltó. (max a gagyi procisok fél évig örömködhetnek)
-
#06658560
törölt tag
"De ami egy ideig működik az nem megy törvényszerűen az idők végezetéig. Most olyan gap lesz a működő és optimalizált játékok között, hogy a lusták hullani fognak előbb utóbb."
Ezt soha nem vitattam. Azt vitattam, hogy gyakorlatilag minden architektúrára optimalizálni fognak, pláne visszamenőleg, ha az is szóba kerül.
"Magyarul NEM működik a jelenlegi modell sem. Annyit tud, hogy biztosan és hibamentesen tud k*va lassan DX11 kódot futtatni.
Stabil, de legalább lassú és nem tudsz már sehova előrelépni."A probléma megoldása nem az lenne, hogy mindent rábaszunk a fejlesztőre, hogy csináld, ahogy jól esik.
"Igennel is válaszolhatsz, de ez azt jelenti, hogy arra bólintasz rá, hogy rendben van, hogy 6-8 mag kell a prociba drivert hajtani és X rajzolási parancs mellett így is mindegy, hogy 2Gflops gpu-t raksz-e mellé vagy 4-5gflops-ot."
Szerintem jobban, mint fog az alacsony hozzáférésű mondjuk öt év múlva.
"A másik amit át kéne gondolnod:
1. Ha lehetne is a fentin javítani akkor sem érdeke a driverirónak, vagyis a hw gyártónak, mert inkább megpróbál eladni neked egy gyorsabb kártyát.
(Az más kérdés, hogy lassan nem tud, mert attól sem gyorsul semmi… és driverből megoldhatatlan ez a probléma)
2. Az alacsony szintű programozással pedig a fejlesztő dolga lesz a fragmentáció kezelése… ami szerencsére pont az ő érdeke. Ha 3db vga-n fut a programja, a maradék 50db-on lassú, 40db-on meg el se indul/kifagy akkor vajon miből fog megélni? Mert játékfejlesztésből aligha…"Egy, már átgondoltam. Kettő, ha igazad lenne, akkor az első pontra már ma sem jönnének gyorsító, hibajavító driverek egyik oldalon sem, mondván vegyél erősebb kártyát. A második pontra pedig felteszem a kérdést, szerinted egy projektet addig fejlesztenek, amíg mindenen jó nem lesz, a közben megjelenő új hardvereken is, vagy vannak határidők, keretek munkaórában és pénzben? Pár -nem szoftveres-projektet már végigvittem az életben, hogy tudjam ezekre a választ, s okkal legyek pesszimista a nagy csodavárókkal szemben.
"Persze erre lehet legyinteni, hogy eddig is lusták voltak, most is elkerülik a plussz munkát."
Mégis miért gondolod, hogy adott bevételért több kiadást vállalnak be? Te megtennéd? A magad ellensége vagy? A főnököd jó szemmel nézné, hogy a semmiért költesz el egy halom plusz pénzt?"Nem arról van szó, hogy beletolsz még +30% munkát és kapsz 15% sebességtöbbletet... ami eddig nem érte meg. Most ha beletolod a munkát akkor 1-2 nagyságrenddel több annyi rajzolási parancsod lesz, a vga kihasználtság 2-3x lesz. (Legalábbis az eddigi cikkek, demók szerint)."
Hogy ezt el lehessen érni, nem biztos, hogy az az egyetlen út, hogy mindent a fejlesztő kell optimalizáljon. Valamint hasonló csodákat olvashattunk, láthattunk anno a DX10, DX11 megjelenésekor is, aztán láttuk mire lett elég.
"Ezt ha jól használod látszik, hogy nem sz*rral gurigázol hanem jelentős különbség lehet játék és játék között. Olyan amivel már meg lehet nyerni egy piacot vagy el lehet bukni."
Látjuk AMD példáján, mennyire sikerült neki piacot nyernie. A játékok terén is látjuk, mennyire az optimalizáción múlik, hogy megveszik-e, vagy sem. AC, BF, stb.
-
Dosi
tag
Igen ez valóban nem elhanyagolható hogy a 285-nél kevesebb VRAM "fogy" vagyis nem fogy hanem pont h kipakolja belőle azt ami már nem kell tehát fogy és szabad utat adva a többinek kvázi csak sűrűbben van ürítve és azért kell "kevesebb" VRAM és ugyan annyi kell elvégre csak jobb a VRAM felhasználása.
Ok ebbe én is belezavarodtam lányos énemben.
Valahogy így értelmezem, persze javítsatok ki ha rosszat mondtam, elvégre ez csak egy meglátás/vélemény. -
v_peter2012
csendes tag
válasz
Komplikato #59 üzenetére
Kiderül persze, de akkor már megvették. Itt a lényeg jelen pillanatban a vásárlási kedv fenntartása, illetve a bizonytalankodók meggyőzése.
Ha már hazavitte majd etetjük fél évig, meg lesz mondva mire kell várni hogy jó legyen (driver, patch, dx12 elterjedése), és szép lassan elfelejti a kedves vevő mekkorát égett.
-
sb
veterán
válasz
#06658560 #25 üzenetére
Fordítsd már meg:
Szerinted most működik a fragmentáció nélküli piac?Igennel is válaszolhatsz, de ez azt jelenti, hogy arra bólintasz rá, hogy rendben van, hogy 6-8 mag kell a prociba drivert hajtani és X rajzolási parancs mellett így is mindegy, hogy 2Gflops gpu-t raksz-e mellé vagy 4-5gflops-ot.
Magyarul NEM működik a jelenlegi modell sem. Annyit tud, hogy biztosan és hibamentesen tud k*va lassan DX11 kódot futtatni.
Stabil, de legalább lassú és nem tudsz már sehova előrelépni.A másik amit át kéne gondolnod:
1. Ha lehetne is a fentin javítani akkor sem érdeke a driverirónak, vagyis a hw gyártónak, mert inkább megpróbál eladni neked egy gyorsabb kártyát.
(Az más kérdés, hogy lassan nem tud, mert attól sem gyorsul semmi… és driverből megoldhatatlan ez a probléma)
2. Az alacsony szintű programozással pedig a fejlesztő dolga lesz a fragmentáció kezelése… ami szerencsére pont az ő érdeke. Ha 3db vga-n fut a programja, a maradék 50db-on lassú, 40db-on meg el se indul/kifagy akkor vajon miből fog megélni? Mert játékfejlesztésből aligha…Persze erre lehet legyinteni, hogy eddig is lusták voltak, most is elkerülik a plussz munkát.
De ami egy ideig működik az nem megy törvényszerűen az idők végezetéig. Most olyan gap lesz a működő és optimalizált játékok között, hogy a lusták hullani fognak előbb utóbb.Nem arról van szó, hogy beletolsz még +30% munkát és kapsz 15% sebességtöbbletet... ami eddig nem érte meg. Most ha beletolod a munkát akkor 1-2 nagyságrenddel több annyi rajzolási parancsod lesz, a vga kihasználtság 2-3x lesz. (Legalábbis az eddigi cikkek, demók szerint).
Ezt ha jól használod látszik, hogy nem sz*rral gurigázol hanem jelentős különbség lehet játék és játék között. Olyan amivel már meg lehet nyerni egy piacot vagy el lehet bukni.
Vagy fordítva: ha sz*rsz az egészbe és mondjuk a fenti extra helyett azzal küzd a játékod, hogy egyáltalán fusson valakinél. Ennek hamar rossz vége lesz a fejlesztőre nézve. -
Jack@l
veterán
válasz
v_peter2012 #55 üzenetére
Bingó
-
TTomax
félisten
válasz
Komplikato #59 üzenetére
"640 kByte memória mindenre elég kell, hogy legyen"
-
Komplikato
veterán
válasz
v_peter2012 #55 üzenetére
Pedig az első adandó alkalommal ki fog derülni amikor ráengedik teszem azt a Shadow of the Mordort fullHD felbontásban ultra high textúrákkal vagy simán 4K-ban. Ez olyan öngyilkosság lenne, mint anno 3DFx féle "nem kell 32 bit", az S3 féle "nem kell T&L", vagy a GeForce 5 féle "jó lesz ez butítva is" balhék.
-
#85552128
törölt tag
válasz
v_peter2012 #55 üzenetére
"A fejlesztők szerint a DirectX 11 API esetében az aktuálisan alkalmazott allokációs stratégia átdolgozása egy ingoványos terep, de mivel soha egyetlen gyártó sem vizsgálta meg a kérdést, így bőven elképzelhető, hogy meg lehet oldani hatékonyabban."
Főleg, hogy eddig ahányszor szóba került mindig azzal jöttek az "okosok", hogy DX12/WDDM 2.0 kiváltsága a probléma nélküli memóriaürítés így oda elég lesz (az már mellékes, hogy ennek az új szériának a létező programokban is jónak kéne lennie...). Most meg kiderült, hogy DX11 alatt sem annyira elképzelhetetlen főleg, hogy eddig senki nem is gondolta hogy foglalkozni kéne vele...
Bár mostanáig pakolták rá a többnél több GDDR5 ramot, csak ugye most a HBM-mel az AMD-nek ez nem alternatíva, az nV-nek meg nincs is gondja vele, mert a Ti is jöhet 6 GB GDDR5-el jövőre meg lesz HBM2... -
sayinpety
tag
Vegre eszrevettek! Hozzatennem az Intel is tervezi.
-
v_peter2012
csendes tag
Látni kell mi van a cikk mögött. Abu tudja már hogy a 390x 4Gb rammal jön. Nosza írjunk egy cikket, hogy bőven elég az, sőt jön (megint) a csoda driver, ami miatt elég a 4Gb oda, ahova az Nv-nek 12Gb kell.
-
sb
veterán
Én is évek óta használom és ilyet nem tapasztaltam.
Annál inkább Intelen.De ebből most nem flame-et akarok gyártani. Minden gyártónál vannak hibák. Az AMD-nél pl. a Zero Core-ból való fel nem ébredés olyan amit 4 év alatt nem tudtak megoldani. Ha nem lenne ritka (az utóbbi időben, mert volt ez sűrű is sajnos) akkor már kivágtam volna a p*csába a vga-t.
-
sb
veterán
A teszt az teszt, nem?
Ha 500*5000 eset van aminek csak egy töredékét nézték meg házon belül akkor nyilván lehet hiba a meg nem nézett esetekben.
Ha meg mondjuk 100 esetre aktiválták a módszert - amit meg is néztek ők is - akkor meg nyilván nem teszt, mivel nem kapnak új infókat róla.Ezt kár szépíteni.
Nyilván lehet azon gondolkodni, hogy mennyire biztos a működés de ha egyszer épp az a célja, hogy kismillió nem vizsgált eset legyen kipróbálva akkor nehezen lehet rá nem vaktesztként tekinteni.Ettől még nem biztos, hogy lesz gond... de nem rajtuk fog múlni.
szerk: Ill. van olyan eset amikor más nem segít mert különben nincs elég minta. Ez is ilyen. Csak akkor valami komolyabb kommunikáció nem árt mögé. Ha mégsem jön össze vagy van fontosabb is -0.5GB ramnál akkor a user dönthessen egy kapcsolóval.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #51 üzenetére
Én évek óta csak Firefoxot használok, de ilyenekkel nem találkoztam. Most rákerestem a Catalyst Firefox hibákra is a devcsatornán, és ahogy nézem egyetlen artifact bejelentést sem sikerült reprodukálni. Nyilván ettől még lehet hiba, csak nagy eséllyel nem a Firefox és a Catalyst párosa okozza, hanem valami hardveres vagy egyéb szoftveres gond.
-
#85552128
törölt tag
Ezt én nem is vitatom, bár az azért érdekes, hogy az nV drivernek meg semmi baja pedig az sem ehhez a buildhez készült...
Nyilván: (sigh) (AMD Omega Driver) Artifacts in Firefox are back again!
"Dual 6950s, Omega drivers, Firefox + YouTube = occasional driver crashes. Will be trying newer drivers later."
"There really are artifacts in Firefox with Radeon HD7870 and the Omega Driver. Strangely the old HD5670 is artifact free."
"This is exactly what I'm experiencing in Firefox 34.0.5 with two rigs (2 x HD 7970s and 1 x HD 7870 XT) on the latest stable Catalyst Omega Drivers (14.12). Looks like the drivers may have bonked up the hardware acceleration of the browser again as it was working perfectly on 14.4, 14.9 and 14.11.2 beta."
Soha nem volt problémamentes Firefox+HW gyorsítással az AMD.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #48 üzenetére
Így kell zajlania. Ez a tesztidőszak lényege. Hibát észlelsz és jelzed a Microsoftnak, ahol megkeresik az okát és kidolgozzák a javítást. Ez a lényege a tesztnek! Csak és kizárólag ezért csinálják! Sőt, ezért nem kérnek pénzt a Win10-ért még, mert nincs kész. De a segítségetekkel lesz kész. Azokéval, akik vállalják, hogy tesztelik a megjelenés előtt felvállalva, hogy ez egy béta cucc, amiben hibák vannak.
Semmi torzulás nincs FF-fel, ha be van kapcsolva a hardveres gyorsítás. Én úgy használom hónapok óta Windows 7-tel.
-
#85552128
törölt tag
Azt amúgy magyarázd már el, hogyan kéne szerinted a "támogatottságnak" zajlania ? Mert hónapok óta aktívan megy a nyílt tesztelész, userek milliói használják ami megfelelő driverek nélkül nem megy! Már a tesztidőszakban KELL hozzá működő driver, mert ha most nincs akkor a végleges megjelenésre sem pottyan egy az égből...
Amúgy még ha csak az Edge nem menne, vagy gyengébb lenne a 3D teljesítmény, de gyakorlatilag az egész UI használhatatlan mert tele van grafikai hibákkal (nv kártyával egyik sem jelentkezik): [link]
Mondjuk ez sem újdonság mert hasonló torzulások mai napig előjönnek Firefoxban 7/8 alatt is, ha be van kapcsolva a HW gyorsítás... -
Jack@l
veterán
-
Z10N
veterán
válasz
Petykemano #2 üzenetére
Delta lesz az. Amugy meg optimalizalnak vegre.
wolfman: Az Omega driver nalam hibatlanul mukodik.
-
Feltűnt valakinek, hogy a 285 alatt kevesebb ramot használnak a játékok?
-
TTomax
félisten
Az ok nagyom egyszerű... a 390X-nél használt interposer miatt kötve van a kezük és nem tudnak 4GB-nál többet társítani egy gpuhoz...
A marketing majd akkor teljesedik ki ,ha majd azok jönnek.Most ez a cikk is puhítás ami azt próbálja meg megérteni/elhinteni nekünk hogy ez majd elég lesz 4K-ra is... a jövő meg majd eldönti. -
Gainka
őstag
Szóval ha minden igaz, a 285-ön "tesztelték", és lehet hogy már a fijivel élesben jön?
-
Abu85
HÁZIGAZDA
A Mantle API-ra dolgozók is hasonló adatokat adtak anno, szóval ezzel párhuzamban van, amit állítanak.
Miért ne lenne párhuzamosítható a munka. Kijelölsz hat embert és ezek közül kettő-kettő az egyik gyártóval törődik. Sőt igazából még ennyi sem kell, mert az AMD optimalizálását oda lehet dobni a konzolos csapatnak. Ők úgyis ismerik a GCN-t.
A shadereknél pedig csak egy út van, ami a GCN disassembler, tehát a legtöbb fejlesztő úgy fog dolgozni, hogy mindegyik architektúrára úgy tekint, mintha ugyanúgy működne, mint a GCN. Ezt páran már írogatják az Intelnek és az NV-nek, hogy ha ez nekik nem tetszik, ekkor adjanak ki disassemblert. Valószínűleg az Intel beadja a derekát, mert ők már tesztelnek egy dev verziót a saját disassemblerükből. -
hú ez a spórolás nagyon nyakatekert nekem. valaki magyarázza el
az én teóriám: mivel nem lesz elfogadhatatlan költségű a felszabadítás ezért több hely marad===újra lesz hely felhasználásra mert nem foglalja a már nem használt adat.
ha nem ez akkor nem értem miért lenne memóriakímélés. -
Olajka02
aktív tag
Mindig is fura volt nekem az a kakukktojás 285-ös...
-
Jack@l
veterán
Erre nem gyúr az ámedé? Először lehet rendbe kéne tenni az alap drivert...
http://www.neowin.net/news/microsoft-confirms-it-will-soon-release-windows-10-insider-preview-build-10122
"Hey #WindowsInsiders using AMD GPUs! We have a GREAT build in hand, but seeing frequent crashes in Spartan with AMD on it. Release it or no?"Ami a memóriakimélést/tömörítést illeti: nincs ingyen ebéd, vagy minőségromlással, vagy rohadt sok extra gpu erőforrással fog fizetni, aki használja.
-
#06658560
törölt tag
És lesz erőforrás? Mert van NV oldalán minimum három rendszer, az AMD oldalán jelenleg szintén kb. három, plusz jönnek az újak, plusz a DGPU-APU állapot, plusz aki elvetemült, annak az Intel. Mennyi ember, idő, pénz kell mindenre optimalizálni? Vagy csak x részére a piacnak? Mondjuk csak AMD? A maradékot meg kukázni akarják? Vagy most várjuk a DNF reinkarnációkat?
-
Abu85
HÁZIGAZDA
Kötelezni senki sem kötelezi őket, de az Epic mondta az elmúlt évben, hogy azért nem elhanyagolható tényező, hogy megírják a DX12-re másfél hónap alatt leképzőt és három-három hetet töltenek az architektúrák optimalizálásával, akár egyszerre letudva három hétben több csoporttal. Ezzel szemben áll az a modell, amikor másfél évig is benne lehet a motorban egy hiba, mert nem tudnak rájönni, hogy mitől van. Szóval kényszerítés, nem kényszerítés ... összességében olcsóbb lesz a DX12-re fejleszteni. Lehet, hogy kétszer olyan hosszú lesz a kód, de jóval kevesebb a hibalehetőség, és ami a legfontosabb, hogy helyben javítható, akár napok alatt és nem kell a hibát hónapokig elemezni. Ez kvázi olyan, mint a kötelezés, mert senki sem ellensége a saját pénzének.
-
Tazsam01
tag
válasz
#06658560 #25 üzenetére
Persze, emlékezz csak vissza a voodo 3dfx korszakra, remekül működött csak nem volt fent tartható. A történelem már csak olyan, hogy megismétli önmagát.
Ideig óráig remek lesz, aztán az új technológiák ismét az egységesítés felé fogják terelni a piacot. Erre mernék nagyobb összegben fogadni. -
-
Abu85
HÁZIGAZDA
Ja.
Valószínű egyébként, hogy élesben azért a nagyrészt betesztelt dolgokat engedik rá a kártyára, tehát nem azokat, amik még náluk sem stabilak. De úgy néz ki, hogy ez egy éles teszt. Egyébként biztos, hogy eléggé korlátozott még a rendszer, hogy azért a usernél ne okozzon gondot. Viszont azon el lehetne gondolkodni, hogy a GTA5 emiatt írt-e 285-ön fél gigabájttal kevesebb VRAM használatot ugyanarra a beállításra, mint 280-on.
-
#06658560
törölt tag
válasz
Menthirist #15 üzenetére
És szerinted működni fog a nagy fragmentáció? Lesz a fejlesztőknek ideje, pénze, kapacitása minden architektúrára optimalizálni? Úgy, hogy most is egyre gyakoribb a bugos kiadás miatti sírám a játékosok oldaláról?
-
"kitudjahogyjóeígy vram törléssel"
Ez azért szerintem túlzás.
Az ilyen dolgokat először rendesen tesztelik és amikor már betonstabil a tesztkörnyezetben, akkor megy ki élesbe. Valószínűnek tartom, hogy már elég jó állapotban van a funkció, hogy élesben is mehessen.
Talán azért hívja Abu mégis tesztelésnek, mert a belső minőség ellenőrzés nem terjedt ki 500 játékra és 5000 féle hardver-szoftver kombinációra.
Gondolom, valami egyszerű trükkel kikapcsolható, ha mégis valami komoly gond lenne vele. -
Tazsam01
tag
Amit megnyernek a kevesebb memóriával azt el fogják bukni az új ramokkal amik drágábbak. Max annyit fognak elérni, hogy lényegesen gyorsabb ramok lesznek ugyanannyi pénzért. Ami meg kihasználva ugyanúgy lesz valószínűleg mint a mantle. Még semmi sem készült rá. Tudom van 4 cím ami használni tudja de azok is a dx11 limitációit betartva készültek.
Szintetikus teszteken valószínűleg jobb lesz az AMD de szoftver nem készül majd ami ezt az előnyt kihasználná mert az nem futna jól az nv kártyáin és az intel igp-ken. Tehát a programozó kizárná a potenciális piac 80%-át -
Hivatalosan sokkal de sokkal kevesebb vram is elég lenne 4k-ra vagy eyefinity-re, csak mivel drága művelet az init / törlés, így a fejlesztők egyszerre telenyomják a memóriát mindennel, ami csak szükséges lehet egy jó ideig. Azt hiszem konzolon demóztak olyan procedural streaminget, ahol cirka 200 megából le volt tudva a fullHd
-
D.Orion
veterán
HA összejön az AMD-nek mind a három memória optimalizálást így vagy úgy érintő fejlesztése, akkor még az is lehet, hogy AMD csúcs vga-n 4K-hoz elég lesz a 4GB, míg pl. NV-nek kell majd a 8GB ram?
Ez azért hatalmas nagy lépés lenne. Kisebb nyák, kevesebb alkatrész, kevesebb memórialapka. Egyszerűen olcsóbb vga. Ezt nagyobb haszonnal és mégis jóval olcsóbban tudják értékesíteni, mint az NV?
-
sb
veterán
Azt most jól értem, hogy ez nem csak egy fejlesztés alatt álló cucc, hanem az eladott 285-ök alatt így működik élesben a driver?
Tehát egy éles teszt zajlik a kitudjahogyjóeígy vram törléssel a felhasználók alatt? ... hogy megtudják, tényleg jó lesz-e a megoldás?
-
Tazsam01
tag
válasz
UnSkilleD #13 üzenetére
Nem értettem félre, összességében a megjelenő dolgokra írtam, ha csak ide fordítjuk le akkor az lesz a trend, hogy annyi memóriát fognak kihasználni a fejlesztők amennyi az aktuális platformokon rendelkezésre áll. Lehet trükközni azzal, hogy driverből (ami dx12-vel eltűnik a nyáron nem????) jobban használja a kártya a rendelkezésre álló memóriát de ez azt fogja maga után vonni, hogy bloody steve bemegy a boltba és azt a kártyát fogja leemelni amelyiken nagyobb számok vannak. Tehát megint kifejlesztettek valamit ami piaci előnyt nem nyújt viszont legalább jó sokba került nekik.
A másik eset meg az, hogy visszafejtve a kész kódot kicsit megváltoztatva a másik oldal is megjelenik 1 év késéssel ugyanezzel a megoldással, mely esetben piaci előnyhöz továbbra sem jut az AMD.
Örülök, hogy valaki fejleszt, tetszik, de lassan már az nv egyeduralkodóvá válik a piacon és ez ellen kellene tenni valamit különben megnézhetjük magunkat a következő alkatrész vásárlásnál. -
kalozhun100
őstag
Mikor jön az új driver?
-
-
#06658560
törölt tag
"Hiába lesz az AMD gyorsabb memekkel szerelve, hiába lesz mantle api rá és hiába fogja ügyesebben használni a meglévő erőforrásokat, amíg a konkurenciára fejlesztenek mert abból van több a piacon. Nem fogja tökön lőni magát a fejlesztő azzal, hogy kiad valamit amit az AMD tudására írt mert akkor egy inteles/nvidiás felhasználónak sem fogja tudni eladni."
Fokozza a problémát, hogy már AMD oldalon is többféle memória lesz, több GCN generáció, stb., amikre midnre optimalizálni kéne. Az egységesítés helyett még jobban fragmentálódik a PC-s piac.
-
-
snecy20
nagyúr
Azért érdekes, hogy mennyi innovatív ötlet jön ki az AMD műhelyéből egymás után!
-
Tazsam01
tag
Nem értem mire fel gyúrnak ennyire.
A fejlesztő mindig ugyanúgy fog hozzáállni. Arra a platformra fogja írni a programot amire a legtöbbet el lehet adni.
Hiába lesz az AMD gyorsabb memekkel szerelve, hiába lesz mantle api rá és hiába fogja ügyesebben használni a meglévő erőforrásokat, amíg a konkurenciára fejlesztenek mert abból van több a piacon. Nem fogja tökön lőni magát a fejlesztő azzal, hogy kiad valamit amit az AMD tudására írt mert akkor egy inteles/nvidiás felhasználónak sem fogja tudni eladni.
Rohadt olcsó közép kategóriás konkurenciánál csak picit többet tudó kártyákkal le kell tarolni a piacot és azután lehet diktálni, hogy merre fejlődjön a világ kihasználva azt a pici előnyt.
Onnantól a többiek is rá lesznek kényszerítve, hogy felzárkózzanak/licenceljék a technológiákat.
Addig csak mindig ugyanaz a nóta lesz, kifejlesztik, bevezetik és mire az első szoftver megérkezik rá addigra a konkurencia is tudja mert előbb úgysem fognak fejleszteni rá a programozók. -
válasz
Petykemano #2 üzenetére
úgy néz ki sajna 4 gigás Fiji-re.
-
#85552128
törölt tag
Pontosan...
Az AMD kártyái eddig azért többnyire mindig jobban áltak VRAM tekintetében mint a konkurencia akkori megoldásai lásd Tahiti, Hawaii, most viszont ők is látják, hogy csodamemória ide vagy oda, 4 GB kevés lesz főleg magasabb felbontásra...
A Tonga-ra tavaly meg olyan magyarázat volt, hogy addig nem lesz 4 GB-s amíg a 3 GB-os Tahitiket el nem adják, mert nem akar az AMD kicseszni a gyártókkal, de akkor most már legalább tudjuk, hogy egy fizetős béta programnak szánták...
Egyébként egy DX11-es overhead cikket várnék már ami megmagyarázza miért rosszabb az AMD driver az nV-stől ha egy "átlagos" CPU-val párosítjuk, ezen kéne inkább javítani... -
Petykemano
veterán
válasz
Petykemano #2 üzenetére
Közben rájöttem, hogy valószínűleg a 4GB HBM1-el szerelt 390-ek működőképességére gyúrnak.
-
válasz
Petykemano #2 üzenetére
Szerintem nem készül, hanem kényszerül.
pl. ha valóban csak 4GB memóriával jön a Fiji, akkor kevés lesz sok játéknak 4K-ban, így spórolni kell vele különböző trükkökkel. -
Đobostorta
tag
válasz
Trailblazer #1 üzenetére
Az biztos, de ami meglepőbb, hogy a jó munkához is az kell.
-
wolfman
veterán
Ha már lenne egy olyan driver amivel semmi baj nincs már jó lenne, nem kéne még úttörő fejlesztés se bele. Legalábbis a játékfejlesztők folyton az ATI drivereit okolják a hibák miatt.
-
Petykemano
veterán
Érdekes. Ez a harmadik memóriát, memóriafelhasználást érintő optimalizálás a HBM és a Data Color Compression mellett, ami hamarosan be fog érni.
Mire készül az AMD? -
Trailblazer
veterán
Lassú munkához idő kell, szokás mondani. Ettől függetlenül hajrá...
Új hozzászólás Aktív témák
- Törött, Hibás iPhone felvásárlás!!
- Apple iPhone Xs 64GB, Kártyafüggetlen, 1 Év Garanciával
- Xiaomi Redmi Note 10S 128GB, Kártyafüggetlen, 1 Év Garanciával
- Lenovo Thinkcentre M920t Tower/ M720s SFF / i5-8-9. gen/ WIN10-11/számla, garancia
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RTX 5060 Ti 16GB GAMER termékbeszámítással
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest