Új hozzászólás Aktív témák
-
válasz
Feruendios #89 üzenetére
Te melyik alternatív jövőből jöttél?
-
Feruendios
tag
Okos döntés volt ez az Epic részéről, Meg azt se felejtsük el, hogy a Dx 12 alapból hozott egy olyan 2-300%-os gyorsulást.
Az SLI meg a Crossfire pedig igazából soha nem volt egy gazdaságos megoldás inkább olyan Techdemó szinten tudnám jellemezni. -
WZP
aktív tag
ha klikkelek a tálcán egy ablakra, és ennek hatására minimalizálódik/maximalizálódik, akkor amíg nincs vége a szép ablakanimációnak nem tudom mozgatni az egeret. +Aero témában háttérváltás közben(automata X percenkénti váltás) beszaggat az egész windows, akármilyen ablak A-ból B-be mozgatása akad az alatt a pár másodperc alatt amíg a háttér áttűnés megy. i5-4200M +SSD +730M optimusban
-
SylverR
senior tag
Bevallom, béna vagyok matekból, tény. De picit visszavehetnél ha megkérhetlek rá szépen.
Igen, elnézést, elfelejtettem, hogy más az a PPI ami számot én írtam, meg más amit általában szoktak írni, mondani. Most vettem új monitort, és a ph-s fórumon ajánlott TV calculator weboldalon nézegettem, hogy mekkora lesz az új monitor, meg hogy viszonyul pixelpontosságra a régi monitorommal. Onnan vettem a 12000-ret. Elnézést, hogy nem állok neki utána számolgatni még külön.@(#58) TTomax:
Rendben, a Fury meg a Titan elkerülte a figyelmem. Azok tényleg monolitikus chipek. Ahogy mondjuk az x800, és az x1800 is volt a maga idejében.@(#61) Menthirist:
Köszönöm, valaki vitaképes ember is van itt legalább.
Mint írtam is, igen, Eyefinity-vel megoldható a 4k úgy, hogy a pixeldenzitás ne essen túlzásba, és a kijelző(k) ára is megmaradjon elfogadható kategóriában. Az Eyefinity egyébként tetszetős, jó dolog. Főleg desktop kiterjesztésre. A többképernyős játék azonban nem tetszene nekem. Általában a két oldalsó kijelzőn csak mosott, torzult elemek vannak, emiatt csak a 6 kijelzős megoldást tudnám értékelni. De az meg már akkora, hogy amilyen távolból kellene nézni, már pont nem lenne jó a képpontsűrűség. Ha meg olyan FOV-ban játszol, akkor megint semmi értelme. A sok szélső blurolt, mosott képelemnek nem látom értelmét. VR-ben kell. De monitoron minek?
Persze ez ismét egyéni referencia kérdése.
Maradjunk annyiban, hogy majd meglátjuk mi történik. A CryTek, meg a többi nagy cég biztos, hogy támogatni fogja a multi adaptert. Nekik szinte kötelező.
UE4, meg UE3-ból kiindulva, nem hiszem, hogy gépigényes lesz. -
leviske
veterán
válasz
#16939776 #78 üzenetére
Adott egy játékmotor, amire -az eddig bejelentettek alapján- a Fable multis mókája lesz a legütősebb PC cím a közeljövőben. Van értelme programozói időt és energiát pazarolni a multiGPU-s képfeldolgozás hagyományos megoldására, ha azonos idő alatt esetleg lehet javítani a Metal API-n való futás sebességén, vagy lehet dolgozni a saját garázsprojekteken?
Az Intel és MS idehozása meg nem teljesen korrekt, hiszen PC-t vásárolni illetve PC-re vásárolni nem ugyanannyit szokott egy átlag ember. Mobilból szám szerint több fogy, mint PC-ből, így egyértelmű, hogy ott akarnak Ők is lenni a piacon. Emellett a Microsoftnak a konzolos játékok eladásaiból is folyik be pénz, így az is érthető, hogy igyekszik azt vonzóbbá tenni, de ez így van már 15 éve.
(Erre hivatkozva is érveltem amellett korábban, hogy alternatíva nélkül a DX12 lazán évekkel később érkezett volna meg.)(#80) gbors: Nem hiszem, hogy UE4-re nagyon fognak hardverigényes játékok záporozni. Ha jönnének, biztos az Epic is látná értelmét beépíteni. Vagyis nekem azért a heterogén feladatmegosztás jóval bonyolultabb feladatnak tűnik, mint a hagyományos SLI/CFX.
Arra meg egyébként nem vennék mérget, hogy az nVidia-tól repkedne a pénz egy SLI támogatás végett. Aktuálisan a cégnek szerintem jobban megéri, ha senki sem foglalkozik az SLI-vel és a maximális teljesítményért vesz TitanX-et. A korábban bejelentett "CrosSLI" lehetősége miatt engem az sem lepne meg, ha a gyártók inkább igyekeznének lassítani a fejlesztéseket.
De mint írtam, én ebben a bejelentésben nem tudom meglátni a PC piac apokalipszisét. Aktuálisan nekem úgy tűnik, hogy az EA képviseli a technológiai élvonalat PC-n, így ha majd Ők élnek ilyen kijelentésekkel, akkor kezdek majd el aggódni, függetlenül attól, hogy nincs multiGPU-s rendszerem.
(#83) sb: Szerintem az Android esetében az OpenCL-nek annyi értelme lesz, mint Windows-on a Mantle-nek. A Google majd rálép a gázra a fejlesztések tekintetében. Más lehetőségük nagyon nincs is, mert egy alternatív áruház gyakorlatilag elrabolná a bevételeket.
-
sb
veterán
Lazán kapcsolódik szerintem:
A MediaTek ténylegesen rágyúr az OpenCL-reItt is szarakodnak a Google-nél a gpgpu-val, de előbb-utóbbi valaki lép. Akár egy kisebb szereplő. Ha ezzel versenyelőnybe lehet kerülni mert hoz annyit akkor mindenképp lesz olyan szereplő új/régi, kicsi/nagy, bevállalós, stb... akinek megéri... és akkor már mindjárt más a helyzet amihez a nem támogató szereplőnek is alkalmazkodnia kell.
-
sb
veterán
Így nézve egyetértünk.
Szerintem is az - ahogy egyébként szvsz minden olyan hülyeség amit nem használnak ki az új apikban és látványosan jobb lehet tőle egy engine/játék.Csak az érvet írtam le ami alapján gondolkodhatnak.
Racionális, de ettől még butaság, avagy rossz döntés.Az a gond, hogy mindenki saját koordinátarendszerben gondolkodik és általában egy adott időpillanatra... vagy legalábbis kisebb időszeletekre.
1. Pl. van egy DX11 engine-ed. Megy, veszik. DX12-höz ki kéne dobni a felét, nagy extraköltséggel újraírni. Jobb is lenne, valószínűleg meg is érné... de bizonytalan mennyivel. Kihagyod.
2. Egy új szereplő máshogy nézi: nulláról indul, mondjuk azonos költség kifejleszteni DX12-re mindent mintha DX11-re menne. Vagy legyen mondjuk 1.2X vs X. X-el spórolnál, de igazából mindegy, mert aztán újra kéne írni 0.7X-ből az egészet előbb-utóbb. Megírod full supporttal.
3. Harmadik lépésben viszont már a régi motoros is elgondolkodhat rajta, hiszen megjelent egy új játékos. mindent támogat, jobban viszik az engine-t. Hiába volt kisebb költséged az elején most esik a bevétel így jobban jártál volna talán nagyobb költséggel de növekvő bevétellel. -
Ez most szubjektív: szerintem über hülyeség nem megcsinálni a normális multigpu supportot, ha nincs valami komoly akadálya. Reklámérték, potenciális pénz nVidiától, etc.
A DX12 költségeit én nem ismerem, az Epic viszont biztosan. Ezért írtam azt, amit.@leviske: bármelyik jövőbeli HWzabáló játékkal 4k-ban.
-
#16939776
törölt tag
Lásd Sb hozzászólását.
4K, VR, meg ultra alcsony késleltetésű dolgok vannak beígérve, ha egy ilyen "csóró" stúdió nem tudja implementálni hozzá a több kártyás támogatást, akkor hogyan várjuk el ezeket?(#77) Menthirist: majd abu hoz egy chart-ot, hogy mennyi pénzt hoz a pc/konzol/mobil a hardver és a játékgyártóknak... Amúgy MS, intel is erre utaló lépéseket tesz, és ha jól tudom, nekik vannak a legtöbb részvényesük, akik az osztalékért verik az asztalt.
-
-
leviske
veterán
válasz
Menthirist #47 üzenetére
VR alá sem feltétlen kell, ha maga a játék nem számottevően gépigényes. Márpedig az UE4 PC-n előreláthatólag ilyen játékok alapját fogja adni, nem pedig blockbusterekét.
(#48) schawo: Ott az Unigine, emlékeim szerint mindent tudott, ami DX11-hez kell, aztán megragadt techdemo szintjén. Az UE4 gondolom minden képességgel rendelkezik, amire a vásárlóinak (stúdiók) szüksége van.
(#59) Jack@l: Itt meg egy játék UE4 alapon.
Mindkét irányba lehet végletekbe menni, a lényeg viszont az, hogy nem látni, melyik stúdió lenne az, ami AAA játékban használná, hiszen a legtöbb híres UE3 franchise folytatása stúdiókon belüli motorokra van bejelentve. Ez alól egyedül a Microsoft kivétel, de náluk meg valószínűleg XO-exkluzív címek készülnek majd rá elsősorban.
-
shiftac
aktív tag
Ideje lenne már kihasználni az IGP-t, én már 10fps plusznak is örülnék, ha dolhozhatna a HD4600.
-
sb
veterán
válasz
#16939776 #63 üzenetére
Akkor jön ugyanaz hetvenharmadszor? Ki veszi meg?Miből él majd a PC játékfejlesztő?
Behinthetik sóval akkora PC gaminget.Ez még mindig ugyanaz a kérdéskör ami tök egyszerű szerintem:
1. Ugyanazt (DX9-11) nem tudod eladni 5-10 éven át. Ebből megélni nem lehet.
2. Új dolgot pedig csak munkával lehet teremteni. Magától ritkán születik új kód.
3. Újat meg csak extra munkával lehet csinálni mert jellemzően ki kell dobni a régi cucc egy részét.A fentit egyébként bármire be lehet helyettesíteni, nem csak az sw gyártásra.
-
#16939776
törölt tag
-
-
wjbhbdux
veterán
Totalbiscuit és hasonló kritikusok rá fognak szarni azoknak a fejlesztőknek a fejére akik nem támogatnak SLI-t, borzasztó rossz PR lesz unreal enginet használni.
amúgy meg halott engine, minimális épkézláb unreal game jött ki mostanában, unityt nyomatja mindenki. -
Jack@l
veterán
-
#16939776
törölt tag
Szóval lesz egy motor, ami támogatja a heterogénmultiadaaptert, de nem fog skálázódni több dGPU-val, csak IGP-vel(de még nem tudjuk melyikkel) lehet hogy használható lesz.
Ha így haladunk, egyre több dx12-es feature mögül szépen lassan kihátrál a piac és maradnak a dx11.3-as megoldások. Lehet most derült ki, hogy nem olyan egyszerű nekik dx12-re játékot írni
-
nyunyu
félisten
válasz
Menthirist #47 üzenetére
ha az unreal mobil piacon akar játszani, akkor játsszon ott. Viszont erősen mennének ők a VR irányba is, amihez meg már nem jönne rosszul. Szóval felőlem tegyék be mobil /indie játékok alá, de akkor főként csak oda tegyék.
Ahhoz kepest, hogy 10-15 eve mekkora nev volt az Unreal Engine, siman egy szinten volt a korabeli idTechekkel. CryEngine akkor meg nem is volt.
Aztan utobbi ~5 evben hagytak szep lassan lezulleni, fejlesztes hianya miatt a tobbiek elhuztak mellettuk.
Most sem arrol van szo, hogy toljunk bele lovet, aztan legyunk versenykepesek, hanem mobilokra igy is jo lesz... -
"Már 4k felbontáshoz is szükséges a 40" kijelzőméret"
Már ha megint csak egyetlen monitorra szűkíted a gondolkodásodat, talán. Ezt a pixelmennyiséget ugyanis egy 1080p-s 3 képernyős eyefinity-vel meg lehet közelíteni, 1440p-sel pedig jócskán túl is lehet szárnyalni. VR esetén meg pláne kellene majd a nagyobb felbontás, mert még messze van az optimális felbontás (az emberi szem perifériával kb 32k x 16k-ig látna szemenként ilyen távolságból).
A mostani 2160x1200-as felbontás a riftnél és a vive-nál arra jó, hogy legyen már most is elfogadható áron olyan gép amivel ki lehet próbálni (eladás szempontjából nem mindegy), ugyanakkor nem annyira gáz a minőség hogy emiatt ne vegye meg a kutya sem. Viszont már most is nézik a nagyobbakat, pl 1440p szemenként, mindezt ugye 90-120 fps-sel kellene hajtani.És nem is hoznám ezt a vr témát fel amúgy, ha ne az UE4 lenne az egyik motor, amivel az oculus mutogatja a technológiát pl a car flip demo alatt, tehát az UE4-től nem tartják távol az Epic-ék a vr-t.
"de előbb-utóbb úgyis lesz olyan hardware, akár APU-ként is, ami simán elviszi az Eyefinity 4k-t"
Inkább utóbb, nagyon utóbb. Addig meg gondolom akkor mindenki fulladjon meg. Az APU-k még NAGYON nem járnak ott, ahol a dvga-k. Pláne ahol több dvga."Az AMD-nek és nVidiának meg kellene oldania hogy egy nagy, és brutális chipet alkosson"
Hurrá, még több fejlesztési költség, amit az amd már végképp nem tudna bevállalni. Persze a nagyon brutális chip nagyon brutális árral is járna, mert felteszem nem várod hogy egy 980 Ti SLI-vel egyenértékű gpu-t majd odaadjanak neked 1-2 éven belül 400 dolcsiért.Az az "ellustult multichipezés" pedig a skálázás egyik magától érthetődő módszere. Mert ugye nem mindegy hogy a 980 Ti 8 milliárd tranzisztorát teszed rá egy chipre, kábelezteted be, gyártatod le, vagy épp 16 milliárdot, nagyobb chip, nagyobb selejtarány, nagyobb költségek, erősebb hűtés igénye, stb stb stb. 2 gpu esetén viszont 2x akkora a hűtőfelület, fele akkora a chip komplexitása...
-
Dr. Akula
félisten
Reméljük a videokártya gyártók is pont ilyen megértéssel lesznek hogy ezentúl 2 helyett csak 1 videokártyát vesz az is aki amúgy megtehetné. Meg alaplapból se kell 2x16 PCIE-s, elég a mezei, olcsóért.
(#6) FishAir:
Minek? Minden prociban kapsz egy IGP-t (legalábbis a mezei gémer procikban). -
Jack@l
veterán
Pedig készülnek elég erős demók is vele, játékok is a háttérben.
Nem hiszem, hogy pl ilyen grafika konzolon vagy mobilon jól érezné magát:
https://www.youtube.com/watch?v=DRqMbHgBIyYArról nem is beszélve, hogy még csak most került bele a dx12. Lesz ott játék bőven ami megakasztja kártyákat.
-
SylverR
senior tag
Akkor javaslom, hogy olvasgass IT cikkeket a 2000-res évek elejéből és közepéből, ha nem érted a monolitikus chip értelmét.
A 40"-os 4k, meg bőven 12ezer ppi. Ettől sűrűbb képernyő hülyeség kategória. De ez egyéni referencia.
@(#53) schawo:
Ez a komment nem is neked szólt. Valamint sajnálom ha nem érted. Nem az én hibám. -
sb
veterán
Okként ugyanarról beszélünk, csak máshogy fogalmaztam.
Pénz.Ha 10000x annyi usert érint nyilván több a bevétel.
Aztán lehet más jellegű bevételnövelés is... marketing alapú, stb... csak azokat nehezebb számszerűsíteni, hogy mennyit hoznak azzal szemben amit visznek.És még van az az eset is amikor vmi hoz a konyhára de mégsem tesznek bele pénzt. Mert épp nincs... vagy más szempontból döntenek, stb...
Szóval a lényeg, hogy a többi következtetésed szerintem téves. Attól, hogy valamit nem csinálnak még nem biztos, hogy drága/nehéz/stb... akárhogy nevezzük a költség oldalt.
szerk: Eleve a DX12 fejlesztést most meg tudod mondani előre, hogy „drága”-e vagy megéri majd?
Nem. Tudjuk, hogy több minden kézzel kell megírni, optimalizálni 30hw-ra, stb… tehát a költség nagyobb.
A megtérülés? Lehet, hogy 3x gyorsabb/szebb/jobb lesz a game és annyian megveszik, hogy megéri. De az is lehet, hogy nem lesz 3x szebb….
vagy az lesz, de nem veszik meg többen…És az egymásra hatások is játszanak amit fentebb írtam le. Első körben nem éri meg, de második körben már muszáj beletolni a munkát mert különben éhenhalsz, mint fejlesztő. Stb…
De ez nem új dolog. Minden piacon normális, ciklikus működési modell.
-
SylverR
senior tag
Éppenséggel maga az SLI, majd később a CrossFire volt az ami lelassította a monolitikus chipek fejlődését. Az ATi SweetSpot terminológiája ugye.
Nem is akarok 8k-t.Már 4k felbontáshoz is szükséges a 40" kijelzőméret. Ez pedig nem hiszem, hogy olcsó lenne valaha is. Az Eyefinity még lehet segítség ezen téren, de előbb-utóbb úgyis lesz olyan hardware, akár APU-ként is, ami simán elviszi az Eyefinity 4k-t. Persze nem a legújabb programokban.
Maga az SLI eltörlése nem lassítana a fejlődésen, hanem ellenkezőleg. Az AMD-nek és nVidiának meg kellene oldania hogy egy nagy, és brutális chipet alkosson. Amit persze drágábban árulnának mint két kisebbet, vagy egy x2-est. Magasabb ár, több bevétel, több kutatás-fejlesztés.
Persze sajnos nem fognak leállni ezzel az ellustult multichipezéssel. -
ezért mondtam hogy van más motor... ha az unreal mobil piacon akar játszani, akkor játsszon ott. Viszont erősen mennének ők a VR irányba is, amihez meg már nem jönne rosszul. Szóval felőlem tegyék be mobil /indie játékok alá, de akkor főként csak oda tegyék.
Illetve fel lett hozva a költség, amibe szerintem bőven beszáll az AMD és az Nvidia is a saját, odaküldött dedikált fejlesztőivel, illetve némi anyagi támogatással is akár.
-
Xes750
tag
Akinek nem inge ne vegye magara....
Szerinted ez a gondolkodas hova vezet?
"Nekem nincs SLI-m, szoval nem is erdekel"
"Ugy is alig van par embernek"
"Nem kell az, hova kene olyan ero.."
"Haha a sok hulye aki kiadja ra a sok penzt"
stb...Nehogy azt hidd hogy Magyarorszag a vilag kozepe es hogy mindenki 30-40FPS re vagyik FullHD ba medium beallitasok mellett.
Vannak emberek akik igenylik az ujat...4k, 2k,100+ FPS (120hz monitoron) a Virtual Realityrol nem is beszelve... igen Ok azok a "hulyek" akik megveszik ezeket a "mereg draga" "baromsagokat" es kesobb az O jovoltukbol veheted meg Te is, par evmulva olcson a fent emlitett technologiakat.
Persze te sokkal okosabb/frumanyosabb mivel te csak a legjobb ar ertek aranyu kozepkategorias cuccokat veszited meg. (Ami nem is baj, foleg ha nincs mibol meg ha nem edekel)
A baj az az hogy nem erdekel, sot nem is latod hova vezet/het ez a hozzaallas a felso kategoriahoz.FullHD nem volt "felesleges, uristen de draga hulyeseg" par eve?
De az volt megis a sok hulye megvette es most mar tomegcikke valt pont emiatt.
Ledes monitor is aranyaraon volt, es most? A legolcsobb.. Miert mert voltatk emberek akik voltak olyan hulyek hogy kiadtak erte annyi penzt, behozta a fejlesztes arat es megerte tomegbe gyartani.Ezek most a 4k 2k 120hz, VR stb.. Komolyan azt hiszitek h ezeket egy kartyaval el lehet erni?
NEM.. eselyed nincs..(persze Te nem is akarod mert hat draga.. es ha valamiert fizetni kell az mar hajjajj)
De elarulom a "hulye" emberek akik erre koltenek (mert felretesznek ra, vagy mert van mibol) azok se fognak penzt aldozni foleg ha tobbi fejlesto is koveti ezt az iranyt hogy nem tamogatjak a tobb kartyas rendeszereket."Jajj es akkor mi lesz?" SEMMI.. szo szerint semmi.. befoglassulni a fejlodes de legalabb is lelassulni, hacsak a VGA gyartok nem hoznak ki dupla helyett negyszeres eroblei fejlodeset legalabb egyszer hogy behozzak a fentebb emlitett technologiakat.
Szolval ha kicsit megprobalsz elszakadni a kis vilagodtol akkor rajosz hogy ez a semmiseg igenis nagy problema hosszutavon. (Igy neked se lesz olcso 4k elerheto aron 5 ev mulva se)
Ugyan ez a "majd en jol letorrentezem a mozifilmeket mert annyira okos vagyok hozzaallas. Aztan meg jon miert szuntette be a Sony a magyar szinrkon gyartast meglepodes?! Valakinek fizetnie kell a munkat/fejlodest.
-
leviske
veterán
válasz
Menthirist #27 üzenetére
Nem tudom mennyire mondok ezzel újdonságot, de aktuálisan az Unreal 4-nek nagyon kicsi esélye van olyan játékba bekerülni, ami 4K-ban ne futna el R9 380-on 60fps fölött (nem hinném, hogy az új Fable gépzabáló lesz).
Egyszerűen kikerültek az AAA fejlesztések látómezejéből. A CFX/SLI felhasználók szempontjából fontosabb, hogy a nagy kiadók saját motorjai (EA - Frostbite/ Ubisoft - AnvilNext, Dunia / Activision - IW / Bethesda - Creation, Tech6 / CDProjekt - REDengine / stb) kapjanak támogatást, hiszen úgyis ezek a cégek szolgáltatják többnyire azokat a játékokat, amik miatt egy felhasználó hajlandó 2x annyit költeni videokártyára.
(#43) gbors: Aktuálisan milyen játékon keresztül kerülhetnének tesztekben a rivaldafénybe? Annyi pénztartaléka meg valószínűleg az Epic-nek sincs, hogy totálisan felesleges képességeket építsen be a motorba, akár drága akár nem. Vagy rosszul látom?
-
Ha nem éri meg SLI-re fejleszteni pénzügyileg mert drága és mert 10000x annyi IGP-s rendszer van akkor arra fejlesztenek.
Szerintem ez a mondat csak a bold kiegészítéssel együtt állja meg a helyét, ugyanis ha nem drága multi-GPU-ra fejleszteni, akkor már csak azért is megéri, mert a tesztekben több rivaldafényt kapnak. Szóval valószínűleg drága. Felmerül a kérdés, hogy miért drága, amikor elvileg az új csodaAPI-k teljes hozzáférést biztosítanak a hardverhez, és sok egyéb megoldás mellett pl. a deferred renderinghez hasonlóan layerekre lehet osztani a képet, vagy ott a tiling, stb. Ha akkora lenne a szabadság, amekkoráról a fanfárok szólnak, akkor ez nem jelenthetne gondot. De mégis. Hmmm....
-
sb
veterán
Értettem.
De nem kéne egyből általánosítani.Volt vmi másik cikk is.... ja igen, a "naív" DX12 portok...
Szerintem aki azt várta, hogy a DX12-vel együtt megjelenik azonnal, fejlesztés nélkül a Crysis6 ill. további motorok is lefejlesztik magukat DX12-re humán munka nélkül azok valahol csodaországban éltek.Továbbra is a piac diktál. Ha nem éri meg SLI-re fejleszteni pénzügyileg mert 10000x annyi IGP-s rendszer van akkor arra fejlesztenek. Sőt, ha mobilra éri meg akkor mobilra és nem PC-re. Ennyi.
Akinek meg megéri jó DX12 engine-t írni ami 3x jobb lesz mint a DX11-es tákoltaké/akik nem fejlesztenek akkor ő meg bele fog tenni mindent. Aztán lehet, hogy majd a többieknek is megéri éhenhalás helyett akik addig sz*rtak bele...Vagy ha senkinek nem éri meg a végén akkor megszűnik a PC gaming és elmennek péknek, postásnak vagy mobil engribördsz+vedörforkaszt fejlesztőnek. (Ha létezik egy X összegű piac aminek a fenntartása 1.5X-be kerül akkor meg fog szűnni. De én ebben nem hiszek, hogy nagyobb a költség és nem lehet belőle megélni csak ha szart gyártanak.)
Ez ilyen világ, úgy hívják piacgazdaság.
-
Cathulhu
addikt
Abu cikkeivel ebből a szempontból nagyon vigyázni kell, a szakmai információk mellett rengeteg egyéni jövendölést és véleményt tartalmaznak, elég cikk olvasása után a szóhasználatból már el lehet különíteni ezeket a releváns részektől.
Hogy on is legyek, nem vagyok benne biztos, hogy az a 3-4 fps megéri azt a plusz latencyt, amikor a dgpu átpumpálja a félkész jelenetet pciexpresszen a post processinghez, aztán a kész képkocka még egy kis késleltetéssel visszamászik, hogy kikerüljön a kábelre. Arról nem is beszélek, hogy az igp magát a feladatot is lassabban végzi el, nesze neked frame time meg input lag.
-
-
Gusztáv
addikt
válasz
Menthirist #30 üzenetére
Persze mindezt meg lehetne csinálni, amit te leírtál, csak idő/ember és pénz kérdése az egész. A játék motor fejlesztő meg továbbra sem jótékonysági intézmény, minden ilyen döntést komoly pénzügyi tervezést előz meg. A sli/cfx fejlesztés vagy nem hozná vissza a beleölt pénzt, vagy egész egyszerűen egységnyi befektetett pénzből ez a megoldás több hasznot termel. Te is abba a bankba rakod a pénzed, ami több kamatot ad.
Anno jópár éve én is cfx-es alaplapot vettem, hogy majd a HD5770 mellé idővel kerül egy második is. Aztán amikor már kevésnek éreztem, akkor inkább vettem egy HD6870-et, mert minden formában (valós teljesítmény, fogyasztás) az érte meg jobban.
-
RyanGiggs
őstag
válasz
Menthirist #27 üzenetére
"az illetőnek van egy régebbi középkategóriás kártyája, és egy sli-s alaplapja, és az volt az olcsóbb megoldás hogy vesz használtan egy másik ilyen kártyát, máris ugrik a tempó, töredék áron ahhoz képest, mintha venne egy olyan erősségű kártyát."
Szerintem ez a mondat nem állja meg a helyét teljesen.
Én pont a múlt hónapban váltottam le a középkategóriás kártyámat (HD7870) egy R9 290-re! Nem volt nehéz a döntés, hisz 35k+35k=70k (2xHD7870) vagy R9 290=70k!
Mondjuk az már az én döntésem volt, hogy újat vettem 86k-ért.
(Az a még +16k nem vágott a földhöz!)Cikkhez is hozzászóljak :
Átlag 4-5fps-t fog rádobni az IGP egy dVGA teljesítményére?!
Gondolom ez lesz a jellemző a többi játékmotorra is.
Akkor ki fog ezért pl. Skylake-re váltani?
Én biztos nem cserélem le akkor az i5-3570K-mat egy jó darabig, pedig már lassan 3 éves lesz! -
Hiftu
senior tag
Annyi változás van, hogy SLI és CF tulajoknak nézni kell a licenselt motor típusát. Aztán eldöntik, hogy játszanak-e a játékkal. Lehet morogni, hogy de szemét az engine fejlesztő csak nem vezet sehova.
Ez gazdaságossági kérdés. Nem akartak milliókat beletolni egy kis réteg igényeinek kielégítésére. -
1: Azt a mondatodat hogy igp-ről játszol, azt is néha néha, így értelmeztem.
Amennyiben félreértettem, elnézést2: szerinted (!) hülyeség. Szerintem pl nem. Az alap (kellene hogy legyen) hogy jól kell fusson egy kártyán is, de amik nem futnak jól egy kártyán, azok nem a cfx/sli miatt nem futnak rajta jól. Ráadásul nem 10x-es overhead-ról beszélünk, pláne amennyiben a motorban már normálisan meg lett egyszer írva. Illetve ahogy írtad is, vr-hoz pont két gpu a jobb, illetve én a több gpu-s rendszereket is idesorolnám, hisz 5760x1080-ban vagy 7680x1440-ben megfelelő sebességgel játszani sem lehet egyetlen, bármilyen kártyával. Vagy akkor már vessük el a multi monitor támogatást is?
-
SylverR
senior tag
válasz
Menthirist #30 üzenetére
1. Honnan veszed, hogy nem játszok?
2. Szerintem hülyeség abba programozási időt ölni, hogy két kártyán fusson. Inkább fusson jól egy kártyán.
(Igen, VR-hoz értelemszerűen 2 kártya való, ez logikus. A VR címek biztos támogatják is majd.) -
ezzel csak az a baj hogy ezek nem egymást kizáró tényezők. Tehát nem vagy sli/cfx vagy igp kihasználás. Az hogy ők olyan megoldást nyomatnak, ami a dgpu cfx-et kizárja (de az igp-t még be tudják húzni), az az ő saruk. Emellett pedig szerintem joggal lehetnének amúgy felháborodva azok akiknek 2-3 vga-juk van (nem annyira pici piac mint lefested), hogy beáldozzák őket azért, hogy 3-4%-ot nyerjenek a többiek. Mert ha már felhoztad a piacgazdaságot, ezek az emberek 2-3-4 vga-kat vesznek, tehát 2-3-4x annyit költenek mint azok, akik csak egy kártyás rendszert építenek, pláne hogy aki több kártyásat vesz, az általában drágább alaplapot, procit és tápot is vesz, gyakran több monitort, stb stb stb. Tehát bőven kifizet 2-3-4 ember gépének megfelelő összeget, ami emiatt számban ugyan lehet hogy nem hatalmas halmaz, de bevételben korán sem elhanyagolható. Ráadásul pont ezek az emberek azok, akik játékok terén is nagyobb fizetőképességgel rendelkeznek, szerintem bőven nagyobb eséllyel veszi meg és nem warezolja le a játékot az az ember nyugaton aki 3-4-5 ezer dolláros pc-t rakott össze, mint az aki párszázat tudott összekuporgatni.
SylverR: 1: ha nem játszol, akkor ne határozd már meg kérlek hogy milyen legyen a játékok technikai jövője, olyanoknak akik viszont játszanak
2: megint csak, nem kizáró ok, simán futhatna igp-n az AI, miközben egy-két-három vga pumpálja ki az erőt vr-hoz (ahova abu is azt mondta hogy 2 gpu jobb mint 1), 4k-hoz vagy eyefinity-hez. -
SylverR
senior tag
válasz
Menthirist #27 üzenetére
Én viszont azt várom mikor pusztul ki ez az egész váltott soros hülyeség.
Egy dolgot várok az új multiadaptertől. Hogy legyen a jövőben olyan, hogy AI és fizika fusson az IGP-n. Grafika NE! Csak akkor, hogy ha nincs dVGA a gépben. Mondom ezt úgy, hogy IGP-ről játszom néha-néha. -
-Alvin-
tag
válasz
Menthirist #27 üzenetére
Ez nagyon idilli amit írsz, de ez piacgazdaság ahol megnézik mi\ki a felhasználó bázis.
Aki cft meg slit használ töredéke az apu+dedikált gpu párosnak, ergo nem arra fogják fordítani a pénzt, ez nem azon múlik h te mit szeretnél vagy hogy gondolod..Jó amúgy amit írsz de ha nincs elterjedve annyira minek pumpálnának pénzt a fejlesztésre...
-
azért gyakoroljuk már az "élni és élni hagyni"-t most is. Nem azonosak az igényeink. Jó, neked nem kell az SLI meg a CFX, viszont szimpi az igp-s. Másnak meg sli/cfx kell, és nem érdekli az igp-s. Villogó vagy sem, ő szeretne olyan felbontásban és sebességben játszani, amihez két kártyája kell, te meg nem akarsz. Vagy az illetőnek van egy régebbi középkategóriás kártyája, és egy sli-s alaplapja, és az volt az olcsóbb megoldás hogy vesz használtan egy másik ilyen kártyát, máris ugrik a tempó, töredék áron ahhoz képest, mintha venne egy olyan erősségű kártyát.
Szerintem meg legyen benne mindkettő, aki tri-sli-ben akar 4k-ban 100+ fps-sel játszani az tehesse meg, akinek igp-je van a prociban és ki akarja használni az meg azt tehesse meg. Akinek meg 1 kártyája van, igp nélkül, az meg használhassa azt az egy kártyát. -
Manbal
senior tag
mit kell ezen akadni? az u4 engine nem támogatja az SLI-t meg a Crossfire-t... én lexarom, hatalmas baromságnak tartom mind2 "megoldást", tipikus ki a "faszagyerek" villogóknak való, +200-300W fogyasztás mi az???!!!.... az IGP-s dolog viszont nagyon szimpatikus, főleg hogy egyre erősebb lesz az is, és egy kis extra +, sosem árt, ugyan azon fogyasztás mellett!
-
kurta9999
tag
Ne tereljük a szót, mondjuk ki egyszerűen és röviden: b*sznak rá megcsinálni rendesen. Nagyon remélem a többi grafikus motorban nem +3-4FPS lesz DX12-es átálláskor.
-
-
@rglaaf
veterán
válasz
Menthirist #17 üzenetére
Ugyanakkor meg kell érteni, hogy az Unreal Engine 4 fejlesztését már nagyrészt a mobil játékpiac határozza meg
Ebben a mondatban benne is van a lényeg, a nagy studioknak meg nem kell a licencelt engine mert fejlesztenek sajátot
-
-Alvin-
tag
Már csak az a kérdés mégis milyen apu kell 2-4 fpshez, mert gondolom ha túl lassú akkor nem hoz semmit a konyhára...
Teszem azt carizzo kell vagy elég egy haswell vagy kell a sky, netalán iris proval mérték ki ezt a "csodás" eredményt
-
jozsef8
aktív tag
válasz
GeryFlash #13 üzenetére
Nekem is volt 7950 CF-em, le is cseréltem inkább egy GTX 970-re. Hogy miért? Mert rengeteg játék nem támogatta, és nagyon sok helyen random FPS dropokat dobált, ami engem nagyon idegesített. Meg is fogadtam, többet nem építek két kártyás rendszert, amíg rendesen nem csinálják meg a drivereket, és nem támogatják teljes mértékben a játékfejlesztők.
-
eight
senior tag
A Quick Sync nekem teljesen jó felvenni vagy streamelni, hagyják csak békében a játékok. Esetleg a VR-oknál jól jön majd ez a lehetősége dx12-nek, hogy az IGP-n csinálják a ATW-t, akkor úgysem streamel az ember, (vagy ha igen akkor már biztos feltünési viszketegségről van szó és egy másik dedikált PC-vel csinálja), szóval nekem a jákékokhoz elég a GPU-m, el a kezekkel a IGP-mtől.
-
Még jó hogy van jó pár másik motor is a piacon.
-
Vincent_
aktív tag
Nem értek egyet. Anno 7950-es crossfire-t építettem le, mert jött a cikk, hogy jujuj, nem fogják a játékok támogatni a jövőben a két kártyás megoldást. Aztán hogy-hogy nem csak minden fejlesztő leprogramozta a kétkártyás módot, csak én már downgrade-eltem közben persze lapot is.
El nem tudom képzelni, hogy ma egy 7950-es crossfire-t milyen játék tud épeszű felbontáson megakasztani. Ami ugye megvan használtáron ~80k-ból...
-
BiP
nagyúr
Itt gondolom a legjobban a 2-3 Titan-t birtoklókat zavarja a dolog, akik 3x4K-ban akarnak játszani, oda nem elég az 1 GPU. Tény, hogy ilyen ember is kevés van.
Az az elmélet, hogy 2 középkategóriás kártya helyett érdemesebb egy 1db erősebbet venni, régóta igaz.
(Az SLI-Crossfire hajnalán pont azért, mert még nem volt elterjedve, nem használták ki a játékok. Amikorra meg már elterjedt volna, olyan renderelési technikák jöttek, amik ellehetetlenítik a rendes használatot. ) -
Oliverda
félisten
Epic fail
-
GeryFlash
veterán
Szerintem ez nem olyan nagy gond, komolyan hány ember használ SLI-t Crossfire-t? Állati kevés, a játékosok megtanultak, hogy ha spórolnak is pár ezrest azzal, hogy két (felső) közép kategóriás vga-t rakjanak össze, annyi játék van ami nem használja ki, hogy jobban megéri egy erősebb vga.
Nincs nagyon olyan játék, amihez egy 980-as ne lenne elég, max 4k-ban esetleg, de VRAM megosztásra szerintem az UE4 is képes lesz. -
#06658560
törölt tag
Elképzeltem a jövőt: egy NV, egy AMD kari, plusz egy intel iGPU-s CPU. Mondjuk Titan X+Fury X, plusz valami i7. Programozzák már le a kezelését!
-
h-yle
addikt
Viszont ha jól értem akkor egy erős dGPU mellé jó társ lehet egy gyengébb változat, mint "gyorsító" kártya?
-
Apu, kezdődik!
Új hozzászólás Aktív témák
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- NFL és amerikai futball topik - Spoiler veszély!
- Filmvilág
- Abarth, Alfa Romeo, Fiat, Lancia topik
- Vicces képek
- Merész dizájn és új teleobjektív az iPhone 17 Pro mobilokban
- ThinkPad (NEM IdeaPad)
- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- Elemlámpa, zseblámpa
- További aktív témák...
- REFURBISHED - DELL Performance Dock WD19DCS (210-AZBN)
- Lian Li LCD-s 360mm-es vízhűtés akciós áron eladó!
- Apple iPhone 13 Pro Max 512GB,Újszerű,Adatkabel,12 hónap garanciával
- Azonnali készpénzes nVidia RTX 5000 sorozat videokártya felvásárlás személyesen / csomagküldéssel
- Bomba Ár! Lenovo ThinkPad P73 - i7-9850H I 32GB I 512SSD I RTX4000 8GB I W11 I Cam I Garancia!
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest