- sellerbuyer: Nagyon drága a RAM de mégis most érdemes venni!
- Luck Dragon: Asszociációs játék. :)
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- GoodSpeed: 3I/Atlas: Üstökös vagy idegen civilizáció űrhajója?
- GoodSpeed: Haworth Aloha – egy nemcsak szavakban ergonomikus szék
Új hozzászólás Aktív témák
-
#00137984
törölt tag
Azokat az optimalizált hardver fejlesztéseket, amiket visszafognak teljesitményben, mert a konkurencia révén most ennyi is elég. Hát most a legfőbb iparági mozgató erő a 4K. Mostanra a legfontosabb PC hardverek vannak a legnagyobb elmaradásban, miközben a TESCO gazdaságos konzolok ezt a szintet elérik, majd idővel a PC játékosok egy jelentősebb részét megnyerik maguknak.
-
#00137984
törölt tag
Úgyan már, te megint félrebeszélsz. GTX 1070 Ti nekem még pont időben és jóáron beszerezve 160ezerben volt, de majd a Volta videókártyákat még ettől drágábban fogják adni. Szerintem ez még a megfizethetőség felső határa, de valakinek már nagyon nem az. Nem a jelenlegi konzolokra fognak a PC gamerek váltani. "Holnapután" (amikor befagy a PC ipar), mert a hardverek nagyon drágák lesznek egy játékos gépbe. A következő konzol generációk már tudni fogják a 4K/60Hz beállitást tartani. Az meg, hogy kinek értelmetlen a 4K (30/60 Hz) felbontás vagy a 144Hz-es képfrissités FullHD és 1440P felbontáson azt mindenki maga dönti el. Ezeket a felbontásokat a konzolon nem érdemes a PC-vel összehasonlitani. Amig a konzol a müködési elvek miatt a 30 FPS-t egyenletes képfrissitéssel kiadja és azt folyamatosnak látod, addig ez a 30 FPS PC-n maga a halál. Valakinek még a 60 FPS sem képes ezt a játékélményt nyújtani, amig a konzolon ez a 60 FPS maga a királyság. Az ott megfelelő, amig a PC-re ezért a játékélményért többet kell fizetni. Vagyis a hardvergyártók miatt most egyre kevesebben engedhetik ezt meg, de ezt pont akkor amikor a 4K kijelzők kezdenek érdemben fejlődni. A PC hardverek ezt az igényt nem tudják teljesiteni, vagy a felső nagyon drága kategóriában kell ezért megfizetni a megmaradt gyártókat, amig konzolon ez majd a fejlődés következő fejezete. Most tényleg az a legjobb kérdés, hogy ez az áremelkedés milyen kihatással lehet a konzolokra. Szerintem is drágább lehet, de a PC-ről még igy is megérheti átállni a konzolokra.
-
Raggie
őstag
Azt tudom, hogy sokan vettek 130 körül Vegá-kat induláskor. Azok tényleg best-buy vételek voltak.

Fun fact: már lecseréltem jóáron egy R9 Nano-ra(csak az adatlapomat elfelejtettem átírni).
Ezzel elleszek a következő generációig biztosan. Nem volt igazán szükség a cserére, csak pont egy picivel több kellett a 2560x1080 számomra kellemes kihajtásához. Na most megvan. -
Raggie
őstag
Az az "idővel" már jóval több ideje tart, mint amennyit egy normál ember várni tud, aki gépet szeretne építeni.
Ha eleget vár, akkor meg már veheti a következő generációt, aminek nyilván az induló ára magas,tehát vár még egy kicsit. De persze rámozdulnak a bányák arra is, tehát akkor már azt a bányalázt is megvárhatja, stb. Aztán a egyszeri emberke azon kapja magát, hogy nyugdíjas lett hirtelen...

-
#00137984
törölt tag
Akadhat ellenmondás az írásaimban és némelyiket az irónia vonalában fogalmaztam meg. Természetesen a lét végletben is lehet értelmezni, de az egészet átolvasva ez világosan átjőhet. Az e-spot játékot meg kifejettem bővebben, hogy miért hoztam szóba és ennek mi köze van a Hardcore gamerkedéshez, meg a kialakult magas árakhoz. A "pro gamer" megfelelője a FullHD vagy ettől magasabb felbontások és képfrissitések, a magas játékbeállitások elérése a legtöbb játékban... Akkor sokan még azok vagyunk, mert ezért választottuk meg a PC-t játékra, és nem a konzolokra tértünk át. Most ezért pörög ez a téma, mert vagy tojnak a fejünkre és azt gondolják, hogy bármit megtehetnek vagy még tovább drágitanak.
-
huskydog17
addikt
Kérdezd azokat, akik ezt teszik, sok csapat csinált és csinál ilyet. Az ottani mérnökök biztosan alaposan meg tudták indokolni a vezetőknek, hogy miért van rá szükség.
Csak néhány példa (ezeken kívül jóval több is van): CIG, The Farm51, Arkane Studios, The Astronauts, Microsoft stb.Még nagy AAA címeknél is elég gyakori.
-
huskydog17
addikt
"hát köszi, ide jutottunk 2017-ben, hogy ez már top optimalizálás, hogy képes simán futni és nem fagy le a választó képernyőn? Anyám borogass...."
Nem sikerült értelmezni a szöveget, segítek, az előtte lévő kulcsmondat értelmezése után az általad kiragadott mondat is értelmét nyeri:
It appears that all of Forza Motorsport 7’s PC issues have been resolved with the Windows 10 Fall Creators update.
Korábban technikai problémák voltak a játékkal, ezért írják, hogy most simán fut, mert korábban nem futott simán, az előző hsz-ben leírt gyermekbetegségekről van szó, ahhoz linkeltem be, de azt hittem egyértelmű.
"Pedig pont ez a LÉNYEG. Ha annyira nagy mértékben át akarták volna struktúrálni, írtak volna inkább egy saját motort."
Ke? Licencelt motort szerinted nem lehet átírni?
#32314 Callisto: Forrás?
-
huskydog17
addikt
"A Gears of War 4 legjobb tudomásom szerint Unreal engine-es, ami multiplatform. "
Lényegtelen.
"Hogy ebben a játékban nem engedélyezték a DX11 leképezőt, lehet, de ettől az még nem lesz egy DX12-höz tervezett motor."
Miért? Honnan tudod, hogy a motort mennyire írták át a fejlesztők? Többször elhangozz olyan állítás is, miszerint az MS teljesen átírta az UE4-et, ha pedig ez igaz, akkor a motor DX12-re lett átstrukturálva. Röviden tehát nem tudhatjuk, ezt csak a játék készítői tudják.
"A Forza elsősorban konzolra optimalizált, voltak is belőle komoly gondok az elején [link] [link], és továbbra is produkál fura dolgokat."
Hogy jön ez ide? Egy DX12 motor nem produkálhat fura dolgokat, nem lehetnek gyermekbetegségei? A Forza gyermekbetegségeit ráadásul úgy tűnik sikerült javítani.
-
huskydog17
addikt
Tévedsz. Gears of War 4, Forza Horizon 3, Forza Motorsport 7 mind DX12 only, nincs bennük DX11 leképző, így a motorjuk DX12-re lett írva.
"Nálam az számít annak, amikor a leképezőt alapból DX12-re írták, mindenféle DX11 optimalizáció, korlátok és hasonlók nélkül. Tehát amikor a motor elejétől a végéig a DX12 igényeihez és lehetőségeihez van szabva, nem pedig egy ízig-vérig DX11 rendszer végére van csak rábökve egy DX12 futószalag."
És amúgy miből állapítod meg? Ezt csak az adott motor programozója tudja. Te annyit látsz, hogy milyen leképzők közül lehet választani és melyik hogy fut. A motor struktúrába te nem látsz bele, így amit írtál eléggé vicces és nonszensz.
-
t72killer
titán
Mindegy is, a perf/ár és a perf/watt is az amd felé terelte a bányászokat, ezen nem veszünk össze

4-5 karinál 4-5x-ös a beszerzési ár is - igaz, 4-500nál már nagykerárak játszanak
.Ahogy nézem, korai még a coinokat temetni, még a decemberi nyereségüket se adták vissza. Meglássuk, mit hoz a jövő hét.
-
t72killer
titán
"mert nagyon sokáig torony magasan jobbak voltak
perf/wattperf/ár mutatóban" - megfelelő részt korrigáltam
.Nem szolgáltatótól, hanem munkaadótól, egyéb cégtől nyúlják, vagy csak szimplán piszokolcsón megveszik. Kínában az eu-árak negyedéért kapod az áramot, azaz egy 200W fogyasztású vga kb 140$ áramszámlát fog neked generálni 7/24 futással.
-
Televan74
nagyúr
Ha van piaci részesedés,lesz fejlődés is. Addig a fejlesztők is oda húznak ahol el lehet adni nagy számban a játékokat. 49/51% .nál más lenne a helyzet,de 20/80% -nál az erősebb blöki kufircol.

Nvidia ott tartja az AMD -t ahol épp most jó neki, Csődbe nem tud menni,de nem is erős annyira,hogy ő szabja meg az aktuális irányt.Nyilván az Nvidia sem megy másfele,csak a saját tempójában haladhat előre. -
t72killer
titán
Sajnos tudtommal nem mindegyik 4k monitor szép fullHD-n (hiába a kerek matek), ennek azért utána fogok még járni, és csak olyat veszek, ami szépen tudja skálázni magát. Gyorsan pörgő fps-nél még 32"-on is viselhető lehet a fHD
. (pontosan 32"-ot nem tudom, csak a 40"-os TV-nken játszottam párszor - igaz nem 70 centire, hanem kb másfél méterre ülve) -
oliba
őstag
-
t72killer
titán
"...24-32"-nál nagyobb monitorra, oda pedig bőven elég a FHD vagy WQHD."
27" fHD statikus témánál kifolyik a szemem, QHD már kb viselhető, de ~50 centi távolságból azon is látom a pixelhálót. Szeretnék képátlóban is egy kicsikét feljebb menni (32"-ra), és az uhd filmjeimet is teljes részletességükben élvezni (saját termés is van bőven rendes kamerával).
-
t72killer
titán
Az AMD mindíg is igyekezett a "jövő technológiáját" nyújtani, amiben elvileg sok a tartalék.
Én mondjuk felfelé kacsingatok, ahhoz képest, hogy anno a vegát egy mindent agyagba döngölő szörnyként vizionálták, a 64 egy jobb középkari lett a felsőkategória fogyasztásával. Következő körben ezt megfordíthatnák, és kiadhatnának egy igazi felsőkategóriás karit (kb 1080 ti erejével) "középkategóriás" (<200W) fogyasztással.
-
t72killer
titán
Figyelem a piacot - a monitort szeretném cserélni majd egy 4k-s megoldásra, de úgy néz ki, hogy az a jelölt is G-Sync-os, nem freesync-os. Még ha zöld karit is vennék, mindenképp örülök az AMD-s fejlesztéseknek, mert az élénkíti a versenyt és nem hagyja elszállni az árakat.
-
t72killer
titán
("With the RX 580 there’s a 25 Watt power consumption increase when you plugin a second monitor. With RX Vega adding a second monitor raises power consumption by about a Watt. ") - persze ezzel is csak utolérték a konkurrenciát, ami évek óta így üzemel.
Jövőre kell vegyek egy VGA-t, de nemigen találok érveket Radeon oldalról. Hacsak össze nem omlik a bányapiac és külön fizetnek a karik elszállításáért... Jelenleg G-Sync-os, 3D vision kompatibilis monitorom van - ugyebár ez is jelentősen befolyásolja a döntést
. Amúgy kb a mostani 1080 Ti erejére lenne szükségem, csak azért a 300+W-nál kevesebb fűtéssel. Erre jó esély mutatkozik a Voltával, de az egyelőre csak a legendák szintjén élő Navi-val kapcsolatban nem vagyok ennyire optimista. -
De érted, ezek nem azt bizonyítják, hogy CPU-limites a konzol, hanem azt, hogy 30 fps-re írták meg.
Simán lehetett volna 16 magot tenni az új konzolokba, s így kompatibilis is marad visszafelé. Mégsem tették meg.
Abból szempontból lehet CPU-limitesnek tekinteni, hogy mi 60+ fps-t igénylünk, s ehhez képest a legtöbb cím 30 fps-sel jön. Persze ez se a CPU-limitet bizonyítja, csak azt hogy le vagyunk tojva. Túl kevesen vagyunk.
-
Ez hatalmas bullshit, hogy a konzolokban kevés a CPU. Ez nem asztali PC, egy konzol jóval kevesebb CPU-val is elvan, mert nem korlátozza az API. Az Xbox One X meg PS4 Pro félgeneráció ezt jól illusztrálja, hisz 4 év után a CPU magokon csak 30-40%-nyi órajelt emeltek, miközben a GPU-k teljesítménye 2.5-4x-ére nőtt.
-
szmörlock007
aktív tag
-
Puma K
nagyúr
Amiket felsoroltál nyugodtan tudd be annak, hogy ezek az apróságok amik be lettek áldozva a grafikai optimalizálás oltárán 2013 előtt mikor a játékot készítették.
Itt egy 6 részes videósorozat mi minden másra figyeltek oda ennél a korlátolt DX11-gyes játéknál: GTA V - Attention to Detail [Part 1]
Szerencsére adott a lehetőség szét moddolni úgy ahogy az ember gépe bírja: [link]
Vagy tessék ezzel már te is elégedett leszel: [link]

Mert hogy kiadáskor számolni kellett a konzolok és az átlag emberek birtokában lévő PC-k erejével és akkor erre futotta alapból.
Elhiheted, hogy ha jobb hardvereik lennének az embereknek és erősebb konzolok lennének a piacon (cöh
) akkor már a játékok is látványosabbak lennének DX verziószámtól függetlenül.Még egy kis adalék mit lehet kihozni a korlátolt DX11-ből egy open world játéknál:
GTA 5 Photorealistic | ULTRA REALISTIC Graphics MOD (REDUX)
Annál a Devilnél lehet kezdeni egy HBM pasztázással:
-
do3om
addikt
Én úgy emlékszem hogy a dx12 előtt sokan eladták az NV karijukat hála Abunak.
Van aki sokat bukott is, vagyis Abu megkárosított itt embereket ha úgy vesszük a hülyeségeivel.
Annyi hogy végül csak jól jött kimert az AMD karik ára elszált de nagyon, igy aki lassabbra váltott sem bánta annyira mert utánna drágán eladta a 470-80-asát, de kurvára nem volt belekalkulálva, ha nem jön a bányászláz akkor buknak. -
Puma K
nagyúr
Dehogynem láttam.
Viszont akkor ha már így kiemelted akkor megkérdem, hogy hogyan kell érteni a "nem is túl szép" kifejezést ez esetben ha grafikáról van szó?Jelenleg az Overwatch valamint a GTA az ami naponta elindul nálam és több óráig pörgetem őket és DX11-gyes címek.
"...számomra már elképesztően illúziórombolóak az üvöltő DX11 korlátok."
Ezeken a képeken te látod az üvöltő DX11 korlátait pl a GTA V esetén?
mod nélkül ez az alap grafika
Én azt látom, hogy egy 2013-ban megjelent játék 2015-ben teljesedett ki PC-n ami DX11-gyet használ és baromi jól néz ki. A jó offline tartalom mellett az aktívan frissített online tartalmon felül ami azóta +9GB-tal hizlalta fel az alap játékot 65GB-ról 74GB-ra ami majdnem egy másik open world játék a Mafia 2 mérete (10GB) szép a csomagolása a játéknak.
Az Overwatch-ot is berakhatnám mert az is baromi szépen néz ki, de az egy jóval kisebb pályán játszódó játék. Vagy akár ott a Witcher 3 is ami szintén DX11-gyet támogat és szintén open world játék. Egyiknél sem látom a DX11 korlátját. Azt látom egyedül az általam felsorolt címeken kívül szinte mindegyik játéknál, hogy hanyagolják a készítők a rombolható környezetet...
A DX10 és 10.1 is egymagukban bukás volt attól függetlenül hogy milyen alapot jelentettek.
Az akkor kiadott tudásuk alapján semmivel sem tudtak többet a gyakorlatban. Ki sem kellett volna adni csak akkor mikor már elérte a DX11 szintjét tudásban. Ezt is alátámasztja a Vista rövid pályafutása és a Windows 7 gyors megjelenése ahhoz képest mennyi idő volt az XP és a Vista között.Ugyan az van most a Win7+DX11 párossal mint a WinXP+DX9.c duóval volt anno.
A játékkészítők-kiadók nagyobb rálátással rendelkeznek erre az egész témára mint te vagy én.
Arra az OS és DX-re adnak ki játékot ami elterjedtebb és tudják, hogy zökkenőmentes az áttérés. De számomra egyáltalán nem meglepő módon az eddigi tapasztalatok és információk alapján a DX12-re való tömeges áttérés és új játékok megjelenése elmaradt.
-
Milka 78
nagyúr
Alapvetően igazad van,de van aki nem pro user és egy Házigazda nevezzük "továbbadásának" bedől,hisz elvileg ő egy prominens személy és ő biztos megalapozottan tesz ilyen kijelentéseket...amik ugye sorra buktak meg és ez csak egy példa.
Félreértés ne essék.Szólásszabadság van és mindenki azt mond amit akar.Én holnaptól pl az MSI Z370 Tomahawkot fogom éltetni,mert Military Class V és úgy halottam,hogy ez űber...ja nem is mert egy lesporólt vrm-el rendelkező,belépő szintű lap és kifekszik egy masszívabb oc-s 8700k alatt,ergo nem adom tovább a fenti agyszüleményt amit a gyártótól halottam olvastam.Tudom sarkalatos példa,de azért ebben is van igazság. -
Petykemano
veterán
Teljes mértékben egyetértek.
Mindazon érvek mentén amiket a Vega gamer piaci megjelenése ellen felhoztál a lehetőségek:
A: ne adjuk ki a gamer piacra, mert nem tudnánk ellátni, addig is csiszolgatjuk a drivert, korrigáljuk a hardveres hibákat, stb
B: bár hiány lesz, ki mennyiségben kiadjuk, drágán
. Addig is csiszolgatjuk a drivert, korrigáljuk a hardveres hibákat, a beérkező visszajelzésekből és telemetrikus adatokból még okosabbak is leszünk és jobb lesz majd a custom kártyák megjelenéswkor a Power Tune is.
a bejövő adatok nagy mértékben segítenek majd,
Hogy sikerüljön megoldani a dsbr és primitive shader, ngg fícsöröket, hogy mire lesz elég eladható termék és tolhatjuk a partnereknek is, addigra egy igencsak kellemes termék álljon össze.Ha Abu szerint januárban áll hadrendbe a harmadik tokozó, akkor februárban érdemes várni a custom megoldwsokat is a piacra, nem?
-
Puma K
nagyúr
"Ami az Ashes of the Singularity-t illeti, azért ott elég komoly dolgokat megvalósítottak, még ha első ránézésre "nem is túl szép"."
Tehát akkor inkább legyen egy játék DX12-es ami csúnyább és kevesebb FPS produkál?
Akkor minek szeretnél bármilyen szintű fejlődést ha szerinted a csúnyább-alacsonyabb FPS jobb?
Neked miért fontos mint játékos a technológiai háttér ha a játék jól néz ki és jól fut szemben egy olyan eljárással ahol a végeredmény minden szempontból rosszabb?
"Ami a DX12 címeket illeti, ott még mindig a probléma, amennyire én látom, hogy senki nem meri bevállalni, hogy nesze, egy DX12 only cím... Nem elég nagy a piaca."
Mert kb ez a DX12 is akkora bukás mint a DX10 és DX10.1 volt.
Ott is az volt, hogy pár címbe bele rakták a DX10/10.1-gyet és kész.
Gyakorlati előnye-haszna nem volt.Be lett harangozva mind a kettő-három DX a maga idejében az új OS-ekkel együtt -név szerint Vista majd Win10- megjelenés előtt, hogy fú most aztán nagyon jön és olyan grafika meg ilyen-olyan újítás lesz hogy úha. Ehhez képest lóf@sz sem történt még mindig. Akkor sem a Vista idejében és most ~2.5 év után sem a Win10-nél.
A DX11-nél nem emlékszek arra, hogy ennyire előszopták volna a terepet bármilyen szinten bármelyik gyártó-cég mint most a DX12-nél az AMD&Májkrémszaft duó. Ja de már volt egyszer ilyen... szintén az AMD részvételével a külön DX10.1 támogatás ami ha a számozást nézzük akkor több mint a DX10, de a gyakorlati haszna nulla volt.
A Win7 és a DX11 jött, látott és a mai napig nem akar kihalni egyik sem.
Hasonlóan mint anno a Windows XP és a DX9.c, azok is elég jól tartották magukat, majd leváltották őket mikor időszerű volt.A DX9.c-re is ment a fújás, hogy hát de miért nem felejtik már el a játék készítők, mikor kint van a DX10/10.1 és azt kellene már használni...
Azt sem szabad elfelejteni, hogy vannak a konzolok amiket csak adott évenként fejlesztik hardveresen... ameddig azok nem fejlődnek addig a játékok sem fognak. Lehet rájuk várni.

-
cskamacska
addikt
Ugyanarról a FrostBite csapatról van szó, ami 2017 végére is bugos (legalábbis DX11 módnál rosszabb képességű) DX12 móddal adta ki a SW Battlefront 2-t?

Oxide csapatának pedig le kellett volna hozni a csillagokat az égről(amennyi fényezést kaptak Abutól
), de szegények egy techdemót alig tudtak kiadni, Ashes of the Singularity se nem túl szép, sem nem fut túl jól, és játéknak is csak futottak még. Creative Assembly féle Total Warhammer 1+2 minden fenti feltételnek jobban megfelel mint a csodacsapat alkotása, csak hát az nem a jövő, mert még mindig elmaradott DX11, és ráadásul ott is a DX12 mód csak viccnek van. 
Ahol ténylegesen FPS értékekkel lehet zongorázni a különbséget a "jövő" javára az a DOOM, ami ha nem is szebb Vulkan alatt, de érezhetően, lejegyezhetően gyorsabb a next gen API alatt.
A Wolfi 2 érdekes lenne, mert szép és jól fut, de hogy most az AMD kártyákon azért fut sokkal jobban, mert azok már a "jövőnek lettek tervezve", vagy mert mint Abu is említette, egy AMD kártyák specifikus Vulkan módot kaptak, ami mondjuk egy későbbi nem GCN AMD kártya alatt megint nem fog működni, csak az nV/Intelnek járó szabványos implementáció, na ezt mondja meg aki tudja.Egyébként ha már itt járunk: Hol vannak a jó DX12 címek? Mármint azok techdemónak is beillők amivel el lehetne adni akár az AMD akár a Microsoft jövőképét, amivel bottal elverés helyett(lásd MS új procis piszokságai, de ha az új CoD jövőre Win10/DX12 only emellett randább és lassabb mint a mostani DX11, az is annak számít
) önként és dalolva ugrasztanának ki mindenkit DX11 és Win7 alól, mert hogy instant itt a jövő gyerekek, várunk szeretettel, itt tessék WIn10-et, ott Vega kártyát venni.Mert a Bethesda Vulkan címeivel még csak-csak kinézünk valahogy, de DX12 fronton most már 2 és fél éve.. nos, mi is van?

-
do3om
addikt
Saját nézőpontom meg ez: Alama kért a vega-ból mondjuk 15%-ot, professzionális piacra szántak 35%-ot game, meg egyéb mint amit a bányászat is felvesz 50%. Csak kitralát arányok.
Ebből a végül az AMD amit teljesíteni is tud az alma megkapja a 15-öt a prof drága szóval marad nekik is közel max, a gamer meg kap 10-et az 50 helyett. Így is jól hangzik hogy mondjuk 40%-ot kapásból bebuknak?
Mert ha hiány van nem biztos hogy azért mert viszik, azért is lehet mert szar a gyártás. Márpedig az utóbbi esetben komolyak lehetnek a veszteségek, nem is kicsit.De ez csak elmélkedés, egy más közelítésre, a bevételek majd valakit igazolnak.
-
Puma K
nagyúr
Az nem az Nvidia sara, hogy nincs mit kiszolgálni a jelenlegi szinttől jobban.
A felbontás növekedésre is reagáltak plusz teljesítménnyel.Látható részükről ha vannak adott területek ahol helyt kell állni és tudnak rá megoldást (önvezető autók, gépi tanulás, szerverek, játékra szánt grafikuskártyák asztali és hordozható gépekbe, kézi konzol, stb) akkor rakják alá a hardver+driver-t.
A csillámporos meselistát meg minek adjanak ki?
-
TTomax
félisten
Igen mert az emberek nem hülyék,nem kajálják ha +30%ot látnak genenként mert az kevés.2 gen alatt a nagy ujitásokkal az AMD összeszedett 3 gen hátrányt,ehhez elég nehéz tapsikolni.Arról nem beszélve,hogy megteremtettek egy valós piaci igényt amit nem tudnak kiszolgálni,mert minden/mindenki fontosabb nekik mint az egyszeri gamer.Az az egyszeri gamer akik(k) rekord nyereséget termelnek az nVnek... mert lagalább az nV hozzá a +60%ot genenként,és olyan piaci igényekre reflektál amik léteznek és valósak,igen a ficsörlista hossza nem ide tartozik!
-
Egon
nagyúr
Ezzel kapcsolatbn csak az a vicces, hogy pár éve, amikor úgy tűnt, megint NV kerül az almás gépekbe, még arról beszélt a phróféta úr, hogy az NV-nek csak nyűg lenne az Apple gépekben megjelenés, az AMD vonatkozásában meg valóságos atombombaként tekintetek rá, mintha ez lenne a diszkrét vga piac Szent Grálja, holott a teljes PC-s piac kis részéről van szó...

-
Meg az is, hogy pl épp az előbb beszéltem egy nagykeres ismerőssel és közölte, hogy a mára igért vega szállítmányt ne várjam, mert a szállító visszamondta a szállítást készlethiányra hivatkozva.
Szóval még mindig kellően nagy a baj, és egyszerűen képtelenek értékelhető mennyiséget szállítani.
Értem ez alatt már lassan az 5db-ot is.
Amúgy én úgy érzem, nem HBM2 hiánya itt a fő gond, az csak az okozat, az ok inkább az Apple.
Lefogadom miattuk van hiány jelenleg a Vega kártyákból, mert oda mentek azok a lapkák ami az 56/64-re kellene, hogy ki tudják elégíteni az igényeket. És az Applenak meg nem mondhatnak nemet, prioritást élveztek. -
Akár egy új hw, akár egy új szoftver hónapok, vagy akár évek kérdése.
Én sem feltétlen mondom azt, hogy szar a Vega, de mindenképp hátrányban van jó pár helyen.
Na már most az AMD jobban járna (meg szerintem mi is) ha nem ezt kezdené el foltozgatni, hanem inkább lépne egyet előre. -
-
Abu85
HÁZIGAZDA
Attól, hogy fut egy 3rd party program még nem szabad hibát generálnia. Ezért ellenőrzik le. Viszont az NV és az AMD addig tud eljutni, hogy kiderítik a hiba okát. Ha van és nem náluk van, akkor például a Trixxnél van support, megy a ticket a Sapphire-nak, a Precisionnál megy a ticket az EVGA-nak. Az Afterburnernél nincs hova ticketezni. Van a Guru3D fórum, ami közösségiként működik.
Nem sok érdek van emögött. Amíg a Sapphire és az EVGA úgy gondolja, hogy megéri a programjaik mögé annyi pénzt rakni, hogy legyen hivatalos support, addig az MSI úgy gondolja, hogy nem. Nem nyernének vele annyit, hogy megérje. Igazából a Sapphire és az EVGA számára is csak a kiemelt státusz miatt éri meg. -
do3om
addikt
Amin nincs HBM azt sem képes a szükséges mennyiségben gyártani.
A bányászatot mint okot nem fogadom el miközben nem igazolja semmi hogy olyan jól menne nekik. Csak simán kevesek ahhoz hogy megfeleljenek a piac ellátásához. Nem képesek még akkor sem megragadni a lehetőséget amikor ott van az orrok előtt, ennél jobb alkalom sosem lesz nekik de simán szerencsétlen egy banda aki mostanában mindent elbasz.
Hiába a nagy kereslet semmi előnyük nincs belölle ahogy a pénzbeli adatok mutatják. Hihetetlenen hogy nem képesek még ilyen lehetőséget sem kihasználni. Ha annyira növelnék a gyártást az látszódna, de olyan mintha ki lenne tűzve hogy el kel adniuk x darabot, miközben 3x-et is el lehetne, de ők azt mondják elég az x hogy a felszínen maradjanak.A bányászathoz még ha netán valaki szidja: Akkor szidja az AMD-t teljes erőből, és vegyél nyugodtan AMD ha neked egy olyan cég a szimpatikus akinek ez a foltos, a karik többet gyorsulnak bányában mint játékokban. Ha neked az elved ehhez húz hát gratulálok, elvből nem veszel olyantól karit akinken a gamer piac a fontosabb.

-
do3om
addikt
" Fél éve sincs bemutatva a Vega és már jönnek a gyártói kivitelek"

Na ez odabasz!Nincs itt semmi látnivaló minden a terv szerint megy az AMD-nél, pont így akarták.

A balfasz NV meg kihoz valamit és 3 napon belül a gyártok bemutatnak vagy 30 változatot ami majd megépítésre kerül, és pár hétre rá jön is mind.
-
Puma K
nagyúr
A nVidia-nál tudnak harapni a gyártók az új szériákra és a referenciák után pár nappal-héttel már jönnek is az egyedi megoldások.
Késett a Vega: Release date August 14, 2017
(Pascal: Release date May 2016)16 hónap.
Egyedi megoldások meg: 2017-11-29 - Szállingóznak az egyedi Radeon RX Vega VGA-k
Már december van és még mindig nem lehet kapni egyedi vegát: 16 hónap + 4 hónap = 20 hónapja nincs egyedi kivitelű vega a késéssel együtt számolva

-
#45997568
törölt tag
Fél éve sincs bemutatva a Vega és már jönnek a gyártói kivitelek.
Errol a mar-rol azert kerdezzuk meg azokat akik erre varn(t)ak a megjeleneskor hogy hol a fenebe vannak mar

Szoval ha mondjuk 1-2 honappal a megjelenes utan ott vannak a gyartoi megoldasok azt mondom oke, de hogy fel evvel a megjelenes utan lehet megvenni az elso peldanyokat
Erted 
-
Puma K
nagyúr
A sima 780-ból volt 6GB-os verzió is:
Így hirtelen ezek jutottak az eszembe régről.
-
Loha
veterán
Csak az effektív órajel magasabb a GDDR5X esetében, amit az egy órajel alatt átvihető adatok duplázásával értek el, a tényleges órajel nem nőtt a sima GDDR5 -höz képest, tehát pl. a 6GHz-es GDDR5 és a 12GHz -es GDDR5X azonos tényleges órajelen mennek.
Petykemano: Kb. 5-6000 USD lehet most egy wafer 14-16nm -en, amire kb. 100db csúcs GPU fér el, de a nagy kérdés mindig az, hogy abból a ~100db -ból mennyi lesz használható, mert az az ami igazán meghatározza egy GPU előállítási költségét.
lezso6: Ha a GloFo jelentősen olcsóbb lenne a TSMC-nél, akkor mindenki ott akarna gyártani, de nincs így.
-
Loha
veterán
A Titánokon a Titan X (Maxwell) -ig bezárólag, a GPU felőli oldalon lévő GDDR5 chipeken voltak a hővezető padok meg a hűtőborda, a kártya hátulján lévő ugyan ilyen chipeken meg nem volt semmi, és a GDDR5 magasabb feszültségen megy mint a GDDR5X...

A Mercury Research régebben csinált VGA gyártási költség kalkulációkat, szerintem ezek most is jó kiinduló alapot képeznek az arányok tekintetében (kattra nagyobb lesz):
Első oszlop az akkori eladási átlagára a kártyáknak, az utolsó pedig a gyártási összköltség, közte pedig részletezve vannak a költségek.
-
Loha
veterán
Nem írtam le, mert nyák egy kis része csak a költségeknek, és a 384 bites nyákban semmi extra nincs.
Az AMD és az NV is használt már 512 bites nyákokat nem csillagászai áru kártyákon, és ha itt nyer vmit az AMD a HBM2 -nek köszönhetően, azt a Vega esetében a drágább 12 fázisú tápáramkörrel el is veszíti.GDDR5X meg valszeg nem is igényel hűtőbordát.
-
Petykemano
veterán
azt mondtam én is lehetséges oknak:
azért nem gyártanak polarist már, mert nem akarják ezzel elárasztani a piacot.
De megírták korábban mások is, hogy az AMD nem áll bele a miningba, mert kockázatos a piac hullámzó jellege. Vagyis azért, mert most a bányászat miatt magasabb a kereslet, nem fog többletkapacitást vásárolni, főleg nem egy kifutó termékre. -
huskydog17
addikt
"A Ryzen 3 lehet, hogy bitang olcsó, de reggelire fogyasztja el a kétmagos i3-akat..."
Te jó ég! Te értelmezed is, hogy miket írsz vagy szimplán bullshit módba kapcsolod a billentyűzeted ilyenkor?
Legalább egy kicsit nézz utána a dolgoknak légyszi, mielőtt ekkora ostobaságokat írsz le!A vele egy árkategóriában lévő Intel Core i3-7300-mal szemben néhány játékban van előnye, más játékokban pedig hátránya. Játék és VGA függő, hogy mikor melyik van előrébb, de a kettő közül nincs egyértelmű győztes.
PuMbA: Ja csak az RX560 ellen megy a GTX 1050.
Abu85: "Tehát teljesen mindegy, hogy mit mérsz most, mert megközelítőleg sem azt fogod mérni később."
jajcs, akkor a világ összes tesztje nem mérvadó, értjük. Kérem kapcsolja ki.
Ugye tudod, hogy a vásárlók 99,99%-át (de lehet nagyon alul lőttem) kizárólag az érdekli, hogy most mit teljesít egy VGA egy adott játékban és nem az, hogy majd egyszer a jövőben talán ez és az lesz? -
Abu85
HÁZIGAZDA
Nem igazán számít már ez egy Ryzen 3-mal. Nem lesz igazán nagy különbség. A legtöbb eltérés abból ered, hogy a tesztjátékok egy része korai hozzáférésű, lásd például a Quake Champions vagy a PuBG. Ezekről tudni lehet, hogy még komolyabbat fognak változni a megjelenés előtt, mert mindkettő játéknál tervben van a Vulkan API-ra való váltás. Tehát teljesen mindegy, hogy mit mérsz most, mert megközelítőleg sem azt fogod mérni később. A gyártók a meghajtókat nem is tervezik nagyon rá úgy a játékokra, hogy az egyes kiadások között folyamatos változtatások jönnek.
-
PuMbA
titán
Ugyanaz lett volna az eredmény, mert az eSport játék többsége 1 vagy 2 magot használ
Azért látszik, hogy újabb játékoknál az RX550 a nyerő pl. Battlefield 1, Overwatch illetve más videóban a Hitman, Dirt Rally alatt is az RX550 látványosan jobb. Az eSport játékok nagyrészt 2011-es technológiákat használnak, szóval nem meglepő az NVIDIA előnye. -
Raymond
titán
Techspot szoveges teszt = Hardware Unboxed video
Esports Benchmark: GeForce GT 1030 vs. Radeon RX 550
2:24-nel van a konfig (R3 1300X alapon + DDR4-3200).
Szerk: a szovegesben is ott van, mert gyakorlatilag egy transcript:
"For testing I've used our Ryzen 3 test system with the 1300X installed. No overclock has been applied to the CPU but we are using 16GB of DDR4-3200 memory."
-
Loha
veterán
Szerintem a fő probléma az a DX12 -vel, hogy egy early access DirectXet kaptunk új shader model nélkül, ami példátlan a modern DirectXek történelmében, az már csak bónusz, hogy egy early access oprendszerhez is van kötve.
Szerintem a DX12 eredetileg most októberben jött volna, a shader model 6.0 -al együtt.(#30350) namaste:
Kepler tette lehetővé először azt, hogy az NV a középkategóriás kártyáját indítsa az AMD csúcskártyája ellen. Ez fordulópont volt, az AMD gyakorlatilag sarokba lett szorítva, nem csinálhatták a szokásos aláárazunk az NV -nak taktikájukat, mert a GTX 680 a jelentősen kisebb GPU miatt, olcsóbban gyártható kártya volt mint a HD7970. -
Petykemano
veterán
Ebben az a szép, hogy az FP32/FP64 eredményeket fogyasztás emelkedése nélkül és azonos méretben hozza. Ezt persze nyilván a gyártástechnológiának is köszönheti... azt is, hogy többet tudtak belepakolni és azt is. A gyártástechnológia adta teljesítmény előnyöket pedig a fogyasztás kordában tartására tudták használni, nem kellett még 50-100mhz plusz miatt kilőni vele a tetőt.
A volta legalább szintetikus tesztekben teljesít. Hozza a névleges paramétereket, skálázódik. A vega compute tekintetében egyébként szerintem rendben levő termék. De persze ne legyünk naívak, ha az amd holnap piacra dobna egy a voltánál kétszer gyorsabb, és kétszer kevesebbet fogyasztó kecses compute szörnyeteget, akkor se fordulna a piac overnight, akkor is több gyorsítót és gput adna el.az nvidia.
De ezzel együtt sajnks vega 17prim/clock meg még csak papíron létezik.
-
Loha
veterán
Igen azt gondolom, hogy az AMD rendszeresen elfelejt tanulni a saját maguk, és mások által elkövetett hibákból.
DX12 -re való átállás nem a GPU gyártóknak okoz nehézséget, hanem a játékfejlesztőknek, meg nyilván a motiváció is hiányzik...
A GCN akkor sem lett volna jó ötlet, ha az NV marad a Ferminél, mert egy 40 nm -ről 28 nm -re átültetett, feljavított Fermi v3 simán hozta volna a 7970 szintjét, csak éppen az AMD a GCN -el elveszítette azt a képességét, hogy kisebb hatékonyabb GPU -val hozza ugyan azt a grafikus teljesítményt mint az NV, és mivel az AMD marketingje is kb. arra épült, hogy olcsóbban adják ugyan azt mint az NV...

(#30332) namaste:
Az nagyon gázos, ha az "AMD is megoldhatta volna a többszálú DX11 drivert", és nem kényszerből mentek csak a Mantle irányába... -
Petykemano
veterán
Akkor Szerintem alapvetően egyetértünk.
A draw call probléma. Ilyenekről beszélek én is. Látni kell persze, hogy alapvetően az amd próbálta a piacot kimozdítani a status quoból annak érdekében, hogy a szoftveres környezetet adoptáljon egy alapvetően compute orientált gpu architektúrának jobban fekvő apit. Az amd be akart törni a gpujával a hpc piacra, ehhhez készült a gcn (gurítottak egyet) és igyekeztek a szoftveres környezetet a gcnnek megfelelően alakítani. A draw call probléma felvetése ennek része. Abu ezzel kapcsolatban lehozta a csillagokat az égről, hogy mennyivel jobb lesz. Bármilyen jónak tűnt is, Végülis nem sikerült az amdnek eltekerni a piacot abba az irányba, hogy ez meghatározó tényező legyen. Ennek sok oka lehet, de a lényeg: nem sikerült.
-
Petykemano
veterán
Az, hogy esetleg pont nem közvetlenül az nvidia akadályozta meg, hogy a mantle elődjéből 2 évvel korábban Szülessen meg a dx12, az még nem igazolja, hogy az amd és az nvidia csak jósgömbbe nézve próbál sok évre előre hardvert tervezni. Csupán árnyalja a helyzetet, azt mutatja meg, hogy az amd és az nvidia akarata a piac történéseiben nem feltétlen egymás komplementerei. Ez talán túlzás. De legalább ekkore túlzás az is, hogy semmilyen ráhatást nem gyakorolnak, puzstán passzív elszenvédői vagy haszonélvezői az eseményeknek, amit nem befolyásolnak, csak megjósolni próbálnak.
-
Loha
veterán
Nem jósgömbje vagy szerencséje volt az Nvidiának a DX11-el, hanem tanultak korábban elkövetett hibáikból, és pénzük is volt megvalósítani a szükséges dolgokat.
Konkrét esetben az NV már Ferminél szembesült ugyan azokkal a problémákkal amivel most az AMD küszködik, és ennek tudatában módosították az architektúrájukat a Keplerre.
Az egyik kulcs mozzanat az volt, hogy Fermi hardveres ütemezőjét átültették a GPU-ból a driverbe, ami lehetővé tette azt a rugalmasságot, amivel alkalmazkodni tudtak a DX11 -hez, és ha eljön az ideje alkalmazkodni tudnak majd a DX12 -höz vagy bármilyen más API -hoz is.
Ehhez természetesen elengedhetetlen volt a sokmagos procik elterjedése és egy erős szoftveres csapat, de 2008 körül már egyértelműen látszott, hogy ezzel nem lesz probléma.
SZVSZ a legjobb videó a témában (angol):
AMD vs NV Drivers: A Brief History and Understanding Scheduling & CPU Overhead -
Shing
őstag
Érdekes, hogy most ennyire törődnek a felhasználói bázissal. Régen egymást váltották a shader model-ek, nem győzött az ember újítani. Most pedig több évre visszamenőleg meg kell írni a supportot és évekig várnak mire meglesz a "célcsoport". Persze ennek valahol megvan az előnye, de már addig tökölnek, hogy az túlzás. Ha több DX12 only cím jönne, sokkal többen váltanának a korábbi rendszerekről, ez ilyen egyszerűen működik...
-
Crytek
nagyúr
Vioccen kívül: Ha még mindig csak DX11-re gyúrna az nv akkor is ugyanúgy ott lennének a toppon..a DX12 éra továbbra sincs jelen....Még mindig nem tartunk ott hogy minden game dx12-es sőt nem is minden 5.game.... Sőt dx12 only alig alig leledzik... Ej ráérünk arra még... Nvidia most is akkor fog váltani amikor azt érzi ,hogy kell és van értelme.
-
Petykemano
veterán
Ehhez annyit tennék hozzá, hogy nem volt nehéz a piaci részesedésükkel"kierőszakolni" a kellő figyelmet a fejlesztőktől.
Én is ezt mondtam. Csak szerintem...
Itt igazából a két cég eltérő stratégiájáról beszélnék még. A zöldek nagyon jól megcsinálták, hogy a DX11-hez nagyban hozzászabták a hardverét, ezzel nagy előnyt húztak az ezt használó címekben. Az piros oldal viszont túlzottan egy újabb API-ra készült, más paradigmákkal, és ez így elég nehezen volt keresztülvihető a sok ellenérdek mellett.... Erre csak rátett egy lapáttal, hogy mindenkinek hirtelen nagyon fontos lett a Maxwell-nél a perf/watt arány.... Én elsősorban a piaci stratégia különbözőségében látom a nagy difit, amit viszont évekkel a termék előtt kell lefektetni, szval nyugodtan mondhatom, a zöldek varázsgömbje most jobban működött, és elsősorban én ennek tulajdonítom, amit most látunk. Jobban taktikáztak, jobban megsejtették, hogyan fog alakulni a piac.
Persze, ehhez társítottak egy közel hibátlan kivitelezést is, ez sem mellékesSzerintem a szoftveres környezet nem annyira rajtuk kívül álló, környezeti tényező, ami szépen lassan az idő haladtával lépeget előre egy a fejlesztők eredője által kijelölt természetes úton. Nem.
A zöldek nem csak nagyon jól megcsinálták, hogy a DX11-hez hozzászabták a hardvert. Azt is. De nem csak passzívan (jósgömböt nézve) szemlélték, hogy vajon sikerül-e eltalálni az igényeket, hanem amikor elkötelezték magukat egy DX11-hez passzoló hardver mellett, közben mindent megtettek azért, hogy a hardverükhöz passzoljon az uralkodó api, middleware és más szoftveres környezet. Ebben - ahogy mondod - nagy segítségükre volt a piaci részesedés és a nyers pénztömeg.
És a pirosoldal sem túlzottan egy újabb apira készült, mintha csak belenéztek volna 4 éve a jósgömbbe, hogy vajon mit hoz majd a szél és passzívan szemlélték, hogy jaj félrelőttünk. Nagyonis mindent megtettek azért, hogy a hardverhez - ami mellett elköteleződtek - megfelelő szoftveres környezet legyen. Megírták a Mantle-t, lett DX12, lett Vulkan, mindaz, amiket Abu "lódít" nekünk, az mind az AMD PR munkája: hogy majd a low level api lesz a megváltó, hogy majd az Async Compute, na majd az, az a jövő.Ez nem csak nekünk, olvasóknak szólt, hanem az egész gpu-szoftver-ökoszisztémának.
Nem a varázsgömbbe nézés sikerült jobban az Nvidiának, mintha a hardver tervezésétől csak szabadesésben szemlélné, hogy mennyire messze ér földet a szoftver. Az nvidiának az események, a a használt apik, a motorok, a használt fícsörök és az egész szoftveres környezet befolyásolása, a saját hardverének megfelelő irányba terelgetése sikerült jobban.
Nem csak a hardver kivitelezése sikerült hibátlanul, hanem a szoftveres környezeté is (és itt most nem a bugmentes driverre gondolok), meg persze a kezdetektől jobb marketing, mindshare.Tehát nem csináltak egy istentelenül jó hardver és társították hozzá egy hibátlan kivitelezést is amolyan ráadásként. Hanem csináltak egy hardvert, ami a maga nemében jó és hibátlanul végrehajtották hozzá a hardvernek fekvő szoftveres környezet kialakítását.
Hogy értsd mire gondolok: ha az AMD-nek sikerült volna a szoftveres vízióját keresztülvinni, és ma compute futószalagot használnának a motorok sokat párhuzamosan és aszinkron is, meg minden az nvidia helyett a GCN gyorskódokat használná és nvidia effektek helyett AMD effekteket alkalmazna, nem tesszelálna túl, stb, (és persze a grafikonok is ennek megfelelően alakulnának)
akkor ma arról beszélnénk, hogy milyen elavult, régimódi hardvere van az nvidiának, nem igaz, hogy képtelenek előállni a piaci trendeknek megfelelő új architektúrával, ami ráerősít a compute képességekre és mi a francért pazarolják a tranzisztort ROP-okra, meg kihasználatlan geometriai kapacitásokra, és más dedikált egységekre, és milyen bénák, hogy még egy normális hardveres ütemezőt se tudnak összedobni, amijük volt, azt is kidobták a keplerrel és most emulálniuk kell. Amatőrök, nem tudnak GPU-t tervezni, generációk óta képtelenek egy jó új architektúrát kihozni, csak ötlettelenül tolják a hardverbe a shadereket és emelik az órajelet. Húzzák inkább le a rolót. (És persze mocskos nvidia, amiért drága az amd GPU)De ez nem véletlenül, meg magától, téves jóslás, vagy csupán valami 3-4 évvel ezelőtt elhibázott tervezési döntés miatt, a legkevésbé sem rajtuk kívül álló okokból nem alakult így, hanem mert a két cég közül a piacon az nvidia tudta jobban érvényesíteni az akaratát.
-
#00137984
törölt tag
Azért az ábrából kiolvasható az eltérő árazásban és teljesitményben szereplő procik aránya. Nekem a Phenom II X4 970 BE proci (3.8 GHz) szintén feljavult a HD 7850 szintjére, vagyis a videókártyában maradt ott szunnyadó erőt kihozta. Akkor a BF4-ben nálam jelentős javulás volt, de más játékban már körvonalózodott mennyire megöregedett ez az AMD konfig. Az i5 gépemen még nem érzem az öregedés jeleit, főleg hogy már most egy GTX 1070 ti fejlesztés van tervbe véve.

-
Petykemano
veterán
Naked is elmondom:
Az nvidia a fermitől indult, és ezt most hagyjuk is, ugorjunk a keplerre, ahol még nagyjából fejfej mellett haladtak és akkor innen az nvidia tényleg biztos csak pucolt, csiszolt, vágott, de egy olyan architektúrát hozott össze, amely kiválóan skálázódik a feldolgozóegységek mennyiségével (és talán ezt a volta 3.5-4k shader számával is megőrzi) és kiválóan skálázódik a frekvencia is.
És igen, igazad van, az nvidia nem csinált egyebet, mint ezt a két potméter, amivel jól skálázódik, tekergette finoman fölfelé.Abu mindig azt mondta, ha valaki a frekvenciát kezdi felfelé tolni, azt jelenti, az architektúra elérte a skálázódásának határát. Az.nvidia viszont fegyvert kovácsolt a magasabb frekvenciából, hiszen ha ha minden feldolgozóegység magasabb frekvencián üzemel, alacsonyabb lehet. Frametime, és alacsony felbontáson el lehet érni magas fpst.
Ezzel szemben a tahitivel debütált GCN már a csak 40%-kal szélesebb hawaiival elérte a feldolgozóegységek szélességével való skálázódásának határát, és fekvemciával pedig soha nem skálázódott. Ennyi, a hawaiival az amd elérte a gcn hatékony skálázódásának határát és már csak a shader számot tudták növelni, amit láttunk a fijiben, mennyire hasznosult.
Persze mindig hozzá kell tenni, a hardver nem minden. A szoftver, illetve hogy hogy íródnak a szoftverek az nagyon nem mindegy. Most itt nem feltétlen a túltesszelálásra gondolok, de persze az is. Az amd és az nvidia is renxelkezik egy hardverrrel és az ahhoz illeszkedő szoftveres vízióval. Mindkettőnek olyan hardvere van, ami csak a neki szánt szoftveres környezetben működik ideálisan. Mint a curlingben a sikálók, úgy igyekeznek a cégek a szoftveres környezetet abba az irányba terelni, ami a saját érkező hardverének fekszik. Ebben nem is szerepet játszik a piaci részesedés.
Néhány éve abu arról értekezett, hogy az összes játék motor át fog állni a hagyományos vertex meg mittomém milyen futószalagokról compute futószalagokra. Minden így fog menni. Legalábbis ez volt az amd víziója, amelyet felvázolt, émelygő hardvert épített és amelynek kivitelezésére a hardvere érkeztéig néhány küzdelmes év áll rendelkezésre.
Mi történt? Sikeresen átvitték a lowlevel apikat, ismert az szsinkron compute fogalma is. Hát ennyi. Azt, hogy minden játékmotor olyan legyen, mint a doom, az nvidia sikeresen védte, sőt mindent megtett azért, hogy olyan szoftverek szülessenek, amik az ő hardveren futnak jól.
A még aktiválásra váró vega fícsörök valóban érdekesek lehetnek. De ha érkezik is, raja szabadságával elég valószínűvé vált, hogy azt december előtt nem fogják bevetni tényleg.
-
#00137984
törölt tag
-
#00137984
törölt tag
Még egy érdekes összefüggés, aztán leszállok a témáról.
Nálam is bukdácsolt az RX 470 a jelenlegi konfigomban, de a GTX 1070 meg szárnyalhatna még feljebb. Ezt az MSI Aero OC-t viszont nem további tuningra tervezték, de a GTX 1070 ti videókártyával majd meglátjuk mennyi plusz teljesitmény szabadulhat fel. Legfeljebb csak annyit nyerek, hogy magasabb Boost órajeleket tart majd az új kártya, és ehez az i5 még megfelelő teljesitményt nyújthat. Koppig toltam a végére. 
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Zalman S3 Black modern, letisztult szèpsèg
- Apple iPad Mini 6 64GB,Átlagos,Töltővel,12 hónap garanciával
- ASUS ROG Ally konzol RC71L
- GYÖNYÖRŰ iPhone 11 128GB Black -1 ÉV GARANCIA - Kártyafüggetlen, MS3271, 100% Akkumulátor
- Hp Prodesk 600 G3/ G5/ G6 SFF/ i5 8-9-10 gen / Elitedesk 800 G4 /Win11- Számla, garancia
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő

Ezzel elleszek a következő generációig biztosan. Nem volt igazán szükség a cserére, csak pont egy picivel több kellett a 2560x1080 számomra kellemes kihajtásához. Na most megvan.

![;]](http://cdn.rios.hu/dl/s/v1.gif)

.


Addig pedig kenem a hajamra a VSR-t, mert nincs egy nagyobb felbontású monitoron



Erted

