Új hozzászólás Aktív témák
-
#52588800
törölt tag
-
válasz
keIdor
#35432
üzenetére
ebben nem vagyok biztos, hogy a GTX névnek vége, ha nem lesz RT mag akkor valószínűleg az RTX elnevezés is értelmetlen.Kíváncsi lennék a 107 RT nélküli teljesítményére.
Elméletileg a 2060 és a 2070 eltérő GPU számmal jön, de csak 5 Gb rammal. Papíron valamivel lassabb mint az 1070 és 25 % körül gyorsabb , mint az 1060 árban meg ? -
Abu85
HÁZIGAZDA
válasz
keIdor
#34205
üzenetére
Ez bizony nagy kérdés. De alapvetően azt is számításba kell venni, hogy ha a legózási lehetőséget elveszted, akkor az OEM is veszít a választható opciók közül. Lesz Intel CPU Intel GPU-val és AMD CPU AMD GPU-val. Tehát ebben a jövőképben nem csak a gyártók keverésének kiesése a probléma. Aztán a Microsoftnak is komoly szerepe lesz itt, hiszen ahhoz, hogy az NV megmaradjon itt, a Win32 API-t ki kell vezetniük, és a támogatást mondjuk át kell rakni az Azure-ba, így a legacy applikációk futtathatók maradnának a felhőben. Ezzel már lényegtelen lenne a CPU ISA-ja, jöhetnek a Qualcomm is, és az NV a saját ARM-os cuccával.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#34185
üzenetére
Az is elég lenne, ha csak 200 dollár lenne a felár. De manapság a kijelzőgyártók, na meg a kereskedelmi csatornák már igencsak dobálják az 400-700-1000 dollárt pluszt is rá. Nem igazán ez a hardver szabja meg már a végtermék árát, hanem az, hogy az R&D szempontjából a G-Sync a saját hasznát termeli ki. Tehát amíg az összes többi kijelző között egységesen oszlik el az azokba ölt R&D, addig a gyártók úgy döntöttek, hogy erről a G-Sync-et leválasztják. Ez számukra egy biztonsági tényező, okulva a 3D Vision halálából.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#34177
üzenetére
De a notebookos G-Sync-ben sem. Nem azért van ez a hardver, mert annyira szükség van rá. A Pascal óta ki lehetne dobni a kukába, nincs szükség arra, hogy beszereljék, mert ami a Kepler/Maxwellből hiányzott, és szükségesség tette ezt az FPGA-t, az már ott van a Pascal GPU-kban.
Maga a VRR, gyakorlatilag az összes verziója egy faék egyszerű megoldás, ami a VBLANK-et (vertical blanking interval) manipulálja. Ez egy olyan paraméter, ami megadja, hogy mennyi idő telik el az előző képkocka utolsó és az új képkocka első pixelsorának monitorra való kirajzolása között. Minden esetben, minden implementáció ugyanazt csinálja, amíg nincs új képkocka, addig nem kezd bele új rajzolásba a kijelző. Erre van egy szoftver oldali implementáció, hogy a grafikus eszközillesztő kontrollálhassa ezt az értéket. Na most a Kepler ezt nem támogatta, ezért kellett a külső modul. A Maxwell támogatja, bár a működés nem változott, míg a Pascal esetében a HDR-es G-Sync már nem használja ezt a modult úgy, ahogy a korábbi hardverek, így itt már a feldolgozás végig a gépen belül marad (a'la Freesync, Adaptive-Sync, HDMI VRR). Ezért is tartott olyan sokáig kiadni a szoftvert rá, mert nem nagyon akart ez működni az FPGA-n, és az NV végül nem is erőltette, hanem inkább kizárta a munkából. Gyakorlatilag csak a licenc miatt veszi meg a kijelzőgyártó, mert HDR-es G-Sync esetében már nem működik, persze HDR nélkül G-Synchez még kell, de ehhez is lehetne írni egy olyan implementációt, ami inkább a GPU kijelzőmotorját használja. Hosszabb távon ez az ideális megvalósítás, mert számos előnnyel jár a monitorgyártók számára. Használható a GPU-ba épített képskálázás, egyedi OSD-t lehet alkalmazni, egyedi színfeldolgozással és egyedi bemeneti funkciókkal. Illetve az FPGA nélkül az NV is meg tudja csinálni azt, amit az AMD a FreeSync 2-vel. Szimplán kicserélhetik a Windows HDR pipeline-t, ami nem valami jó. Valószínűleg ez már megfordult a fejükben, amikor a HDR-es G-Sync alapjait letették. -
#45997568
törölt tag
válasz
keIdor
#34169
üzenetére
Acer XF270HU, alom monitor, gyakorlatilag semmi kulonbseget nem vettem eszre jatek kozben egy Vega 64-el parositva mint amikor az Acer XB270HU-jat hasznaltam a 1080-al. Penzben viszon eleg marginalis a kulonbseg. Ki lehet fogni jo deal-eket is.
Mindket megoldas szerintem elegge rendben van jatekos szemmel, folyamatos elvezetes jatekmenet.
-
zovifapp111
senior tag
válasz
keIdor
#34162
üzenetére
A + felárért elvárható, hogy jobban működjön a g-sync, arról nem is beszélve, hogy az egyik hw-es a másik sw-es megoldás. És valóban, nem mindenhol(minden játékban) mutatja meg magát a freesync...sajnos
Valószínűleg még több zöld barát lenne, ha a g-sync-es extra nem jelentene ekkora többletköltséget 
-
válasz
keIdor
#34152
üzenetére
Ez óvodás hozzáállás, hogy ha mások is csinálják, akkor nekik miért lehetne. Szerintem ne csináljon ilyet egyik cég sem. S igen, az Intel az még rosszabb az NV-nél, arról is van ilyen videó. Illetve itt most nem az AMD-ről van szó, hanem arról, hogy az NV közvetlenül velünk cseszik ki, lásd pl a G-Sync.
A törvényt meg felesleges felhozni. Ami törvényes, az nem biztos, hogy erkölcsös (lásd nürnbergi törvények). Persze legtöbb nagy cég erkölcstelen, lehetne sorolni, de itt nem az erkölcstelenség tényéről van szó, hanem annak mértékéről és a tettek mennyiségéről. Itt az Intel vezet, után picivel az NV. S ismétlem: ezek nagyrészt nem az AMD-t vagy az egyéb cégeket szivatják, hanem minket, potenciális vásárlókat. Ráadásul sokszor úgy, hogy nem is tudunk róla, mert marketing.
Anno amikor gyerekkoromban az első gépemre gyűjtöttem akkor Intel-t akartam venni, merthogy az a processzor, az AMD-vel szemben semmi bizalmam nem volt. Szerencsére egy akkori Gamestar újság felvilágosított, hogy Athlon XP-t kell venni, nem pedig fos Celeron-t, aminél még egy kis Duron is jobb. Viszont VGA-ból hülye voltam, és GeForce 4 MX 440-et vettem, mert hogy dzsíforszNÉGY!!!44! Hát, rendesen átvertek. Geforce3 vagy Radeon 8500 kellett volna.
-
Shing
őstag
válasz
keIdor
#34039
üzenetére
Ubi egy ideje már jó portokat csinál. a The Crew 2 elég szépen fest, ahhoz képest jól fut. 4k máshol is nehéz, de ahogy Crytek írta oda egyszerűen jobb hardver kell. A proci igény egyébként ezeknél a játékoknál is durva, kíváncsi vagyok hogy egy 11 éves Q6600 elbírná-e a naagy next-gen játékokat.
-
huskydog17
addikt
válasz
keIdor
#33936
üzenetére
Egyet kell értsek Raymond-al, ugyanis jövőre 3 éves lesz a Polaris, 3 év után már illene kihozni egy új középkategóriás VGA-t és akkor a minimum, hogy 3 év után az előző felső kategóriás GPU teljesítményét hozza az aktuális középkategóriás. Ez korábban is így volt, csak sokkal gyorsabban zajlott minden.
Szóval szerintem is minimum elvárás lesz az RX580 utódjától, hogy legalább GTX1080 tempót hozzon, én is ezt várom tőle. -
Dandris
tag
-
Dtomka
veterán
válasz
keIdor
#33829
üzenetére
"Cuccok
Asus Maximus VIII Formula - Intel Core i7-6700K @ 4600MHz 1,3V - 16GB G.Skill TridentZ 3200MHz CL15 - Asus Strix GeForce GTX-1080Ti "
Mondod Te a fenti konfiggal

De a 980Ti=1070 karcsú még a 4k hoz...sőt a 1080Ti is. De ezt Te is tudod, ha nem keresek olyan gémet ahol az

-
Abu85
HÁZIGAZDA
válasz
keIdor
#33798
üzenetére
Nem. Nincs különösebb baj a memóriával, a gond az, hogy iszonyatosan hiány van a többi memóriából, és a memóriagyártók nem a GDDR6-ot tartják prioritásnak, amikor a többi megrendelést is ki kell szolgálni. Szóval rendkívül torz most a piaci megjelenés ilyen szempontból. Még ha kész is az első ilyen hardver, akkor sem éri meg kiadni, annyira kevés a memória hozzá, ez pedig még az árat is felnyomja.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#33792
üzenetére
Ez véleményes. Kérdés, hogy a Titan V-t hova számolod. Elvégre lehet rajta játszani.
A HBM-mel egyébként az a problémája az NV-nek, hogy kevés memória építhető a GPU mellé. Nekik nincs HBCC-jük, hogy ezt a problémát csak egy driverbe épített csúszkával kezeljék. Fizikailag kell a memória, és a GDDR6-ből így több használható. Ez a HBM-nek az összes előnyét felülírja a nézőpontjukból.
-
namaste
tag
válasz
keIdor
#33731
üzenetére
Eltolódtak a kategóriák, de nem a kódnév számít, hanem a teljesítmény. Számít mit kínál a konkurencia, mindig egymáshoz igazodnak. Ha a GF104 felvette volna a versenyt a HD 5870-nel, akkor az lett volna a GTX 480.
Fermiből nem volt GF102, Maxwellből se volt GM202. Kepler, Pascal, Volta csúcs GPU-k nem jöttek ki játékosoknak, csak a pro felhasználóknak. (Igaz, nincs Volta játékos kártya.)
Ha már vs, az AMD csinálja jól, nem számozza a GPU-kat, hanem neveket ad és 1. vonalbeli GPU-t küld a 3. vonalbeli ellen.
(#33739) TTomax
A HPC és a gépi tanulás is vágott GPU-t kap, ráadásul prémium árat fizetnek érte. -
TTomax
félisten
válasz
keIdor
#33756
üzenetére
Sajnos az AMD sem jobb mert hiába socket kompatibilitás ha az új ficsörök meg nem fognak menni,akkor hagyhatod a régebbi cput is benne nem igaz?Egyébként az is benne van a pakliban,hogy az alaplapgyártók is nagy ivben tesznek a dologra,ugyanis biost frissíteni simán lehet usbröl cpu nélkül is,de eddig csak az asus építette be,és csak a premium lapokba,ezt pedig alapból minden lapnak tudnia kellene.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#33756
üzenetére
Mert a 16 GB/s már borzalmasan kevés. A 32 GB/s csak szimplán kevés lesz, mire megjelenik. Önmagában ezzel, hogy fejlődik nincs baj, de egyrészt nagyon lassan, és gyakorlatilag csak a teljesítmény növelése a fő cél, holott azért ma már a memóriakoherencia is eléggé fontos lenne.
Én azért remélem, hogy nem tűnik el, mert ha a Microsoftnak bejön ez a Ray-tracing vonal, akkor azt nagyon jól ki lehet helyezni ám külön GPU-kra. Effektíve ilyenkor a Ray-tracing effekt bekapcsolásáért veszel még két GPU-t és kész, mellette meg lehet ott a fő GPU a CPU mellett.
Még lehet itt leképező szintű változás is. Ha mondjuk áttérünk texel shadingre, akkor az is iszonyatosan kedvezne a több GPU-nak, és akkor a PCI Express jó szolgálatot tehetne, hiszen a shading fázisok jól elkülöníthetők lennének.
-
gV
őstag
válasz
keIdor
#33731
üzenetére
nagy kópé az nV, de ebben az esetben csak tanítvány, a mestert amdnek hívják: [link]
Nos, annak, hogy míg az AMD látványosan lépett árszintet, az nVidia suttyomban tette meg ugyanezt. Bár hoztak 30% előrelépést ár / teljesítményben, a GTX 680-ban nem az eddig megszokott 500mm2 feletti GPU-monstrum dolgozott, hanem egy, az AMD által sokat hangoztatott, de elég gyorsan hátrahagyott 300 mm2 alatti chip. Ezt a lépést pedig az tette lehetővé, hogy az AMD a saját 350 mm2-es GPU-jára épülő kártyát beárazta a szokásos 350-400 USD helyett 550-re. Jajj, de jó...
Ugyanez volt a célja az AMD-nek a GCN architektúrával. A HD 7970 indulásként nem is sikerült rosszul, és a driverek folyamatos javulásával később (amikor már túl sokat nem számított) el is hagyta a GTX 680-at, a szoftveres támogatás javulása mellett a 3 GB memória okán is. Egyetlen bajom van a kártyával, ez pedig az ára, ami rövid távon biztos jót tett az AMD-nek, viszont ezzel a húzással elég komoly kárt okoztak a "jó árú VGA" imidzsnek, és bár ezt számokkal kimutatni szinte lehetetlen, szerintem hosszú távon ez pénzben is lefelé billentette a mérleget. Ja, és ők lőttek először abban a "csatában", ami a VGA-k árának drasztikus emelkedéséhez vezetett.
-
TTomax
félisten
válasz
keIdor
#33744
üzenetére
Igen sajnos ez a várható forgatókönyv,és az a baj ezzel hogy itt fórumon is sokan meg fogják védeni hogy de hát gyorsabb mint a 1080Ti egy picivel,meg 50 dolcsival olcsóbb is és még hűvösebb is,bestbuy...és amennyire el vannak szabadulva a vga árak nem is lesz nehéz ismét extra profitot termelni,és még befolyásosabb céggé válni.
Magára találhatna az AMD,nem kell nekünk hitech hbm2,meg csillámpor és tündérmese.Gyors hűvös és jól tuningolható kártyát kérünk jó olcsón nem ficsörlistát aminek a 90% papíron mutat jól,de ehh álmodozok csak nem lesz ebből semmi,nem arrafelé tart az AMD,már évekkel ezelőtt kijelentették az (RV770) hogy nem akarnak versenyezni nem profitál annyira mint gondolták.

-
TTomax
félisten
válasz
keIdor
#33740
üzenetére
Pontosan,az árakon felfelé toltak,de a kategórián meg lefelé...ettöl lett szuper nyereséges az nVidia,ehhez kellett egy töketlen AMD,mert ha lett volna kompetetor akkor a vért is leizzadták volna,mint ahogy tették a keplerrel amikor le kellett hozni desktopra,mert nem volt még kész a maxwell.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#33729
üzenetére
Nem teljesen. Inkább a Windows aktuális HDR pipeline-jának "mellékterméke", ami bizonyos hardver összeállításokat jobban érint, míg más konfigurációkat kevésbé. Amint betöltesz egy olyan tartalmat, ami gyakorlatilag letiltja a szoftver oldalról nem kezelhető tényezőket, a jelenség teljesen megszűnik. Az más kérdés, hogy ehhez olyan hardverek is kellenek, amivel ez az egész kikerülhető a játékok alól.
Amelyik gyártó HDR implementációja a Windows pipeline-ját használja az érintett lehet ettől a problémától, akár súlyos formában is, és ezt nem lehet kívülről, egy hardvercserével kezelni. A Microsoft talán tudna tenni valamit, de ahhoz is új pipeline kell, és ugyanúgy a rengeteg eltérő hardver miatt nem kizárt, hogy az meg más problémás jelenségeket hoz elő. Egyedül a FreeSync 2 kerüli meg a Microsoft saját rendszerét, így az ebben lévő úgymond mellékhatásokra nem érzékeny. De ezzel az a baj, hogy nem szabványos, tehát te például el sem tudod érni. De mivel nagyon korlátozott a hardveres támogatás, így arra a korlátozott hardvere jól meg lehet csinálni, azzal a pár szoftverrel, ami támogatja is.Ezek azok a dolgok, ami miatt az iparág elkezdte vizsgálni azt, hogy a rendszer esetleg beolvashatná a kijelző paramétereit, és ezt figyelembe véve állíthatná elő a HDR-t is. Gyakorlatilag ez így egy szabványosított FreeSync 2 lenne, ami működne mindenen, mármint minden új kijelzőn, mert az aktuálisaknak mindegy.
Végeredményben ez a jelenség már egy éve létezik: [link] - Nem igazán bugról van szó, nem lehet csak úgy fixálni. Új pipeline-t kell tervezni, de leginkább el kellene érni, hogy az alap HDR is úgy működjön, ahogy a FreeSync 2. Szépen össze kell ülnie az iparágnak (szoftver, GPU, kijelzőgyártó) alkotni egy tényleges szabványt a FreeSync 2 mintájára.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#33724
üzenetére
Nem bugos. A probléma az, hogy az aktuális HDR szabványokat nem játékokra tervezték. Meg lehet csinálni, de mindegyik szabványos pipeline csinál egy extra tone mapping lépcsőt azután, hogy a PC-ről elküldte a program a képet a kijelzőre. Az a kép akkor igazán jó, ha a kijelző képességeiről az adott játék információt kap, és abból az információból kiindulva csinálja a tone mappingot, majd az így keletkező képet küldi el, amit a kijelző lehetőség szerint már nem módosít egy extra tone mapping lépcsővel. Effektíve így működik a Samsungnak a három HDR kijelzője, amit a játékosoknak szánnak, de ezeken kívül semmi más nem támogatja ezt a formát, vagyis a HDR a játékokban az említett kijelzőkön kívül minőségtorzító hatásban részesül. Egyszerűen a HDR10 és Dolby Vision nem alkalmas arra, hogy a játékokba tegyen jó minőségű HDR-t. Ezért is dolgozik a háttérben az ipar egy olyan gaming kiegészítésen, amelyek szabványosan is megoldják a kijelző adatainak beolvasását, és ebből a közvetlen tone mappingot, csak ez még évek kérdése ugye, mert szabványosítani kell.
A Samsung alapvetően egy nem szabványos megoldást használ, a FreeSync 2-t, amit a PC-n csak az újabb Radeonok, míg a konzolpiacon az Xbox One S és X támogat. Mivel ez nem szabvány így könnyű építeni rá támogatást, csak magát az alapproblémát egy nagyon szűk részterületen oldod meg vele. És ez is játékokra van bontva, például a Far Cry 5 ezt a formát már támogatja, de ha nincs Samsung FreeSync 2 Gaming monitorod és újabb Radeonod, akkor a Microsoft szabványos HDR pipeline-ját használja a program, aminek a minősége sokkal rosszabb. Az Xbox One S és X is hiába támogatja, konzolon a Far Cry 5 nem tudja használni a FreeSync 2-t.
Szóval nem bugos a dolog, nagyon korlátozott hardverek használata mellett működik, de általánosan a szabványos pipeline-ok nem játékokra vannak kitalálva, és ha ilyen HDR-t használsz, akkor nyilván nem lesz jó eredmény a kijelzőn, maga az extra tone mapping fázis lehetetleníti el ezt. És ez egy full szoftveres probléma, hardverből nem oldható meg. -
füles_
őstag
válasz
keIdor
#33703
üzenetére
Nem csak az, hogy magasabb lett a fogyasztás, hanem, hogy a 400-as szériánál sokkal több volt a nem ajánlott vagy a kevésbé ajánlott kártya. Például a Nitro marha kicsi hűtőbordát kapott a 400-as szériánál, ezáltal eléggé hangos volt, az 500-as szériában, meg kapott egy bazi nagy bordát, aminek köszönhetően az egyik leghalkabb kártya lett.
A feszültség az nem tudom, hogy alakult gyakorlatban, de ha jól emlékszem, akkor kapott újféle szenzorokat a Polaris 20/21, amelyekkel növelhető volt az órajel azonos feszültségértékek mellett az P10/11-hez viszonyítva (elméletben). -
füles_
őstag
válasz
keIdor
#33698
üzenetére
Azért volt pár pici módosítás a lapkán belül, az órajel is kitolódott 50-100MHz-cel, de ezért szerintem is hülyeség volt nyitni egy új szériát. Az órajelet nem kellett volna megint az egekbe tolni, inkább meghagyhatták volna tuningpotenciálnak. Jöhettek volna 475/485 néven alacsony fogyasztással, és jó tuningpotenciállal. Bár úgy is mindegy lett volna a bányászláz miatt... Egyébként a partnerek nagyon sokat javítottak a hűtésen az 500-as szériában (lásd Asus Strix, Sapphire Nitro+).
-
-FreaK-
veterán
válasz
keIdor
#33626
üzenetére
Nekem is a GN a kedvencem, nagyon alaposak, és nagyon jók a következtetéseik, Steve nagyon érti a dolgát. Szerintem ők állnak a legközelebb a tudományos alaposságú tesztekhez. AdoredTV még a másik kedvencem, bár ő nem reviewer, hanem elemző, de mindig nagyon jó dolgokra jön rá. Nekem is a YT az új TV
bár valójában már nagyon régóta nem TV-zek, csak minimálisat. -
Abu85
HÁZIGAZDA
válasz
keIdor
#33622
üzenetére
Ez egyébként tök jó, nézel egy rakás oldalt, ami ezzel foglalkozik. Csak elértünk a probléma megtestesüléséhez. Hét médiát soroltál fel gondolom emlékezetből, és a Tech of Tomorrowt nem említetted.
Az az érdekes a külföldi és a hazai viszonyok között, hogy külföldön piszok erős a verseny. Ott ha be akarsz indítani egy ilyet, akkor tényleg tudsz találni mögé támogatókat. Itthon ez nem realitás, maga a hirdetőpiac nem teszi azzá. Tehát amíg itthon egy olvasó azt látja, hogy van pár média bebetonozva a saját helyén, addig nyugatra egy új médiával akár két éven belül is meg lehet verni igen patinás szereplőket. Itthon ez elképzelhetetlen.
És akkor még nem is beszéltem arról, hogy kint mi van a rózsaszín ködfátyol mögött. Ami finoman szólva is gusztustalan néha. Ezt nem szeretném megosztani, de érdemes megnézni az AdoreTV PC Perspective-ről szóló anyagát, sajnos tényleg ilyenek történnek.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#33607
üzenetére
Ezt értem, de a vásárlók között is van 30 év alatti. Másrészt a LinusTechTips azért tart ott ahol, mert a YouTube-on erre van igény. Ergo a gyártók számára is sokkal célszerűbb neki adni a hardvereket, mert ki tudja szolgálni az igényeket.
Jöhet itt egy Józsigyerek, aki technikailag nagyon durván ott van, de tesznek rá a gyártók, ha nincs meg az a minimum feliratkozója, akik végeredményben potenciális vásárlók lehetnek (vagy nincs egy haverja a gyártónál, aki tud neki teszthardvert intézni). A világ már nem kíván részletes információkat. A vásárlók egyre nagyobb része a gépek összerakásával sem akar törődni. Egyszerűen le akar emelni egy előre összeszerelt konfigot a polcról, és ehhez vicces videón keresztül vár valami támpontot. Valaki erre ráérez a YouTube-on, és kiszolgálja az igényt. Valaki pedig leragad a múltban, és lemarad a feliratkozók számában.Még mielőtt ebből félreértés lenne. Nem mondom, hogy jó dolog, amerre a YouTube halad, és az ahogy ezt lekövetik a gyártók, de mit lehet innen csinálni ugye...
Leírhatom ide a véleményem, hogy szerintem se annyira jó a LinusTechTips, de ettől még valószínűleg hamarabb érik el a 6 millió feliratkozót, mint a Tech of Tomorrow a 600 ezret. -
-
Abu85
HÁZIGAZDA
-
gyiku
nagyúr
válasz
keIdor
#26778
üzenetére
Attol fug mi jatek. Optimalizalatlan xarhoz tok mindegy milyen vgat raksz. Azon felul nem kotelezo fullon jatszani, le lehet venni az AA-t meg egyebeket, ha nem lenne meg a 100hz. Alatta meg a freesync teszi a dolgat.
Bf4, bf1, doom, ezekben megvan a 100. Gta5-re nem emlekszem, de az is szepen ment. -
HSM
félisten
válasz
keIdor
#26774
üzenetére
"De nem vagy vele hátrébb, mint egy 4GB-ossal."
Azért elég szívás tud lenni, amikor bizonyos játékokban 3,5GB használat felett elkezd akadni, míg a rendes 4GB kártya sima marad. Erre azért már jópáran ráfáztak...
(#26776) Keldor papa: Igen, sajnos addig skálázódott az addigi architektúrájuk, míg az Nv a megosztott setup/geometriai motorjával tovább tudott menni. Majd most lesz továbblépés és pár igen ígéretes újítás a Vega-val.

-
gyiku
nagyúr
válasz
keIdor
#26776
üzenetére
Ilyen monitor egyelore csak VA panellal van, azt meg inkabb nem. A 480al igazad van, de a 16:9-es 1440p-re a furz x meg mindig megallja a sarat. Hibasan 1080p-s kartyanak gondoljak sokan, de ott a 980ti, de nehol meg a sima 980 is jobb nala. A fury x 1080p felett sokkal jobb, mint 1080-on.
Abban viszont egyetertunk, h megint balfaszkodnak, nincs valasz lassan egy eve mar.
-
->Raizen<-
veterán
válasz
keIdor
#26642
üzenetére
Tényleg nem sok ez az infó. [link]
Refined task distribution for more efficient performance
Improved power efficiency in less challenging tasks
Less heat generation in high-end tasks
Potential for more efficient laptop chips
More memory on high-end cards with HBM2
Less unnecessary rendering of 3D objects the player can’t see -
Vigilante
őstag
válasz
keIdor
#26588
üzenetére
Sztem egyelőre kapkodják a levegőt, mert vagy minimum 800-900 USD-re számítottak az 1080 Ti-nél.
Félő, hogy megint árverseny nélkül maradunk a felső kategóriát illetően.
Pedig egy 2. GTX 1080-ast már vennék is a mostani mellé, ha ilyen 100e körülire bezuttyanna az ára itt hardveraprón. De ez szerintem nyár előtt tuti nem következne be. Max, ha nagyságrendekkel többet esik az 1080 Ti ára egy kicsivel a megjelenése után, akkor talán arra átváltok. 
-
Abu85
HÁZIGAZDA
válasz
keIdor
#26578
üzenetére
Alapvetően egy komolyabb textúracsomag lesszállítása nem lenne speciálisan VEGA-hoz kötve. Amint jönnének 16-32 GB-os VRAM-mal szerelt hardverek azok is tudnák futtatni. Itt igazából csak arról van szó, hogy a fejlesztő adja ki az elkészített legjobb minőségű tartalmakat, mert tényleg nem ritka, hogy nem ezekkel szállítják az alkalmazásokat. Itt a legtöbb fejlesztő azért nem csinál ilyet, mert a program oldalon a textúraméret növelésével drámaian romlik a VRAM kihasználásának hatásfoka. Tehát tényleg sokat kellene várni, hogy legyen olyan hardver a piacon, amely tudná futtatni a legjobb minőségű tartalmakat. A Vega ezen annyit változtat, hogy a hatásfokról nem a fejlesztő által írt kód gondoskodik, hanem a hardver. Ez lehetővé tenné, hogy szimplán kiadják a már megvásárolt, elkészült tartalmakat, akár egy külön packként. De ez csak az elején VEGA only. Sőt, technikailag nem is lenne az, mert egy figyelmeztetés után bármikor felteheted a maximumra a textúrákat, maximum akadni fog. Nem is lenne értelme általánosan VEGA only cuccot csinálni, mert idővel úgyis lesznek jobb VGA-k nagyobb VRAM-mal.
-
Abu85
HÁZIGAZDA
válasz
keIdor
#25823
üzenetére
A GoW 4 motorja már csak a nevében hasonlít az UE4-hez. Valójában kegyetlenül átírta már a Microsoft. A GoW 4-re egy teljesen új leképezőt írtak hozzá, vagyis az UE4-gyel érkező leképezőhöz köze nincs, amit a Microsoft stúdiói kapnak. Eredetileg arról volt szó, hogy a Microsoft visszaírja a saját leképezőjét az UE4-be, de ez eddig nem történt meg, illetve az Epic számára sem kritikus a gyors PC-s leképező. Az ARK egyébként élvezi a Microsoft támogatását, de a Microsoft leképezőjét csak az Xbox One-on használják csak. A PC-re egy 2015-ös verziót alkalmaznak, aminél már az UE4 aktuális leképezője is nagyságrendekkel gyorsabb, de nagyon drága lenne átállni arra a verzióra, miközben a konzolos leképező fejlesztése zajlik, és oda megy az erőforrás. A PC-s leképező majd akkor lesz leváltva az Xbox One-ra használt leképezővel, amikor a konzolon működni fog a rendszer. Utána majd kikerül a játék az Early Accessből, de ez még hónapokra van. A PC-s kód addig ugyanaz a másfél éve ráhagyott szarkupac lesz, és ehhez nem véletlenül nem nyúlnak, egyszerűen ki lesz dobva a fenébe, amint a konzolra portolás kész lesz. Azért várnak ezzel annyit, mert a Microsoft leképezője, amit az ARK tervez használni D3D12 only leképező, tehát amint leváltják a mostani motorverziót nem fog működni tovább a játék Windows 10-nél korábbi OS-eken. Ez persze annyira nem gond, mert a tényleges megjelenés jelenleg inkább 2018-ban valószínű, tehát akkorra már elfogadható lesz a Windows 10, mint minimum igény.
Az UE4-nek az új leképezőjét is használhatnák, de azzal meg az a baj, hogy már egyik opció sem támogatja a multi-GPU-t. Ezt a módot a 4.10-es verzió óta teljesen kivették. Egyedül a D3D12-es verzióban van egy olyan mód, amivel egy IGP és egy GPU összekapcsolható, de ezt is ki fogják venni a jövőben.
-
HSM
félisten
válasz
keIdor
#25869
üzenetére
"Ők uralják a kódot."
Én inkább azt mondanám, mostanában már kezdik néhány címben a fejlesztők kihasználni a GCN hardverekben már régóta ott lévő képességeket. Nyilván ez a konzoloktól sem független. Ugye, amiről meséltem régen és sok felháborodás is volt belőle, hogy jó-jó, hogy a Maxwell Dx11 alatt gyors és keveset fogyaszt, csak ennek megvan az ára... -
HSM
félisten
válasz
keIdor
#25724
üzenetére
A leglényegesebb fejlesztés szvsz a 64 várakozási soros ütemező a korábbi 2-ről, ami már benne van a Hawaii-ban. Itt a Deus Ex tesztnél is szépen látszik, milyen jól állja a sarat a csip: [link], ott lohol a GCN3-as Nano/Fury nyakán.
Nem aggódok. Semmi olyat nem vezettek be a modernebb GCN-ekben, ami miatt aggódnom kéne az öregedése miatt. Esetleg majd idővel a Shader model 6, de addigra remélem már Vega-n leszek.
Az még évek amúgy mostantól, főleg, hogy jelenleg az egyetlen GPU, ami nem múlna ki tőle az a Polaris... Épeszű programozó ehhez emiatt még évekig nem fog nyúlni.
Szval, igen, a későbbre ígért kis Vega a kinézett utódja a 290X-emnek, de az sem egyből, hanem majd ha kicsit mérséklődött az áruk.
-
HSM
félisten
válasz
keIdor
#25695
üzenetére
Igen, 2014 szeptember 18 a dátum. A probléma, hogy van egy AMD GPU, nevezetesen a Tonga, ami két héttel korábban jelent meg, amiben azért vannak súlyos érvek a fejlettségre vonatkozóan, pl. a preempció képessége elég durva. Ezen kívül a 16 bites pontosság támogatása is itt került be a képességek közé. [link]
Szóval, ha a jóval korábbi Hawaii GPU esetén még lett is volna helye némi vitának, a Tonga már szvsz egy lényegesen fejlettebb hardver volt. Lassabb, de fejlettebb. -
HSM
félisten
válasz
keIdor
#25689
üzenetére
Ezek tények.
Illetve, ha valamivel erősebbre tervezik a nyitott hűtős verziókat belőlük.
Igen, az Overclocker's dream az gáz volt, de nyilván (vagy inkább remélhetőleg) senki nem vette komolyan.
Nálam amúgy ugyanakkora ballövés volt, hogy pl. a Maxwell whitepaperen ez figyel a fedlapon: "Featuring Maxwell, The Most Advanced GPU Ever Made." [link]
Nyilván ugyanolyan cáfolhatatlan/alátámaszthatatlan marketing humbuk, mint az OC dream, de érdekes, hogy ezen senki sem háborodott fel. Vagy hogy pl. hogyan úszhattak meg egy akkora disznóságot, mint a GTX970 memóriás ügye. Mert utóbbi mellett szerintem eltörpül egy gyenge refhűtő, vagy ilyen elejtett marhaságok, mint hogy OC dream, egy nem annyira OC barát kártyán...(#25690) tom_tol: Természetesen értem a szempontodat is, és meg is értem, hogy voltak akik inkább az azonnali kapható termékért mentek.
Ugyanakkor erősen elgondolkodtató, hogy ma is a zárt rendszerük van erőltetve, amikor már rég van szabvány is...
Szerencsére én is jól elvagyok a 80Hz-re tuningolt Dell IPS-emmel, V-sync nélkül.
-
-
->Raizen<-
veterán
válasz
keIdor
#25435
üzenetére
Pontosan! Az első benyomás a lényeg, utána beleférnek apróbb hibák is mint pl a gtx 1070-nél. Vagy nézzük az apple-t ott is akadnak hibák de az nem változtat semmit a fanok szemében akkor is az adott márka marad a non plus ultra. Nv-nek jó a marketing gépezete. Amd-nél az a baj hogy van egy jó mérnök gárda de a felső vezetés meg a marketing egy nagy nulla. Erőltetik ezt a jövőbelátást, meg hogy majd ők irányt mutatnak évekkel előre gondolkozva. Olyan gárdát kellene összehozniuk ami jelen közelibb gondolkodásmódot folytatnak és profitra törekednek. A régi bandát meg ki kellene rúgni azonnal indoklás nélkül.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- A fociról könnyedén, egy baráti társaságban
- Azonnali notebookos kérdések órája
- Xbox tulajok OFF topicja
- ThinkPad (NEM IdeaPad)
- VGA kibeszélő offtopik
- PlayStation 5
- Xiaomi 15T Pro - a téma nincs lezárva
- Elektromos (hálózati és akkus) kéziszerszámok, tapasztalatok/vásárlás
- „Új mérce az Android világában” – Kezünkben a Vivo X300 és X300 Pro
- Milyen okostelefont vegyek?
- További aktív témák...
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest

Valószínűleg még több zöld barát lenne, ha a g-sync-es extra nem jelentene ekkora többletköltséget


Szerintem ti kifizetitek az AMD fejlesztési költségit is. 
![;]](http://cdn.rios.hu/dl/s/v1.gif)



Pedig egy 2. GTX 1080-ast már vennék is a mostani mellé, ha ilyen 100e körülire bezuttyanna az ára itt hardveraprón. De ez szerintem nyár előtt tuti nem következne be. Max, ha nagyságrendekkel többet esik az 1080 Ti ára egy kicsivel a megjelenése után, akkor talán arra átváltok.



Ugyanakkor erősen elgondolkodtató, hogy ma is a zárt rendszerük van erőltetve, amikor már rég van szabvány is...

