Új hozzászólás Aktív témák
-
HSM
félisten
Ma azért nem érdekli az emberek 90%-át a sávszél, mert jól mennek a játékok szívószál sávszélességű kártyákon is. Hidd el, érdekelni fogja az embereket a sávszél, ha lesznek játékok, ahol elvéreznek a szívószálas kártyák...
A 290 pedig szerintem igen erős ajánlat 260 dollárért... Legalább már ketten így gondoljuk.
Amúgy egy valódi baja van, 260 dollárért aki VGA-t keres, oda kicsit sok a TDP, ott még nem mindenkinek van elég erős háza hűteni, és tápja etetni. -
HSM
félisten
válasz
#35434496
#7827
üzenetére
Szerintem ott van a félreértés, hogy szvsz a játékot kéne hozzá optimalizálni az új kártyához. Ezért lehetett, hogy pl. BF4-ben nem igazán működött a Fury+Mantle a megszokott színvonalon.
Ugyanakkor az újabb Frostbite motort használó Thief-ben teljesen jó a Fury is, és az azonos architektúrájú Tonga GPU-t használó 380 is.


Illetve van egy videó is Thief tesztből: [link]
Nem ismerem a srácokat, mennyire megbízhatóak, de az EVGA SC Titan X 1300Mhz feletti órajelen még ki is kap a Mantle-vel hajtott Fury X ellen.
Ránézésre korrekt tesztnek tűnik. Pl. ők is megmérték, hogy BF4-ben Mantle alatt lassabb a Fury picivel, mint DX11 alatt. [link]Szóval én továbbra is abban látom a gondot, hogy a BF4 nincs már rá felkészítve. Ellentétben a Thief-el tudtommal a BF4 a mai napig nem kapta meg az async shaderes támogatást, amit a Thief viszont már tud. Ez egy komoly hiányossága volt a BF4-es Mantle implementációnak.
Mondjuk azt tegyük azért hozzá, hogy az egyszeri halandónak, akinek nem ilyen izom processzora van (csak mondjuk egy húzott i5), és nem üres pályán multizik, ott azért könnyen fordíthat valós szituációkban a Mantle renderer még így is.... Csak ugye úgy lehetetlen kétszer ugyanazt megmérni, összehasonlítani....
-
HSM
félisten
"Hypolta" a tesszelációt, de értelmes keretek között. Aztán az Nv meg belerakott egy olyan erős tesszelációs/geometriai motort, aminek semmi értelme/haszna nem volt. Úgy mondják ezt szépen magyarul, hogy átestek a ló túloldalára.
Az 5850-emmel, amit 3 évig használtam, mindig be tudtam kapcsolni a tesszelációt jelentős sebességveszteség nélkül, ezzel szemben az akkori GTX-eknek ilyen Crysis 2 féle "trükkökre" volt szüksége arra, hogy bármit villantani tudjon a tesszelálós/geometriai erejéből. Szóval az idő itt az AMD-t igazolta.A 64X-es tesszelációt használni, amikor elég lenne a 16X-os is, elég nagy baromság. Mesterségesen próbálják emelni a játék gépigényét Nv-ék, ennyi, nem több. Gondold végig, mennyi értelme van a fizikai pixeleknél sokszorosan kisebb pixelekre bontani mondjuk egy hajat. Gondolom, egyértelmű, hogy nem sok.
-
HSM
félisten
"sot lehet az lesz, mint anno a tesszallacio kapcsan, hogy elsore jobbat alkotott az NV, mint az AMD sokadjara"
Ja, emlékszem. A város alatt a láthatatlan óceánt kellett szénné tesszelálni az útszéli, betontömbökkel együtt, hogy ebből durván 30% előnye lehessen a GTX480/580-aknak az 5800-as Radeonokhoz képest.

Arra próbálok célozni, hogy olyasmiből tettek bele rengeteget, aminek az égvilágon semmi értelme nem volt, se akkor, se azóta.Másfelől, egy jó általános architektúrát preempicóval és minden jósággal tervezni azért "kicsit" bonyolultabb projekt, mint pár extra geometriai motort hozzácsapni. Szóval azért a Pascal-nál ne igyunk előre a medve bőrére. Kicsit sok ott a buktató, első HBM, vatta új gyártástechnológia a fizika határain, új architektúra.... Ezek külön külön is buktathatják az egészet, hát még együtt....

Az AMD részéről pedig már ott lesz a tapasztalat a HBM-el, a jó architektúrával, csak a gyártástechnológiát kell átvinni a következő lépcsőre. -
HSM
félisten
Véletlen se zavarjon, hogy a GTX260 közel a duplája volt a G92-es 9800 GTX-nek, amiről korábban beszéltem.
Kb stimmel a kép, amit linkeltem, olyan 20-30%-ot hozhatott a húzott 4850-hez képest.Igen, és még mindig inkább azt tartottam meg, mint a GTX260-at, azzal legalább 800Mhz-en frankón lehetett játszani mindenféle driveres gondok nélkül, igaz, még 10K-m is bukta a dolgot. Elég nagy lebőgés a GTX-nek.
(#7647) hpeter10: Így könnyű "bosszút állni", hogy egy másik termékről beszél, mint amiről én.

(#7648) Casanova*: Azért kis húzásra a refi GTX260-nak is megjött a hangja.
Ráadásul a hátulján a fémlemezen szalonnát lehetett volna sütni. A 4890-el hűvösebb maradt a gép belseje azonos házban és szellőzéssel.
Amúgy nagyon prímán összerakott kártya volt a 260-as, volt benne anyag bőven, sajnáltam megválni tőle.
Sajnos a driver nem bírta a felhasználási szokásaim.(#7649) mlinus: Nekem a régi Radeon 9700 és a HD5850. Azokon játszottam a legjobbakat. De amúgy a 7970-et és 290-est is nagyon szerettem, de azok nem voltak meg olyan sokáig.
(#7650) szunya1: Ja, csak kár, hogy Ttomax a saját kapujába lőtte.

(#7654) gbors: Jó, hát a 4850 ref egy borzalom volt, és akkor finoman fogalmaztam, emlékszem én, nyugi. De voltak kitűnően megépített darabok, olyanokat kellett venni, és probléma megoldva. A 4870-en csak a VRM volt nagyon kicentizve, de amúgy jól működtek, volt akinek raktam össze gépet olyannal, és Furmark alatt sem nyúlt ki.

-
HSM
félisten
válasz
mcwolf79
#7640
üzenetére
Magad nevében nyilatkozz!!!

(#7641) gbors: Ez pl. a launch review a 4850-el:

Ugyan csak 9800GTX van, de szépen mutatja az erőviszonyokat. Egy kis tuninggal a GTX+-t is leverte: [link]Szóval nem látom itt a szakadékot, miért lett volna jobb a 9800GTX-et választanom.
Nem az elfogultságom miatt írtam, hanem mivel járt előtte nálam egy G80-as 8800GTS így nagyjából tudtam, mire számíthatok a G92-től, és a 3870-em révén azt is, mire a 4850-től.
Ha az elfogultságos érveddel jössz, akkor arra szvsz elég erős cáfolat, hogy a 4850-ek után GTX260-at vettem. Mondjuk (nagyon) nem vált be, de az egy másik történet. -
HSM
félisten
Ez volt vele a tapasztalat... Főleg ha kicsit jobban megdolgoztattad a CUDA alatt, elég hamar bedobták a törülközőt. Elég sokan fel voltak emiatt háborodva, elég ciki, ha elszámolja magát rendszeresen a VGA. Bár játékok alatt nyilván nem volt olyan könnyen észrevehető a dolog.
Hát nem tudom, nekem volt 3870-em, és előtte egy 8800GTS-em, 320MB-os, a jó öreg G80-as maggal, és egyáltalán nem volt gondom utána a 3870-el, szépen vitt mindent. Utána 4850-et vettem, és őszintén szólva fel sem merült bennem semmiféle G92 származék, mint alternatíva, és nem az áruk miatt.

-
HSM
félisten
Olyan jó kártya volt a 980 GTX+, hogy jelentős részük gyári órajelen is kuka volt, mert széthibázta magát.
De legalább kínkeservesen nagyjából utolérték vele a G80-as elődöt.
A Pitcairn jogos, azon én is húztam kicsit a szám. Ugyanakkor azt is hozzá kell tenni, hogy architekturális szempontból azzal semmi kivetnivaló nincs abban a szegmensben, ahova bedobták, még ha szolgáltatások tekintetében nem is makulátlan.
A G92-es 9800GTX+ elnevezés viszont erős volt olyan elődök után, mint pl. egy 8800 GTX vagy Ultra.![;]](//cdn.rios.hu/dl/s/v1.gif)
(#7628) kovsol: Az a 65-->55nm váltás pont nem volt egy sikertörténet, én is örültem anno, hogy 65nm-es GTX260-at sikerült szereznem.

(#7630) imi123:

-
HSM
félisten
Az "átnevezés királya" címre egy ilyen jelentéktelen low-end GPU helyett szerintem sokkal jobb nevező lenne az Nv G92-es GPU-ja.
![;]](//cdn.rios.hu/dl/s/v1.gif)
Ha jól emlékszem, 8800GT néven startolt, aztán 9800 GT/GTX lett belőle (jó vicc volt a G80-as 8800GTX után), aztán pedig ha jól rémlik GTS250 lett.
-
HSM
félisten
válasz
#85552128
#7510
üzenetére
Értem, akkor biztos direkt butították vissza a példaprogramban (aminél látod a kódon, mit csinál, ellentétben pl. az Nv-s GW-el) a Maxwell-eket, meg a saját GCN1-jüket, és ezek a direkt butított GPU-k biztos tengert tesszelálnak a város alatt, amíg a GCN2/3 meg nem.
Ja, és ezt senki nem fedezi fel a példaprogram forráskódjában.

-
HSM
félisten
Még azért ott is van hova fejlődni. Szoftveresen, és programok terén is.
(#7507) daveoff: Én nem tudok Mantle-re fejlesztett, boltban kapható játékot. Csak olyat, ami kapott egy kiegészítést hozzá, de alapvetően DX11-re fejlesztett motor. Nem is fog senki kiadni ilyesmit, amíg az Nv-vel nincs DX12 vagy Vulcan mód.
A DX12-nek állatira nem lesz olyan hosszú felfutása, mint a korábbi API-knak, mivel ahogy nemrég írta a fórumtárs, már a Mantle-vel másfél éve folyik a felszín kapargatása, így sokkal hamarabb érkezni fognak a valódi DX12 alkalmazások, mint a korábbi API-k esetében tapasztalható volt.(#7508) Milka 78:Mindketten pontatlanul emlékeztünk: "Vannak egyébként erről DX12-es tesztek már, mert az AMD készített rá az SDK-ba egy példaprogramot. Ott a GCN1 nagyjából +15-25%-ot hoz. A GCN2/3 +35-45%-ot. A Maxwell 2 +5-15%-ot. "[link]
-
HSM
félisten
válasz
daveoff
#7502
üzenetére
Igen, csak azok a játékok alapvetően még masszívan DX11-re íródtak. Persze, ott is gyorsulás volt a gyorsabb API révén, jobb multiprocesszor támogatás is megvolt, de ez csak a legtetejének a kapargatása az API tudásának.
Mint minden új API, az ilyen programokkal kezdődik, aztán majd szépen jönnek az API-t egyre jobban kihasználó alkalmazások. -
HSM
félisten
Nem legenda, logikus gondolkozás a saját eddigi tapasztalataim alapján.
Ennek nem a motorhoz van köze, hanem egyszerűen ha több mindent csinál egyszerre a GPU, akkor egyszerre több adat fog kelleni, azaz nagyobb sávszélesség.(#7463) daveoff: Nem érted az egészet. Alapvetően DX11-re készült a BF4. A Mantle csak kiegészítésként került bele, és a töredékét használja ki annak, amit tud az API. Nincs benne streamelés, nincs benne aszinkron compute, és nincs benne semmi, amit ne bírna el a DX11 is.
(#7477) sayinpety: Végre egy reális hozzászólás.

(#7489) imi123: Véletlenül se zavarjon, hogy mindeközben mindkét konzolban GCN-es AMD APU van...
(#7490) Ghoula: Annyival jobban reagált rá, hogy DX11 azonos sebességből másfélszeres előny lett DX12-ben a GTX980 és a 290X között....
(#7492) korcsi: Pontosan. Jól érted.
Mindenképpen ki fogják használni, mivel Nv-n is gyorsul tőle a kód, és egy fontos újítása a DX12/Mantle/Vulcan-nak.(#7498) imi123: Azt írta Abu, hogy a jelenlegi DX12 példaprogramok alapján a GCN1 10-15%-ot gyorsul tőle, akárcsak a Maxwell2, szóval ezzel sokan jól járnak. A GCN2-3, ami viszont jóval nagyobb mértékben gyorsul, ha jól emlékszem, 35-45%-ot írt, de aki tutit akar, keressen vissza.
(#7496) tailor74: Igen, DX11-ben nincs, a többiben pedig opcionális lesz. Pl. a BF4 még nem használta a Mantle kódban sem.
-
HSM
félisten
Az aszinkron compute-nál nemcsak a kihasználatlan erőforrások miatt, hanem a lényegesen nagyobb memória sávszélesség miatt is. Sose feledkezz meg arról, hogy a számolókat folyamatsan etetni kell adattal. Valamint az is érdekes, amit Abu írt nemrég, hogy a Maxwell-nél nem futhat akármikor aszinkron a kód, csak bizonyos állapotokban, míg a GCN-en nincs ilyen megkötés.
A kérdőjelről csak annyit, szerintem nem ROP/CU-ok miatt jön fel magasab felbontásban a Fury, hanem azért, mert ott a driver kevésbé limitáló tényező.

Pl. BF4-ben van egy érdekes tapasztalatom, a Shanghai térképen, miután leomlik a központi toronyház, tele lesz a levegő is törmelékkel. Na, az pl. elég látványosan betett az AMD driverének maxgrafikán DX alatt, míg ugyanott Mantle-ben csak úgy hányta ki magából a pixeleket, mintha mi sem történt volna...
Ilyen: [link]. Bár a grafika eléggé nullára van állítva, a lényeg látszik, mindenféle darabkák, füst, romok... Érdekes, hogy a beszámolók alapján az Nv kártyákkal ott korántsem volt ilyen rossz a helyzet azon a helyen.
Persze, azt tegyük hozzá, ez bő fél éve történt, az akkori driverekkel a 290-emen. A proci egy i5 volt, 4,4Ghz-en. -
HSM
félisten
No, akkor először is tisztázzuk, mit "hangoztatok". Összesen két hozzászólásomban írtam bármiféle csipszes hasonlatot. Itt az egyik hozzászólásom: [link], ez meg a másik: [link].
Szóval nem azt írtam, hogy el kell dobni, mint a csipszes zacskót, hanem, hogy: "Az Nv majd röhög a markába, mikor veheted meg majd a Pascalt jövőre, de azt nem látom, Te miért jársz jól azzal, hogy pár zacskó csipszet fog érni a kártyád az új játékokban a mostani árához/teljesítményéhez képest."
A második hozzászólásomban ráadásul csak a 970/980-ra írtam, amit, azoknak nagyjából 256GB/s a max, amit bír a memóriájuk.
-
HSM
félisten
válasz
Milka 78
#7404
üzenetére
Miért kérjek bocsánatot, ma is butának tartom azt a csipet.
Ettől még DX11 alatt lehet gyors.
Sőt, a jó fogyasztása is döntően ennek köszönhető, hogy nem tettek bele semmi okosat, amire ma nincs szükség.
Sosem vontam kétségbe a Maxwell DX11 sebességét és kedvező fogyasztását.
Majd akkor kérek bocsánatot, ha a valóban DX12-re fejlesztett, szabványt kihasználó játékokban is gyorsabb marad a Maxwell a konkurenseinél, azaz a 980 Ti a Fury X-nél, a 980 pedig a 290X-nél.

-
HSM
félisten
Igen, szerencsére vannak értelmes arcok, különben már rég nem is írnék ide egy sort se.

De a bocsánatkérés, vagy a hibák beismerése utólag nem szokott menni. Ha tudnád, hányszor voltam bolondnak kikiáltva, mióta itt fórumozok, és talán egy kezem is meg tudnám számolni, hányan kértek bocsánatot, vagy csak ismerték el, hogy hejj, haver, neked volt igazad.
A fórum már csak egy ilyen hely.... -
HSM
félisten
válasz
Casanova*
#7398
üzenetére
Az ígéret bejött. FX CPU-val simán megvolt annyi a gyorsulás.

De amúgy nálam a 4,4Ghz-es i5 4690K-val és 16GB rammal is azonnal fel tudtam tolni High-ról Ultra-ra mindent a 290-el, és sokkal kiegyensúlyozottabb FPS-eket kaptam, lényegesen rövidebb válaszidővel. Nekem az egyik legjobb játékélményt adta így a Mantle az elmúlt kb. 5 évből multiplayer online FPS-ek terén, ami azért nem kis szó.
Persze, technikai szempontból nézve az élményt, mert amúgy a PlanetSide2 volt a legnagyobb móka, de annak a technikai megvalósítása azért nem ezen a szinten mozgott. 
A DX12 alatt (valóban rendesen megírt DX12 programok alatt) én 20-30% előnyt várok a Fury-tól a 980 Ti-hez képest a jelenlegi elképzeléseim szerint. Ez nem ígéret, senki ne értsen félre, csak személyes vélemény. Tudom, hogy van az a bőrönd vastagság, amivel megoldható, hogy ez ne jöjjön be.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
HSM
félisten
Mostmég nem lehet eltérni.

A tuningot meg ne vegyük bele, most DX11-ben oké, de azt senki nem látja előre, DX12-ben mit fognak tudni.
Oké, nem kell félni a zörgő/visító pumpától, cserébe ugyanúgy zörgő visítóvá válhat a venti. Aki így áll hozzá, játék helyett inkább menjen orvoshoz.(#7384) mcwolf79: Már ne is haragudj, de nekem saját véleményem van.
Néha egyetértek Abu-val, néha meg nem.
2 év eltelt mióta? A Mantle teljes mértékben beváltotta a reményeket, ezt saját szememmel tapasztaltam meg. A Keplert szépen lenyomta a GCN, manapság a 7970 is gyorsabb a GTX680-nál, a Hawaii is lenyomta az olcsóbb 780-akat, a Titánnal volt egy szinten feleannyiért.
A fogyasztásnál pedig végképp ne zavarjon, hogy 40%-al jobb lett a sebesség/fogyasztás arány a korábbi kártyáikhoz képest [link].A Fury számomra semmi pofáraesést nem hozott, pont azt tudja, amire számítottam.
A DX12 majd elválik, mit fog hozni. Te már a vízhűtésnél is megjósoltad a "léggel hűthetetlen wattokat", van egy sejtésem, hogy a DX12-ről is hasonlóan megalapozott lehet a véleményed.

Szerintem aki a mai játékokhoz vesz ilyen erős VGA-t, az meg is érdemli, hogy minél jobban megkopasszák a pénztárcáját. Úgyhogy én itt be is fejeztem ezt a parttalan vitát.A személyeskedést kérlek tartsd meg magadnak (ez már megy a modiknak, mert a szép szó úgy látom nem segít).
(#7386) players111: Ha az SDK példaprogramjában kitesztelték, az mióta varázsgömb? Unalmas már ez a duma.

-
HSM
félisten
válasz
#16729600
#7374
üzenetére
No igen.

(#7375) asdxv: Biztos lesznek majd olyan verziók, amiknek jobban fog menni a tuning. Ugyanakkor akinek egy halk gép kell, ez egy szuper, igényes hűtés.
(#7376) Asbee: Egyszerűen nem értem, hogy nem bírtok elszakadni ettől a pénzszóró hozzáállástól. Oké, tök jó, hogy egy szűk rétegnek megér minden pénzt, hogy pár csúszkát felhúzva is leverje az FPS számláló a monitor képfrissítését, de azért nem kéne ezt úgy beállítani, mintha a világ legtermészetesebb dolga lenne, hogy egy 200 000 forintos kártya úgyis kuka, ha egy év múlva jön a nextgen!

Szerintem ez már nagyon messze van a racionális viselkedéstől.
-
HSM
félisten
A "Hunting Titans" szerintem hatalmas.
És ha nem csal az angolom, akkor jelentésben is teljesült, a Titánokat űzi ez a kártya. Az első üzközetet a Titánok nyerték, de ez csak az első csata volt, nem a háború.Ami a FHD-t illeti, szerintem ott már ezen kártyák alatt a DX11 fogy el elsősorban, az AMD alatt kicsit a driver is. Az E3 press grafok nekem kimaradtak, vagy legalábbis úgy kezeltem őket, ahogy kell, mint egy "cherry picked" scenario-t. Nyilván a nekik legjobb eredményeket fogják prezentálni.
(#7354) mcwolf79: Mit mondtál meg? A nagy semmit!
Azt írtad a linkelt hsz-ben, hogy azért kell rá a víz, mert kazán lesz. " Mert oké, vízzel le tudják hűteni, de kell ott Watt-nak lenni rendesen, ha vízre van szükség" Hát nem lettek Watt-ok. [link] Szóval igen, jófejségből tettek rá vizet, végre olyan hűtés került rá, ami nemcsak méltó egy csúcskártyához, de az Nv agyondícsért hűtésénél is bizonyos tekintetben (terhelt zajszint) lényegesen jobb.(#7357) Milka 78: "az a 15% lehet pont annyit jelen,hogy 8 hónappal tovább használhatom a karimat kompromiszumok nélkül."
Ez 100% bullshit, tekintve hogy a DX12 küszöbén vagyunk. Ezek a kártyák életciklusuk végét már bőven a DX12 korszakban fogják élni. Ami kifogna rajtuk, az előbb kifog a DX11 API-n. Tehát nem a DX11-ben kell majd 15%-al gyorsabbnak lennie, hanem majd a DX12-ben, ha az a cél, hogy a lehető legtovább kompromisszumok nélkül játszhass a pénzedért. Márpedig jelenleg úgy fest, több ponton is lényegesen erősebb lesz a Fiji DX12-ben, mint a 980Ti/TitanX. Gondolok a memória sebességére, és a durvább aszinkron terhelés melletti kiegyensúlyozottabb teljesítményére. Persze, árnyalja a képet a kisebb méretű memória, és a kisebb háromszög feldolgozó képesség, de ezek számomra kevésbé tűnnek a sebességre meghatározó tényezőnek.
Amúgy, ha anyagilag jól akarsz járni, akkor 8 hónap spórolásból lévő pénzt nem erre költöd. Egy vizezett 290-el is még szerintem nagyon sokáig remekül el lehet majd lenni, és lényegesen kevesebb pénz fog kirepülni az ablakon kb. semmire. Nem akarok a pénztárcádban turkálni, de ez egy kicsit szemet szúrt.
-
HSM
félisten
Nagy elvárások az oké, de irreális elvárások elé nem oké. Ha szerinted nem korrekt nagyjából a 980 Ti teljesítménye DX11 alatt, akkor nem tudom, mi lenne az. Csodát nem tud tenni. Legfeljebb majd DX12 fog tudni villantani a HBM memória révén, de az még odébb van kicsit.
Amúgy a 980 Ti pont az a kártya, amit nem szokásom darabjaira szedni. A 970 szokta piszkálni az orrom, meg a Titan és a 980 az árával.
A sípoló pumpásat én ugyanúgy hibásnak tekinteném és visszavinném, mint a coil whine 970/980-akat.
Majd kiderül, a boltokba került kártyákon lesz-e ebből nagyobb volumenű probléma. 2000rpm-en megy elvileg a pumpa benne, annak azért olyan nagyon nem kéne sípolnia. -
HSM
félisten
Nézd, most is fontosnak tartom a VRM megfelelő hőfokát. Kb. 80-ig tartom okésnak, ha a kondik ott figyelnek mellette, és az ilyen speckó cuccoknál kb. 100-ig. Kicsit sok szerintem is, de nem tartom vészesnek. Tuning+fesz esetén viszont igen, gázos lehet.
Az elvárásokat a pletykaoldalak generálták. Aki azoknak bedőlt, meg is érdemli. Én nagyjából azt kaptam, amire számítottam, azaz amire józanul számítani lehetett a 4096 shader ismeretében a jelenlegi driverekkel.
Nem tudom, milyen lehet a pumpa, de ha 31dbA üresben, és 32 teljes terhelésen akkor nagyon zajos nem lehet, míg a 42dbA-s ref 980 Ti az szép kis zajterhelés már....
-
HSM
félisten
Igen, ez a 15% ebben a magasságban szvsz már annyira tökmindegy FHD-n....
1440P-ben, ahova igazából kellenek a lóerők meg már alig 10%.Már réges régen is írtam erről: [link]. A VRM akkor gond, ha 100 fok környékén dolgozik, ha elektrolit kondenzátorok vannak a közelében. Egy ilyen beburkolt kártyánál a környezetére se sugároz káros hőt.
Szóval bezzeg nem most változott meg a véleményem.

-
HSM
félisten
A 100 fokos VRM-el nincs gond, mivel nincs mellette elektrolit kondenzátor, amiket óvni kéne a hőtől.
A vinnyogó pumpával még mindig 32dbA, míg a 980 Ti-re 42-t mért a TPU terhelve, ami azért elég meredek különbség. Nyugodtan elhiheted, a pumpa zaját 3X nyomná el a ref 980 Ti ventilátor süvítése, de az biztos nagyon jó úgy.
A nagy elvárásos dolgokat sem értem, már hónapok óta tudni lehetett, mivel fog kijönni, és azzal is jött ki. Nem látok itt gondokat.
-
HSM
félisten
válasz
#35434496
#7316
üzenetére
De nem lesz.
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#7322) gbors: A Fury nekem teljesen jó lett, nekem maximálisan bejön. A startjáig nagy kár, hogy nem lett kész a fejlesztett driver, de így se rossz, amit letett az asztalra. A DX12-t amúgy a Maxwell megjelenése óta várom, szóval a Fury egy külön történet.

Amúgy elég vicces, hogy egy közel 980 Ti sebességű kártya kb. egyből temetve van....
Szerintem csinálhat bármit az AMD, úgyis fanyalgás lenne a vége. -
HSM
félisten
Szerintem maga a Fiji-re igaz az állítás. Viszont a jelenlegi AMD-driver, amivel teszteltek, rendszeresen és látványosan visszafogta, főleg FHD-ben. Nem véletlen, hogy már 1440P-ben is sokkal jobban szerepelt, ahol kevésbé limit a driver gyorsasága, 4K-ban pedig simán hozta, amit kell még így is.
Amúgy Abu szvsz a nextgen játékokra értette azt a hsz-t, de elég félreérthető a fogalmazás, ez tény.
Azt a 33%-ot nemcsak ABU-tól hallottam, hanem másoktól is.
Amúgy ez a nem játékra készült duma hatalmas kamu. Ha nem játékra készült, nem is értem, minek raktak bele ROP-okat, textúrázókat, geometriai processzorokat, amiknek csak 3D grafikában van bármi jelentőségük.
Azt nagyon is le akarták hozni ide, csak nyilván jobban eladható volt prémium áron a GTX680, ha nem várt senki a nagyobb gamer Keplerre... Dehát ott is biztos csak nekünk játékosoknak akarták a legjobb élményt.![;]](//cdn.rios.hu/dl/s/v1.gif)
(#7302) Casanova*: A lassúcska belső regiszterek.

-
HSM
félisten
Azért az is nagyon látszik, hogy az olló most a Maxwell-nél nyílt nagyon ki. Azt is érdemes látni, hogy a Maxwell gyakorlatilag sehogy sem illik be a korábbi VGA-trendekbe, ugyanis gyakorlatilag a 28nm-re beragadt gyártástechnológiának, és a DX11 hosszúra nyúló kifutásának köszönheti létét és előnyét.
Én mindenesetre nagyon kíváncsi leszek, mit fog hozni majd a DX12 és mikor, szerintem az egy komoly életet lehelhet az AMD jelenlegi, Maxwell-ek és DX11 mellett sajnos csak mérsékelten versenyképes portfóliójába.
-
HSM
félisten
válasz
rumkola
#7275
üzenetére
Nem is értem, miért nem DX8.1-et hasnálnak akkor a játékok.
![;]](//cdn.rios.hu/dl/s/v1.gif)
Nem igazán volt amúgy a múltban a mostanihoz hasonló helyzet, csak úgy mellékesen tegyük hozzá.
Amúgy nem azt írtam, hogy nem kell driver, hanem azt, hogy a jelentősége a sebességre a töredékére fog csökkenni, mivel jelentős része át fog kerülni az alkalmazásba.
-
HSM
félisten
Én csak azt látom, melyik architektúrának mik az erősségei, és mik a gyengéi.

Abu mesélt is picit ezekről nemrég a másik topikban: [link].
Engem nem a kiadók érdekelnek, akiknek az az érdek, hogy mindkét gyártón jól fusson a produktum, engem az érdekel, melyik termék mire lesz képes egy komplexebb DX12 játék alatt, ha megfelelő optimalizálást kap.Fejezd már be ezt az AMD keménymagozást. Állatira unom már. Az a nickem, hogy "AMD keménymag"? Állatira nem! HSM a nickem, úgyhogy legyél olyan kedves ne rajtam számonkérni mások butaságait.
Beszéljünk szigorúan arról, amit én írtam, oké? Ja, és Abu sem vagyok, csak a tisztánlátás kedvéért. -
HSM
félisten
Értem. Tehát azzal érvelsz, hogy egy egészen más szituációban, egészen más termékeknél valami nem jött be, amire sokan számítottak, tehát akkor most sem fog bejönni, amit én gondolok? Nagyon meggyőző.

A Bulldozer egyébként a mai napig játékokban van leginkább csak lemaradva az akkori konkurenciájától, ami nagyrészt köszönhető a DX11 egyszálú feldolgozásának. Megnézheted, Mantle-ben pl. milyen szépen meglódult minden FX. Erre az AMD sem számíthatott, hogy ennyire hosszúra nyúlik ezen API vívódása. Mellesleg a nagy Intel szuper HT technológiájának is bőségesen megvannak a nyűgjei.
A jobb szoftveres supportot meg el lehet felejteni majd DX12-ben, ugyanis mint olyan, nem lesz driver. Gyakorlatilag egy shader fordító lesz, és annyi. Nagy csodákat nem fog tenni. A játékfejlesztőkön fog múlni onnantól az optimalizálás, nem a driveren.
(#7252) daveoff: Ki hogyan gondolja. Nekem sokkal szimpatikusabb a Fury.

(#7253) Whysperer: Így van.
Nem csak játékból áll a számítástechnika. 
-
HSM
félisten
válasz
Televan74
#7232
üzenetére
A Tonga technikailag egy remek cucc. Más kérdés, hogy bizonyos hülyeségek miatt nem sokan vették. Gondolok a 256bites ramra, és a 2GB méretére és az árára, a Tahitik egyszerűen jobb alternatívának tűntek mellette. A Maxwell-t meg kár mellé venni.
Sokan 960-at vesznek a Tonga helyett, ami nálam abszolút a no go kategória, 960 nekem akkor sem kéne ha ingyen adnák. Ennyit a piaci és technikai szempontok különbözőségéről.1440P már azért elég nagy felbontás, szerintem tökéletes oda a Fury. Bár szvsz a 290/290X is. Novemberig meg aztán még sok víz folyik le a Dunán...

(#7233) Speed(R): Sajnos ez ilyen. A hardveripar már csak egy ilyen fura világ. Az innovációért áldozatokat kell hozni, ugyanis helyet foglalnak a csipben. A Maxwell-ben ez a "zseniális" húzása az Nv-nek, és a piaci sikerének is az egyik kulcsa, hogy semmi nincs benne, amire ma nincs feltétlenül szükség a játékokban, így "többet tudtak tenni bele" abból, amire viszont ma szükség van, és mindezt így jó fogyasztással és magas órajelekkel tudták tálalni.
Nekem a fő bajom ezzel az időzítés. Aki nem váltogatja sűrűn a kártyáját, annak nem biztos, hogy a DX12 előtt érdemes egy abszolút DX11-re "optimalizált" csipbe fektetni a pénzét.
Sajnálom, ha neked ezekről a "techblabla, mellébeszélés, üveggömbbe révedés, remény" jut eszedbe, ezzel magam részéről nem értek egyet. Filozófia az valóban előfordul a véleményemben, azt nem tagadom, de nem is látok benne kivetni valót.
Amúgy az AMD GCN-jébe is szépen apránként kerültek bele az újdonságok, itt az eladhatósági szempontok tekintetében az Nv lépett egy érdekeset a Maxwell-el, és úgy fest, bejött nekik. -
HSM
félisten
Ha a Maxwell-re gondoltál, ott jól feltalálták újra a kereket, és valami nagyranőtt mobil GPU-t építettek a meglévő mobil tapasztalataikból. Mást látok én abban, mint innovációt. Innováció talán majd a Pascal lesz, ami talán tudásban utoléri majd egy év múlva a már majdnem egy éve kapható Tonga GPU-t, meg a most megjelent Fiji-t.

Ha engem kérdezel, komoly innováció volt az AMD-től a Mantle, a TrueAudio blokk, a Freesync, és a Tonga GPU is az utóbbi időből, most a HBM-ről nem is beszélve.
Ellenben a Maxwell-ben semmi olyat nem látok, ami valami újszerű, kreatív lenne. Ami nagyszerű benne, hogy remekül belőtték ebbe a több szempontból átmeneti időszakba, jól megtalálva több fogyasztói igényt is. Számomra ez nem innováció, hanem elsőosztályú iparosmunka.
-
HSM
félisten
válasz
proci985
#7216
üzenetére
Igen, ahogy néztem, alig javult a csip fogyasztása, és agyon is vágták az egészet a +4GB ram és a magasabb órajelek nagyobb fogyasztásával.

Nem mondom, hogy rossz lett, de szerintem sem erre kellett volna kihegyezni őket. Aki 290/290X-et vett 1-2 éve, tényleg nagyon jól járt. Főleg, aki 3 éve 7970-et. Még ma is teljesen jó kártyája van, 3GB rammal.(#7218) Speed(R): Az a 0 innovációs áramtemető mégis egy sokkal komolyabb tudású csip, mint az agyondícsért Maxwell.
Szerintem is a fogyasztásra kellett volna inkább kigyúrni, nem a +4GB ramra és 50Mhz-re, dehát ez van. Attól még nem lett rossz kártya, csak kicsit torkosabb a kelleténél.
Azt mondjuk elég fura, hogy lehet lassabb nálad a 780-nál...
-
HSM
félisten
Nem a rebrand a gond a piros oldalon... Mindegyik csipjük teljesen jó cucc, a gond inkább az, hogy kicsit máshogy kellett volna őket eladni. Pl. a 390-re felesleges a 8GB-ot erőltetni, jobb lett volna egy kisebb fogyasztású 4GB-os... Az egyetlen csip, ami ciki az a 370-es a Pitcairn-al...
Amúgy még jó cucc lesz a kisebb Fury is, reméljük jóárasítva jön.
A Nano-tól is sokat várok majd. 
-
HSM
félisten
válasz
#85552128
#7199
üzenetére
Igen, nem mindegy, hogy alig 3 vagy 5 hónap. Ahogy az sem, hogy egy 1000 dolláros kártya helyett kapod kb ugyanazt 500-ért, vagy egy 1500 dollárosnál van 500 dollár engedmény.
"az AMD sem a 4 GB-s 290X árában adja a 390X-eket."
Látom elfogytak az érvek, és fel kell hozni valami tökéletesen ide nem vágó AMD-témát...
-
HSM
félisten
válasz
#85552128
#7193
üzenetére
Objektíven nézve ott hány hónap telt el a megjelenés és az 500 dolláros vágás között?
3, mint itt? Nem úgy emlékszem....
Hiába kerül pénzbe a VRAM, ha semmi haszna a kártyán.
(#7195) daveoff: Épp ez a lényeg... A 780Ti úgy volt 700 dollár, hogy alig volt erősebb egy húzott Titánnál, cserébe még ramból is jópár helyen hiányzott az a +3GB....
Szóval ott 700 dollárért még fél év múlva is csak kevesebbet kaptál. Az azért elég más helyzet. Ott nem is hőbörögtem.
-
HSM
félisten
Véletlenül sem turkáltam senki pénztárcájában.
Csak elmondtam a véleményem a kialakult helyzetről.(#7168) Keldor papa: "Igy aki megvette azt biztos nem erdekelte."
Vagy legalábbis nem is sejtette, hogy feleennyiért és ilyen specifikációval jön majd a 980 Ti...Ami a 300-as szériát illeti... Ott azért mégsem 500 dolláros tételekről beszélünk...
(#7169) Szaby59: Persze, az is durva, de mégsem fele áráért ment.
Mellesleg nem az ár/érték mutatóról beszéltünk, hanem arról, hogy 3 hónap után kvázi ugyanazt megkapod 500 dollárért, ami azért elég erős.(#7170) schwartz: Igen, csukjuk be a szemünket, meg se nézzük a piaci helyzetet a Pascal-ig, hogy jövőre újra megvehessük az aktuális legjobb kártyát újabb 1000 dollárért, amivel ismét egy évig boldogok lehetünk, szigorúan csukott szemekkel és fülekkel.
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#7171) Zorel: Nem a Ti-ről volt szó. Nyilván nem olyan nagy dolog, hogy 150 dollárral lejjebb ment az ára. Az már inkább, hogy a Titán X megjelenése után alig 3 hónappal már feleannyiért megkapod azt a teljesítményt.
(#7172) daveoff: A sima Titán jócskán komolyabb, jobban használható kártya volt, mint a sima 780, a 780 Ti-re meg jó sokat kellett várni, valamint nem sokkal volt olcsóbb a Titánnál, cserébe -3GB VRAM, aminek ott jelentősége is volt. Ott nagyon nem kaptad meg ugyanazt a sebességet fele áron 3 hónappal később, de talán még egy év múlva sem.
(#7184) hpeter10: Szerintem nem így írtam szó szerint.
![;]](//cdn.rios.hu/dl/s/v1.gif)
Növeli az input lagot, látványosan, szval ja, ha FPS-ben dupla is, élményben nem azt adja, mintha egy GPU-val lenne meg az a sebesség.
-
HSM
félisten
Pontosan tudom, milyen a két VGA teljesítményviszonya. A kereső nem fogja visszaadni, mivel gyárilag a Titan cefet alacsony órajelen megy, viszont tuningban ugyanannyit bír, mint a 780, és ott viszont elmegy a 6GB ram és majdnem 780 Ti mennyiségű számolója okán.
(#7155) Keldor papa: Hát nézd, ha én vettem volna Titant X-et 1000 dollárért, és 3 hónap múlva meglátnám a 980 Ti-t kvázi ugyanazzal a sebességel és hűtéssel 500-ért, én tutifix a szívemhez nyúlnék.
Ha egy év alatt történik ez, még az is durva, de valahol érthető, de 3 hónap alatt... Az Nv a saját vásárlóiból csinál ezzel (is) bohócot.(#7157) Egon: Ha nyugodt lelkiállapot elérése a cél, akkor alapszabály. Ha tanulni is akarsz a hibáidból, akkor viszont nem működik. Ha vásárlás után drasztikus értékcsökkenést szenved a vásárolt termék, akkor legközelebb talán érdemesebb olyat választani, ami jobban állja majd a sarat. Persze, akinek sok szórni való pénze van...
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
HSM
félisten
Rég csúcssebességre vannak kapcsolva? Úgyérted, az a szűk 3 hónap, amióta megjelent a Titan-X az olyan nagyon rég lett volna?

(#7149) h1mpi: A régi Titán még valahol oké volt, a dupla ramnak is volt értelme, volt, akinek a DP is hasznára vált, a 780 meg sehol se volt a húzott Titánhoz képest, a 780 Ti meg szintén horror árú volt.
Itt azért kicsit más fekvésű a friss Titánunk. -
HSM
félisten
Nem tehetek róla, ha a magyar mondatszerkezet értelmezése nem megy. Abban a hozzászólásomban egy árva jóslás nem volt. Nem azt írtam ugyanis, hogy mi FOG megtörténni, hanem mi történHET. Ez nem jóslás, hanem elmélkedés.
(#7117) gbors: Sajnos ez tényleg szomorú, hogy legalább nem sürgették meg az újabb driverüket, hogy kész legyen a startra. Mivel ahogy mondod, ezek a tesztek lesznek egy év múlva is linkelgetve.

Amúgy örülök, legalább nem csak én találom egy jól sikerült terméknek annak ellenére, hogy néhány %-al jelenleg a rivális Nv alatt teljesít. -
HSM
félisten
Ez a "korábban eladja kevesebb bukóval" ez nálam sosem működött igazán. Ahogy írod, így 3 év alatt nem egybe adod ki a 150 000-et, hanem 3 részletben. Végülis, kis szerencsével annyiból jobb, hogy tényleg mindig aktuális technikán játszol. Viszont ez nem kevés pénz.
Nekem ezzel van a gondom, 3 év alatt rákölteni csak VGA-ra 150 000-et, elég meredek nekem, és akkor még nem vettél egy játékot se.Ami a nyugati béreket illeti, oké, az tény, de azt is számold bele, hogy ha nem a híd alatt alszik és fénnyel táplálkozik, akkor máris minimum egyhavi spórolás az az 1-2 hét.

-
HSM
félisten
Hát igen, a szkepticizmus érthető.
Mondjuk nekem csak annyiból sántít ez az egész, hogy ennyi pénzt miért adna ki bárki egy ilyen kártyáért, ha nem azért, hogy pár évre ne legyen gondja ilyesmire? Persze, lehet én gondolkozom rosszul, de ha 200 000+ HUF-ot ott kéne hagyjak a boltban, akkor minimum 3 évre elvárnám, hogy a kávém is ez főzze reggelenként.
Akár Nv, akár AMD kártyáról is legyen szó.
Anno 57 000 forintért vettem egy hónaposan egy referencia 5850-et, 3 évig mindennel tudtam játszani, közel maxon jó FPS-el. 3 évesen 24K-ért ment el, maximálisan meg voltam vele elégedve. Nálam ez lenne egy VGA ideális életútja. Úgyértem, ami nekem is jó, és nemcsak a bőröket húzzák le rólam. Az oké, hogy ~60K-ért 3 évig jó volt, de hogy egy 200 000 forintos terméknél ne jusson az ember eszébe, hogy mi lesz egy év múlva, az nekem kicsit fura.
Természetesen itt nem számoltam azon szerencsés réteggel, akik a "nem számít a pénz, mindig a legjobbat akarom" csoportba tartoznak, de ott nyilván nem a racionalitás a vezető elv.
-
HSM
félisten
Mint már írtam, ezeket az új drivereket már többen próbálták a 290 tulajok közül, jó eredményekkel. A "csodadriver váráson" amúgy én is csak a fejemet szoktam fogni ne aggódj, a továbbiakban sem szándékozom lesüllyedni arra a szintre.

Én nem gondolom, hogy az Nv driveres részlege aludni fog, viszont úgy gondolom, az Nv DX11 alatt tapasztalható driveres előnyének jelentős része abból fakad, hogy többszálúsítva van a driverük, míg az AMD korábbi driverese koncepciószerűen nem. Most ne menjünk ebbe nagyon bele, elég annyi, hogy mindkét elképzelésnek megvan a maga előnye és hátránya. Szóval az új win10 driverben az AMD is többszálúvá tette a feldogozást, ami a jelnelegi programok és processzrok felépítése mellett jó döntésnek gondolok. Ebből én azt gondolom, hogy többé kevésbé fel fognak zárkózni az Nv-hez driveres oldalról DX11 alatt, ami a sebességet illeti, mivel ezzel el fog tűnni a legnagyobb lemaradást okozó tényező. Ezt pedig most nem találgatásnak szántam, csak némi magyarázatnak, miért gondolom azt, amit. Az Nv már nem fog tudni csodát tenni, már többszálú a driverük, nem tudják újra többszálúvá tenni, ha már az.
Ami a ROP-okat illeti, van benne ráció, amit írsz, a 64 ROP kicsit kevés egy Titan-X-hez képest. Ugyanakkor azt is vegyük figyelembe, hogy főleg VR és a DX12 szempontjait figyelembe véve készült a kártya. Oda viszont elég lesz, ahogy nézetem a teszteket 4K-ra is, és nagyobb haszna lesz az izmos feldolgozó motornak és a villámgyors memóriának.
Persze, világos, hogy jobb lett volna kicsit több ROP, de figyelmbe véve, hogy így is kihasználták a mérnökök a HBM mellett elérhető maximális lapkaméret 99,3%-át, szerintem jó munkát végeztek.
-
HSM
félisten
Nézd, én teljesen elégedett vagyok a kártyával ennyi pénzért. Szerintem full jó lett. Én csak arról beszéltem, hogy a jelenlegi API/Driver limitált FHD teljesítmény még javulni fog a DX12 előtt, ha már valaki mindenképpen erre izgul.
Ami meg az új drivereket illeti, többen már használják is a 290X tulajok, tehát az esetleg/talán/ha kategóriánál ez egy picit több. -
HSM
félisten
Viszont DX11-ben szerintem ezekben a magasságokban már kőkemény API/Driver limitek vannak, amik erősen behatárolják a teljesítmény. Véleményem szerint itt veri meg az Nv az AMD-t jelenleg, főleg FHD-n, gyorsabb a driverük, így a lassabb hardver is jobb eredményt tud elérni.
Úgyhogy kíváncsi leszek, mire jutnak az új fejlesztésű Win10 driverekkel, ha elkészülnek AMD-ék. Az még komoly előrelépés lehet még jóval a DX12 előtt.
-
HSM
félisten
Nem tudom, de nekem gyanúsabb a monitorod. Azok nagyon meg tudják nyújtani alapból az input lagot. Nálam egy Dell P2414H volt, ami 72hz-en ment, aminek a pixelek színváltási idejével együtt is csak 5,5ms a válaszideje. [link]
Egy lassabb monitoron ez 20-40ms is lehet önmagában, ráadásul a legtöbb monitor csak 60hz-es.(#6819) daveoff: Kösz, notebookról...
Bizonyítsd inkább be Te, hogy működik, neked ott a gépedben minden.(#6820) sayinpety: Én éppen erre gondoltam, hogy elég sanszos, hogy emiatt a legtöbben nem fognak csak a Keplerhez külön codepath-t írni. A regiszter allokáció romlása a friss driverben csak hab a tortán.
-
HSM
félisten
Szerintem nagyban változtatott volna a vásárlók hozzáállásán a termékhez, ha ezt megemlítik.
Jó, akkor ugorjunk a Titán témáról (munkára amúgy semmivel nem tűnik rosszabbnak a Hawaii sem, azon gyárilag is aktív a tetemes DP kapacitás, nem kell hozzá Titán verzsön, meg driveres kapcsoló) és nézzük mondjuk a 780 vagy 780Ti-t, azoknak is bőségesen megkérték az árát, és kizárólag géming kártyák.
Te nyilván halál nyugodt vagy az újkorában 230 dolláros kártyáddal, ott nyilván egyáltalán nem nagy dolog, ha kukázni kell durván kétévesen. Egy 500 dolláros GTX780, vagy 700 dolláros 780 Ti vásárlása után viszont nem vagyok benne biztos, hogy olyan őszinte lenne a mosolyod, főleg amikor a konkurenciát a legkevésbé sem fenyegeti ilyen veszély, főleg, hogy még olcsóbb is volt akkor egy 290X, mint a 780 Ti....
(#6809) imi123: Megfelelően gyors monitorral állatira de látható és érezhető volt a difi.

Természetesen mérhető is, csak piszkosul drágák az 1000FPS körüli kamerák, és mocskosul nem figyelnek az ilyesmire a tesztek, ahogy a képminőség vizsgálata is rendszeresen elmarad.(#6813) daveoff: Igen, nagyon jó, hogy ottvan a driverben a kapcsoló, csaképpen kár, hogy nem csinál semmit.
-
HSM
félisten
Igen, ez igaz, csak egy dolgot hagysz figyelmen kívül. A Mantle mód a közvetlen irányíthatóságot biztosító egy képkockás prerendert használta, amivel azonos FPS mellett is sokkal közvetlenebb volt a játék irányítása.
Ehhez képest az Nv-nél 3 vagy 5 képkockás volt a prerender, AMD-n DX-ben pedig 3, és ez igencsak érződött.
Ezt az FPS-ben nem mérhető hatalmas előnyt is érdemes lenne hozzászámolni a Mantle eredményeihez.
Másfelől az sem figyelmen kívül hagyandó, hogy a BF4 még DX11-re íródott, nem Mantle-re, az csak egy kiegészítőként tették bele, nem az volt a fő prioritás, tehát alapból nem volt a játékban semmi olyan, amivel a DX11 ne tudott volna elboldogulni. Inkább ennek és az 1-es prerendernek köszönhető, hogy az Nv tudta hozni a szintet FPS-ben DX alatt. -
HSM
félisten
Nézd meg az Abu-posztot, amire írtam, és világos lesz. [link]
(#6783) gbors: Vitán felüli, hogy a halkabb/hűvösebb valós vásárlói igény volt. A sajtó hibáját abban látom, hogy ezt úgy tálalták, hogy ez azért halkabb, hűvösebb, mert egyszerűen jobb, modernebb és kész, egy mukk nem volt arról sehol, hogy ennek esetleg még meglehet a böjtje.
Hogy kit érdekel a -33%? Hát, ha mondjuk lenne egy Titánom, amit 1000 dollárért vettem bő egy évvel ezelőtt, igencsak érdekelne, hogy úgy indítom a DX12 érát, hogy -33% sebesség.

Nem olcsó játékszerek voltak a 780-ak sem.(#6787) mcwolf79: 4,4Ghz-es Haswell i5-el, és 16GB 2133MHz rammal is igencsak érződött a Mantle előnye. De persze, ilyenkor jön az az Nv-mantrra, hogy az AMD biztos direkt butította le a DX módot.

-
HSM
félisten
A mai neteken jó élmény? Kizárt. 100ms feletti válaszidővel.
De ha valami csoda folytán a netes korlát eltűnne (kb. esélytelen) akkor is maradna a grid természetéből adódó kiszámíthatatlan késleltetés.A számításigényes megvilágítás semmivel nem számításigényesebb, ha a kliens gépe számolja. Fordítva nézve, az adatközpontban is kemény vas kéne hozzá, tehát az egekben lenne az üzemelési költség.
Én ezt értem, hogy az Nv-nek kelleni fog a bevétel, de ez legyen az ő gondjuk. Nekem semmi szükségem a nyavalyás gépeikre, nekik van szükségük rám, hogy előfizessek. De én nem fogok, az 100%. Egy csepp könnyet nem fogk ejteni, ha szegényeknek le kell bontani majd az adatközpontjaikat. Ők sem fognak egy csepp könnyet sem hullatni, ha megpusztul a notebookom.
(#6758) Black_Sheep: Nézd, én egy éve és egy hónapja vettem egy Radeon 290-est, bruttó 94K-ért. Kompromisszumot nem sokat kellett kössek, ment mint a meszes. Ha megnézed a mostani árakat, nem sokba került volna nekem egy éves távlatban a kártya, és elég jó esélyekkel futott volna neki a DX12-nek is. Szerintem ez az igazi ÉRTÉK, nem az, hogy vásárláskor 5%-al gyorsabb, vagy 50W-al kevesebbet fogyaszt.
A generációnkénti váltás 50-100 000 forint költségét inkább elköteném másra. Persze, biztos van, akit ez nem érdekel, örülök a szerencséjének.
Zöld kártyát nem azért nem vennék, mert ár, vagy érték, hanem mert a gyomrom nem veszi be, amit cégként művelnek évek óta. Nem kívánok egy ilyen céget a vásárlásommal támogatni. Szűklátókörűség akkor lenne, ha nem jó okkal tenném ezt.
(#6759) Abu85: Sajnos a taktikájuk nagyszerűen működik.

(#6763) Abu85: A low-level API-k esetén is ez lesz az első, amivel a Kepler indítani fog. -33%.

(#6770) Keldor papa: Itt voltam, már előtte is. Rendszeresen ezt vágják a fejemhez, de nem értek egyet. A G80-R600 párharcban mindkettőnek megvolt a maga nyűgje, az R600-nak az erős fordító függősége, a G80-nak meg a gyatra geometry shader teljesítménye. Számomra eléggé borítékolható volt, hogy a G80 nem fog elbukni emiatt, mivel nem olyan lényeges dolog volt akkoriban. Amúgy volt 8800GTS 320MB-osom, és 3870-es Radeonom is, szóval elsőkézből van tapasztalatom mindkét kártyával. Mindkettő szuper volt a maga nemében, mindkettővel remekül lehetett játszani.

-
HSM
félisten
válasz
Black_Sheep
#6748
üzenetére
Ne legyél ilyen szűklátókörű. Ez csak hardver. Ez a gyártónak jó, hogy elad egy csomó (amúgy nem rossz) hardvert mocsok drágán. A játékosoknak szerintem sokkal jobb, amit az AMD csinál. Pl. a Mantle által elindított low-lewel irány, ahol sokkal nagyobb teljesítmény hozható ki ugyanazon hardverekből. Vagy pl. most a 970/980 Maxwell, ami DX11 alá állati jó, keveset fogyaszt és gyors, de a DX12 alatt erősen aggasztó a 256bites busz jelenléte. Jó azoknak, akik évente cserélik a kártyájukat? Talán. Jó általában azoknak, akik másra is költenék a pénzüket? Szerintem nem, mivel azok sokkal jobban járnának egy tartósabb kártyával. Ez a sokféle architektúra sem tűnik éppen egy jó iránynak a DX12 alacsonyszintű elérésének hajnalán. AMD oldalán a GCN architektúra megtartása és fejlesztése sokkal egységesebb, így a régebbi terméket vásárló is jobb támogatást kap, nem csúszik a háttérbe támogatás szempontjából egy egy-másfél éves kártya, mint az Nv-nél.
(#6749) gbors: Nem, nem ez a mottóm. "Maxwell will fail", esetleg ez.
Nekem az a véleményem, hogy a Maxwell a vásárlók megkopasztására jött létre, ez nem tetszik benne. Hogy a jövőbiztosságot véleményem szerint beáldozták némi extra profit és piaci előny (jobb fogyasztás/teljesítmény, olcsó gyárthatósággal) kedvéért.A vásárlóknak nem csoda, hogy nem kellettek a 290-ek, amikor a csapból is az folyt, hogy a 970/980 gyorsabb, miközben milyen halk, és milyen keveset fogyaszt, és hátrány meg nuku. Így egyáltalán nem csodálom, hogy a témában kevésbé jártasak vették, mint a cukrot.
Amúgy: deal.

(#6750) Malibutomi: Én a Diablo3-al jártam így. Első két hétben kb. lehetetlen volt játszani vele, mert túl voltak terhelve a szerverek. A megvett játékom nem tudtam egyszál egyedül sem játszani. Remek volt. De ez ilyen, hátmég milyen jóság lehet a Cloud, ami 100X ennyire függ a szerverektől....
(#6751) imi123: Legalább egyikünk sem hazudtolja meg önmagát.

-
HSM
félisten
válasz
daveoff
#6745
üzenetére
Igen, sokkal.
Építs már össze nekem egy hasonlóan erős mini gépet, ami ilyen halk és pici is... Nem fog az olyan egyszerűen menni.
A Cloud gaming meg nekem azért nem innováció, mert én a userek szempontjából nézem a dolgokat, úgy pedig csak a szabadságom csorbítására, és a sokkal rosszabb élményre jó. Ja, meg a pénztárcám apasztására. Ha neked ez egy értékes innováció, örülj csak neki, én meg örülök inkább a Quantum PC-nek.
-
HSM
félisten
Arra aztán nagy szükség van egy játékban, hogy egymillión interkacióba lépjenek EGYIDŐBEN, EGYHELYEN. Ugyan már Abu, gondolkozz kicsit reálisabban.

Van élő példa, pl. a Planetside2, ahol marhanagy tömegek esnek egymásnak, és meg tudták oldani remekül a szinkronizációt felhő nélkül is. [link]
Simán megoldották, hogy akár 100-200 fő harcolhasson egy területen, és nem az a szűk keresztmetszet, hogy nem-e lehetnének kétszerennyien, hanem így is a fejetlenség ette meg az egészet, egyszerűen semmi értelme ekkora tömegeket egymásnak ereszteni szervezés nélkül. Egymillió főnél aztán végképp. Annak meg semmi értelme, hogy mindenki üt mindenkit egymilliós nagyságrendben.
"Ugyanúgy vannak olyan grafikai problémák, amelyekre a kliens oldalán nem létezik megoldás."
Ilyet nehezen tudok elképzelni. Amit a felhő ki tud számolni, ki tudja a kliens is. Ami probléma lehet, hogy esetleg nem 1000%-os pontossággal ugyanazt rendereli a két résztvevőnek a kliense, de ez megintcsak az értelmetlenség kategóriája.(#6737) Asbee: Az Nv-nél a marketing hibátlan, sőt, zseniális. Amit a 970-nél is elsütöttek, eladások szempontjából oktatni kéne. Ugyanakkor ha engem kérdezel, sokkal szívesebben veszem egy olyan gyártó termékeit, aminél nem olyan tökéletes a tálalás, de amit tud a termék, az korrektül megvan, és nem vagyok hülyének nézve a háttérből folyamatosan.
(#6738) gbors: Nem, nem teljesen úgy. Az a vicc, hogy ekkora jelentőség van ezeknek tulajdonítva.

Viszont rossznak gondolom a kérdésfelvetésed. Az eladásokat nem a felsorolt két szempont vezérli, hanem egy harmadik, a sajtó, és a sajtó által a közvélemény.
Nézd meg pl. a 970-eket, ahogy felröppent a memóriás hír, negyedével estek az eladásoka arra a hónapra, ahogy jött utána a sajtó, hogy "áhh, nem is olyan gáz az", egyből mentek vissza az eladások.Ami az AMD-t illeti, szerintem nagyon jó dolgokat csináltak most. Inkább nekünk felhasználóknak kellene szerintem elgondolkozni, hogy miért ezen kell beszélgetni, hogy Intel vagy nem Intel proci van egy olyan prototípusban (proof of concept), aminél ennek a jelentősége erősen 0-hoz közelít.
Inkább azt kéne észrevenni, micsoda zseniális halk és mini asztali erőművet sikerült kihozniuk, ami ráadásul zseniálisan jól is mutat. Nálam abszolút 10/10 pont a koncepció.(#6739) Black_Sheep: Nem az a lényeg, hogy meddig téma egy egy balfogása egy gyártóknak, sokkal inkább azért beszélek sz*rrágásról, mivel itt eléggé kevéssé lényeges dolgokon megy a felháborodás.
Persze, lehetne hova fejlődni, de még mindig sokkal többet adnak nekünk játékosoknak, mint a konkurencia. -
HSM
félisten
Egyáltalán nem mindegy, mit miért fejleszetenek, és akarnak az emberek nyakába sózni. A felhő már ott halott ötlet a user szempontjából, hogy magas válaszidejű, és teljesen kiszolgáltatottá teszi a usert a szolgáltatótól. A felhőben semmi innovatív nincs. A user függővé tételének kitűnő eszköze, ami már bizonyos formában lassan évtizedek óta működik.
(#6734) Asbee: Nem-e? 4GB=/=3,5+0,5GB nem rémlik? Vagy a GW? Áhh sehol semmi homokszem a gépezetben.
Mondom, hogy a zöld kártya árt a memóriának. 
-
HSM
félisten
Nézd, beszéljünk őszintén és világosan. Ez az egész Nv grid meg shield projekt nem szól másról, minthogy be vannak tojva, hogy x86 licensz híján esetleg kiszorítják őket a diszkrét VGA piacról. Nem a játékosoknak (nekünk) lesz ez jó, hanem nekik.
Az élvezetes játékhoz jó válaszidő kell. Márpedig ez neten nem garantált. Én már a CF +16ms lagjától a falra másztam konkrétan. Mi lenne egy ilyen felhő 100ms-je... Persze, az egyszeri vérpistikének biztos jó lenne, de aki tényleg szeret játszani, főleg pörgősebb játékokat, annak biztosan nem.
Nekem az elmúlt évek legjobb fejlesztése a Mantle volt, végre közvetlenebbé vált jóval az irányítás (ugye a kisebb input lag-->közvetlenebb irányítás), eszement jó volt BF4-ben kisebb lag-al lövöldözni.
Ja, igen, és az előfizetési modell is eléggé nem pálya nekem, jobban szeretem megvenni a játékokat és a saját gépemen akkor és annyit játszani, amennyit szeretnék. Borzalmas bosszantó, ha éppen lenne fél órám játszani, és éppen túlterhelt a felhő, és "Please try again later".
Kösz, kihagyom.(#6731) Asbee: Nv-nél is rendszeresen kerülnek elő (ezeknél lényegesen súlyosabb) bakik, csak valahogy a zöld oldal gyorsabban felejt.

-
HSM
félisten
válasz
#Morcosmedve
#6720
üzenetére
Nézd, ez egy proof of concept gép lett. Nyilvánvalóan demózási célból. Arra tökéletes. Ha megnézed a videót róla, ott is egy árva kukk nem esik a PC-ről, amire építették. [link]
Nem ez a lényege ennek a masinának. Szomorú számomra, hogy ennyire a sz*rrágás megy, ahelyett hogy kalapot emelnénk az AMD előtt, hogy egy ennyire újszerű, szuper kis koncepciógépet tett le az asztalra.
Ha engem kérdezel, 1000X inkább játszanék egy ilyen masinával 1-2 év múlva, magasról téve a processzorra benne, mint amiket az Nv vizionál a Cloud-jával, meg a mindenféle pajzsaival....
(#6722) Asbee: Mit olyan nehéz ezen megérteni? Ha AMD CPU ment volna bele, azon lehetne a magyarázkodás, hogy gyenge. Ha APU-t tesznek bele, hogy majd milyen jó lesz, akkor azon mehetne a magyarázkodás, hogy miért csak majd. Nem véletlen, hogy nem ezzel foglalkozott a koncepció. Beleraktak így valamit, ami a legbiztosabb, és még így is a sz*rrágás megy.

A másik topikban már kifejtettem Erdei88-nak, bizonyos Nv dolgokra miért húztam fel magam, és most miért röhögök csak ezeken az AMD elleni áskálódásokon. [link]
Ugyanezen topikban Szaby59-nek azt is kifejtettem, nekem mi nem tetszik a 300-as szériában. [link]
Továbbra is tartom, Pitcairn bár nem rossz GPU, harmadszorra gáz, mivel fontos funkciók hiányoznak belőle, és hogy a 390-esekből is kellett volna 4GB-os, kár volt a fogyasztás rovására erőltetni a 8GB-ot. Ezek valójában nem túl jól sikerült dolgok, amik nem tetszenek, szóval ha engem kérdezel, ahogy fogalmaztál, ezek kicsit el lettek cs*szve.
De ez a HDMI2-es dolog, meg most az Intel CPU a dual fiji alatt a Quantum projectben.... Vicc. -
HSM
félisten
Szerintem a jelenlegi AMD procik a legkevésbé sem ilyen szintű rendszerekbe készítik. Ez látszik az árazásukon, piaci pozicionálásukból is.
Márpedig nem látom, mi a gond abban, hogy nem erőltették bele a saját cuccukat. Persze, lehet úgy nézni, hogy ciki, hogy nincs kellően erős vasuk a saját csúcsrendszerük alá, de ha egyszer jelenleg nincs?Persze, a jövőben ez még változhat, pl. a DX12-ben új erőt kaphatnak az FX procik, és a GCN-es APU-k is az új algoritmusokkal, de ez még a jövő. A jelenben DX11 van, oda pedig a jelenlegi AMD procivonal még egy Fiji mellé sem lenne (sajnos) elég. Ez van.
Persze, elsüthették volna, milyen jó lesz mindenkinek, ha majd jön a DX12, és az IGP-n hűdenagyongyors lesz minden, de ha meg nem jön be, és nem arra indul a játékfejlesztő világ? Akkor megint öngól, hogy az AMD behülyítette a vásárlóit... Szóval veszélyes terep ez. Szerintem a lehető legjobban tették, hogy itt most konzervatívok maradtak, és nem ígértek semmi bizonytalant. Most hogy néhányan kiszúrták a videóból a leglényegtelenebb részletet... Hát no comment.
-
HSM
félisten
válasz
MiklosSaS
#6711
üzenetére
Már megint a kettős mérce....
Amikor FX procival demóztak annak idején ha jól emlékszem egy 7970 CF-es rendszert, mindenki azon röhögött, hogy na persze, biztos remek lehet állandó procilimittel játszani.
Beleraktak egy DUAL FIJI (ébresztő, DUAL FIJI, 16Teraflop
) mellé egy Intel procit, ami manapság nyilván az egyetlen értelmes alternatíva egy ilyen GPU-rendszer alá, egy olyan bemutató rendszerbe, ahol ennek az égvilágon SEMMI jelentősége nincs, most megy a hisztéria, meg a felesleges kombinálgatás.Megint gumicsont érzésem van ezzel a témával kapcsolatban.

Ezt nemcsak neked gondoltam válasznak, hanem a fanyalgóknak általában.
-
HSM
félisten
Én csak azt nem értem (ha már konstruktív eszmecsere), hogyha már korábban is erre gondoltál, akkor miért nem tudtad hangulatjelek és ROFL-ozás helyett elmagyarázni, min értettük félre egymást [link].
Ugyanis erről van szó, a memory crossbar abban a formájában, ahogy én ismertem valóban nincs benne, hanem máshol, máshogy oldották meg, de crossbar-al.
Annyira én sem vagyok sajnos fiatal, hogy homokozóban lettem volna, mikor megjelentek az Nv GPU-i.
De tény, hogy "csak" nagyjából 10 éve érdekelnek a technikai dolgai a számítástechnikának, a PH-ra se véletlen akkortájt regeltem. 
-
HSM
félisten
-
HSM
félisten
99%-ra veszem látatlanban, hogy PWM vezérlése lesz. Azza meg addig csökkentik a fordulatot, amíg csak akarják.
Szerk: A venti PWM mellett mindig 12V-ot kap, és az indítása is jóval egyszerűbb. Van olyan ventim, ami 2,7V-on is remekül elindul, ráadásul egy elég olcsó darab. Elektronika kérdése az egész.
Íme: [link]Hozzáteszem, magam se hittem el, míg ki nem mértem egy VRM modullal és multiméterrel. De elindul 2,7V-on, mindenféle PWM meg hókuszpókusz nélkül.

-
HSM
félisten
válasz
Locutus
#6492
üzenetére
Az AMD előszeretettel pakol atombrutál ventilátorokat a kártyáira, amik aztán max félgőzön mennek értelmesen használva a kártyát. Szerintem ez inkább a durvább tuning miatt kellhet, hogyha nagyon megcibálod, akkor se a venti legyen a szűk keresztmetszet. A PWM vezérlés meg megoldja, hogy alapból csendben legyen. Hülyeség azt gondolni, hogy attól, mert erős a venti, az 100%-on fog valaha is pörögni a kártyán. (Kivéve, ha direkt 100%-ra teszed CCC-ben.)
-
HSM
félisten
válasz
proci985
#6479
üzenetére
Teljesen így van. Ugyanúgy 250W volt mindhárom Tahiti TDP-je, a gyakorlati fogyasztásuk ezzel szemben jóval kevesebb volt (FHD és DX11 mellett legalábbis), és revíziónként eltért. Sokat sikerült csiszolniuk rajta az évek során, az egyértelműen látszott.
Ami a stabilitást illeti, valóban, nem lehetünk 100%-ig biztosak benne, ez így van. De azt viszont láthatjuk, hogy azonos "stabilitási szintre" belőve hogy viszonyulnak egymáshoz. Amúgy adtam nekik rendesen, többféle tesztet, játékot, legalább 5-6 órát ki kellett bírnia többféle programban, mire stabilnak ítéltem egy beállítást.

Szóval én azért erősen reménykedek, hogy így másfél év gyártás után fognak még találni optimalizálni valót a csipben a 300-as szériára.
A szivárgáson ahogy írod is, bőven lenne még mit fogni.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Víz- gáz- és fűtésszerelés
- iPhone topik
- Régóta ott van a fiókban az Intel válasza az AMD-féle 3D V-Cache-re
- Android alkalmazások - szoftver kibeszélő topik
- Gaming notebook topik
- Samsung Galaxy S25 - végre van kicsi!
- CADA, Polymobil, és más építőkockák
- Autós topik
- Több száz játékban kezdi meg karrierjét az FSR Redstone
- Formula-1
- További aktív témák...
- Új, fóliás XFX Quicksilver RX 9070 XT White Magnetic Air Edition 16GB (3 év garancia) - Beszámítás
- XFX RX 7900 XTX SPEEDSTER MERC 310 24GB BLACK EDITION - 3 év Alza Garancia
- GAINWARD GeForce RTX 2060 SUPER GHOST
- MSI Radeon RX 5700 XT MECH OC 8GB használt videókártya számlával és garanciával eladó!
- 27% - SAPPHIRE RX 7900 XTX Nitro+ 24GB DDR6 Nitro+ Videokártya! BeszámítOK!
- ÁRGARANCIA!Épített KomPhone i9 14900KF 64GB RAM RTX 5090 32GB GAMER PC termékbeszámítással
- Apple iPhone 14 / 128GB / Kártyafüggetlen / 12HÓ Garancia / Akku: 85%
- 186 - Lenovo Legion 5 (15IRX10) - Intel Core i7-13650HX, RTX 5070
- GYÖNYÖRŰ iPhone 13 Pro Max 128GB Silver -1 ÉV GARANCIA - Kártyafüggetlen, MS4160
- BESZÁMÍTÁS! MSI X99A i7 5820K 16GB DDR4 240GB SSD 1TB HDD GTX 1050Ti 4GB Deepcool Ducase V2 600W
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Amúgy egy valódi baja van, 260 dollárért aki VGA-t keres, oda kicsit sok a TDP, ott még nem mindenkinek van elég erős háza hűteni, és tápja etetni.

![;]](http://cdn.rios.hu/dl/s/v1.gif)

No igen, érdekes dolgok ezek....
Kb stimmel a kép, amit linkeltem, olyan 20-30%-ot hozhatott a húzott 4850-hez képest.
Ráadásul a hátulján a fémlemezen szalonnát lehetett volna sütni. A 4890-el hűvösebb maradt a gép belseje azonos házban és szellőzéssel.
Sajnos a driver nem bírta a felhasználási szokásaim.







A Nano-tól is sokat várok majd.


