Új hozzászólás Aktív témák
-
HSM
félisten
válasz #Morcosmedve #134504 üzenetére
A turbó rendesen megdob jópár kibocsájtott károsanyagot a benzinesen is. Nagyon örültem emiatt neki, mikor terjedni kezdtek a kisebb motoroknál is. Nagyon ideje volt lépni ezügyben. Viszont mondjuk azt sem ártana valahogy megoldani, hogy ne csak új korukban nem okádják a füstöt, hanem mondjuk 5-10 évesen sem.
[ Szerkesztve ]
-
HSM
félisten
válasz hackeeeee #134540 üzenetére
Nem a Type-C-vel van a baj, hanem a többi port hiányával... A saját csapdájukba estek a trendiség és vékonyság hajszolásával. Igazából a mélyfagyasztott csirkés történet is ennek eredménye.
Az 1+3-asomon pl. imádom a Type-C USB-t, nem kell vacakolni, hogy dugom rá a töltőt, így is jó meg úgy is jó.
Sajnos ennek manapság van trendje, lásd pl. a Snapi 810-eket, amiknél a 8 magos CPU-dból telefonban jó, ha az első 2 percben működött mondjuk 6, akkor ott vannak a TDP limittel megfojtott olcsósított VGA-k, nem egy jó trend. És ezeket így tesztelni se nagyon tudod, mert bebiztosítják magukat, hogy mi a max, aztán majd valamit kapsz, mint user...
[ Szerkesztve ]
-
HSM
félisten
válasz Habugi #134545 üzenetére
Köszi!
Ha a teljes 1024 shaderes verziót sikerült volna kifogni, az már a 7500 pont magasságára is jó lett volna, de jó lesz ez is.Hát igen, a 290X is azért más kategória volt. Viszont fun fact, így elengedett TDP-vel húzva BF4 kb. 250w a komplett gép az áramzabáló régi húzott hatmagossal, ami elég nice.
A neccesebb videók is super-smooth-ok lettek, szóval összességében nagyon elégedett vagyok.
Az AMD-nek viszont jár a füles, ezeket a folytott TDP-s shaderhiányos verziókat meg kellett volna hagyni 560D-nek szvsz, esetleg kizárólag a tápcsati nélkülinek. Mert ez a kavarodás nagyon gáz, alapból 5900 GS 6100-as hard limittel azért nem ugyanaz, minthogy most vígan futja a 6700-at is, az 1024-esek meg ugye vígan mennek 7000 fölé is...
Nekem nem ügy összedobni rá egy jó BIOS-t, de egy kevésbé hozzáértőnél elég sok bennemarad a kártyában.Amúgy maga a kártya szuper, halk és hűvös kimaxolva 1300/1750-en, jó választás volt. Bőven jó vétel volt fél évesen 30k-ért még 30 hónap garival.
[ Szerkesztve ]
-
-
HSM
félisten
válasz Lacielvtárs #134602 üzenetére
Lehet...
-
HSM
félisten
válasz Habugi #134604 üzenetére
Igen, zseniális ez a kép...
Egyben meg is magyarázza, miért van csak egy erősebb belépőkategóriás VGA-m. Az utóbbi 10 évben kb. annyi változott, hogy iszonyat 4K láz lett, hogy még nagyobb erőforrás igénnyel, még részletesebben láthasd ugyanazt (vagy még azt se) a képminőséget, ami még a FHD határaitól is borzalmas messze volt (van).[ Szerkesztve ]
-
HSM
félisten
válasz xatos3 #134617 üzenetére
Én azt mondom, ezek nagyjából kihasználják a FHD-t, legalábbis a Crysis 3, BF4, a többit nem ismerem. Ezeket FHD csont maxon is játszottam még amikor R9 290X-em volt.
BF4 kb ugyanaz az élmény és FPS a húzott 4GB RX560-on, csak az élsimítás lett bukó, és minimális effekt minőség, max helyett csak high. Ha nagyon nagyon nézem látni, de nem lényeges a difi. -
HSM
félisten
válasz norbert1998 #134662 üzenetére
Én a hálózatra gyanakodtam, mivel gondolom, onnan jön a paraméter, mikor kellene átváltani mondjuk 3G-re a 4-ről. Mondjuk az is fura, hogy 4G-vel illene jobb térerőnek lennie, mint 3-al....
-
HSM
félisten
válasz norbert1998 #134664 üzenetére
Pedig elvileg van: [link]
És pont ezért meglepő, hogy 3G van, de 4G nincs, mert a 4G B20-as csatornán messze nagyobb hatótávolságú, mint a legtöbb 3G frekvencia. Mondjuk van 900Mhz-es 3G európában, de fura, hogy az van, 4G meg nincs. -
HSM
félisten
válasz MiklosSaS #134673 üzenetére
Van egy opció, hogy ha eléred a limitet, akkor lekapcsoljon a hálózatról. Nekem ki van kapcsolva, lehet nálad be. A billing cycle menüben-ben van az 1+3-ason, az adatforgalom főmenüben. Én úgy emlékszem, amikor bekapcsolva volt régebben akkor vinnyogott előtte, hogy baj lesz.
[ Szerkesztve ]
-
HSM
félisten
válasz MiklosSaS #134678 üzenetére
Értem, mit mondasz, átjön. Viszont nekem pl. PONTOSAN EZ jön be, hogy puritán az egész, ugyanis nekem emiatt gyors, transzparens, hatékony az egész (1+3-ról tudok nyilatkozni, de ugyanezen elvek mentén készült). Nekem a kezembe adsz egy s8-at, kifutok a világból, hogy még a kamera app is a segédjét nyomja az arcomba, ami ráadásul olyan tetű lassú, hogy a fejem leszakad egy 300 000 forintos telefonon...
Tehát nekem ez nem olyan, hogy hiányzik a klíma, ami azért lássuk be egy egyértelműen hasznos szolgáltatás, hanem mondok egy nagyon hülye példát, mondjuk kulcs nélküli indítás van, és azt se tudom, melyik gomb-kombót mikor és hogyan kell végigzongorázni, hogy elinduljon, vagy leálljon a csodajárgány. Míg egy egyszerű kulcsosnál csak fogom, kulcs be, elfordít is indul, másik irányba fordítom, leáll, a világ legtermészetesebb módján, egyértelműen, hatékonyan. Nem kell arra figyeljek, mikor melyik gombot hogyan nyomom, miközben karácsonyfát játszik a műszerfal, hogy mennyire örül a kocsi, hogy újra láthat.
Azért hülye példa, mert a kulcsnélküli indítás is hasznos extra, miután megszoktad, de remélem átjön azért.Tehát, nekem pont ez a megkülönböztető jegye, az "extra" hogy csak egészen minimálisan van belenyúlva, és nagyon funkcionális, hatékony az egész. Semmi felesleges sallang, de mégis amit akarok azt nagyon gyorsan és könnyen meg tudom csinálni. Ez pedig csak részben a SoC érdeme.
[ Szerkesztve ]
-
HSM
félisten
válasz MiklosSaS #134681 üzenetére
Természetesen igen. Ezért is írtam, mikor kérdeztél róla, hogy én imádom, de nem mindenkinek jön be.
(#134682) bandi0000: Az a 40Mpixel kamera quad-bayer színszűrőjű, én így a négyesével csoportosított pixelekre inkább erős 10Mpixelt mondanék 40 helyett.... [link]
De volt valami teszt a videokameráról, az is elég gyengus lett, stabilizátor híján pont az 1+6 péppé verte... Mondjuk a 3X-os optikai zoom elég praktikus, azt eltalálták benne.(#134682) bandi0000: Sokáig a 25Mpixeles szenzorjukat használták, ami még RAW-ot se tudott emlékeim szerint kiköpni magából... A 19Mpixeles utódjára már kicsit kipofozták. De pl. OIS-t az se kapott, ha jól emlékszem. Az 1+3-asomban is SOny szenzor van, de az tudja a RAW-ot, OIS-t is... 16Mpixelen jobb képeket lő, mint öcsém Z5-öse a 25Mpixeles régi szenzorral.
No, meg az 1+3 azért nem tolja rá ész nélkül a zajszűrést meg élesítést, meg a világ minden hülye effektjét, hogy elfedje, hogy egy gombostűfejnyi vacak szenzor lőtte a képet, és nem próbál ezekkel az effektekkel egy laikusnak szebbnek tűnő (???) olajfestményt varázsolni belőle.[ Szerkesztve ]
-
HSM
félisten
válasz MiklosSaS #134686 üzenetére
Az XZP-ben az új, 19Mpixeles szenzorjuk van, ami komoly előrelépés volt a régi 25Mpixelessel szemben.
Érdekes, amit a képminőségről írsz... Tesztképeken erősen jobbnak tűnik az 1+6, de még az 1+3 is. [link] Jó fényviszonyoknál, középen egál, de a széleken már veszít az XZP, és rossz fényben teljesen elveszik a másik kettőhöz képest, ahogy az előd 25Mpixeles szenzor is ilyenkor.
Ezen felül pedig még OIS sincs benne, tehát elvileg a bemozdult képek számának is magasabb kellene lennie, mint az 1+6-on.[ Szerkesztve ]
-
HSM
félisten
válasz MiklosSaS #134689 üzenetére
Ilyenkor szokott jönni az, hogy csinálj jobbat.
Én pl. csináltam, nem tetszett, ahogy az 1+3 kezeli a SoC órajelet (bizonyos esetekben nekem túl pazarlóan gyorsnak tűnt a hangolás), írtam rá egy finomhangolt CPU-governor beállítást, meg egy scriptet, ami felügyeli, hogy mindig az én profilom legyen aktív, és win.(#134690) stratova: Ja, ezek jók, de ezek nem akadályoznak a kocsi hatékony használatában. Ellenben egy agyonszemetelt bloatware android szvsz igencsak. Kedvencem, amikor a gyártó a saját (általában bugosabb és nehézkesebb) megoldását erőlteti mindenből a gyári G alkalmazás helyett.
-
HSM
félisten
válasz hackeeeee #134708 üzenetére
4K60 szimulátorozni? Minek? Meg akarjátok számolni az út szélén a fűszálakat a "verseny hevében"? Végülis csak 4X erősebb (drágább) VGA kell hozzá...
(#134709) xatos3: Régebben a driverrel kellett trükközni, ha a gyártó nem engedélyezte a nem tőle származó driverek telepítését.
[ Szerkesztve ]
-
HSM
félisten
válasz MiklosSaS #134689 üzenetére
Ohh, ma jött a hír: [link].
A két éves telefonomra ki fog jönni gyárilag a legfrissebb Android P. Őszintén szólva, ez azért nem semmi támogatás egy több, mint két éve megjelent telefonhoz.(#134711) hackeeeee: Még mindig tökéletesen mutatna a 32"-os monitoron a szimulátor FHD-ben...
Egy baráti áras 580 azért szvsz korrekt kis holmi.Én annak idején egy 720P projektorral szimulátoroztam a falra vetítve bazinagy képpel, és óriási móka volt. Nehogymár ne legyen elég 32"-ra hasonló mókához a FHD...
(#134712) stratova: Ebbe nem gondoltam bele ilyen mélyen. De pont erről van szó.
(#134713) xatos3: Ha kérhetlek, ne rám legyél dühös, nem én tehetek róla. De igen, erről van szó, néhány gyártó előszeretettel tiltja le a beépített GPU-hoz a gyári támogatást, és ilyenkor a gyári AMD/Nv drivert nem tudod telepíteni, csak amit a noti gyártója ad. Régebben ezt orvoslandó voltak mindenféle driver peccserek, amik mégis lehetővé tették, mert ez elég áldatlan állapot volt.
[ Szerkesztve ]
-
HSM
félisten
válasz #Morcosmedve #134725 üzenetére
Aztán majd jön a sírás, hogy belassult tőle, mint állat. Vannak ám i-betűs ismerőseim.
-
HSM
félisten
válasz hackeeeee #134727 üzenetére
Hát ezt én sem. De annyira nem rossz ár érte, ha 90K körül megkapod. Ahogy néztem, a 6GB-os 1060-ak is abban a magasságban mennek.
Jó, hát persze, hogy nem lesz annyira szép, de 4X annyi erőforrásigényért?
Amúgy viccen kívül, azzal tudsz még picit játszani, hogy bekapcsolod a GPU-méretezést, hátha a GPU szebben méretezi át, mint a monitor elektronika, illetve, ha tudod picit távolabb tenni a monitort a játék idejére.[ Szerkesztve ]
-
HSM
félisten
válasz hackeeeee #134729 üzenetére
Szerintem így költséghatékonyan, egy 580 meg 2600 nem rossz gondolat, de feljebb nem hiszem, hogy mennék, főleg box mellé. Aztán persze neked kell meglátni a tutit. De anno nem véletlen adtad el.
Én így az olcsó RX560-al meg a régi hatmagos Xeonnal most meg vagyok elégedve. Oké, van kis kompromisszum, de nem áll egy vagyon feleslegesen a gépben, és mégis elég magas élményfaktorral lehet játszani.
(#134730) #Morcosmedve: Amíg nem jött ki, honnan tudod, hogy nem lesz sírás?
[ Szerkesztve ]
-
HSM
félisten
válasz #Morcosmedve #134735 üzenetére
Ezért viszont kár neki új főverziót csinálni...
(#134740) hackeeeee: Jó terv. Szerintem négy erős mag is elég sok mindenre elég. Persze, ideális a 2600 lenne, de egy próbára mindenképpen elég az 1200.
(#134743) hackeeeee: Igényes, minőségi kártya, még ha a hűtése lehetne picit nagyobbacska is. Szerintem nem fog csalódást okozni.
-
HSM
félisten
válasz hackeeeee #134747 üzenetére
Szerintem kezdetnek tuti jó lesz az 1200, sőt, ha nem játszol nagyon CPU-zabáló játékokkal szerintem elég lesz. Nem olyan gyengus az, lásd pl. Cinebench R15. Ha meg mégis rákapsz jobban a PC-játékra, míg mindig ott a lehetőség bedobni helyette egy 1600-ast 35-40K-ért apróról vagy egy új 2600-ast.
-
HSM
félisten
válasz hackeeeee #134764 üzenetére
Örülök, hogy szépen teljesít.
A 1440p baja csak annyi, hogy nem biztos, hogy szép lesz a képe a natív 4K monitoron, hacsak nem középen egy kisebb ablakban játazol úgy (gpu-méretezés). Bár egy próbát megér, főleg ezzel a gpu-méretezés okossággal (ki tudja húzni is teljes képernyőre, nem csak center mód van), elvileg ezek a mai gpu-k már egész szépen tudnak interpolálni, de ezzel tapasztalatom nem sok van.
[ Szerkesztve ]
-
HSM
félisten
válasz Habugi #134791 üzenetére
WQHD:
+élesebb, ha belebújsz
-zabálja a VGA-t
TN:
-pocsék betekintési szögek, elcsúszó színek
+gyors
Szumma: hááát...Én most egy 24"-os WQHD Dell IPS-en dolgozom, elég picikék rajta sokszor a betűk, nem ritka, ha 120-150% nagyításra rakom pl. a böngészőt. Mondjuk a plusz hely elég bejövős, de belebújós, legalábbis az én látásommal. Nekem valami köztes megoldás tetszene 24"-ra, ami azért nem WQHD, de a FHD-nél kicsit több. Mondjuk az kb. pont a 27" WQHD kategória.
Az én ábrándjaimban ilyen monitorok sejlettek fel, 27" WQHD, 165Hz, FreeSync, IPS...(#134797) MiklosSaS: Az 5850 nagyon jó volt, nálam 3 évig megvolt, és végig elégedett voltam vele. A 7900-ak, R9 290-ek szintén prímák voltak, olyanokkal is sokáig toltam. Viszont azt kell mondjam, most a kis RX560 is prímán tolja a szekeret.
(#134800) hackeeeee: "de amint egy szinttel fentebb mész, ott vége van"
Itt ugye az az egészen "aprócska" probléma, hogy az az "egy szint" itt már akkora ugrás, hogy praktikusan közel dupla olyan erős VGA kellene alá. (FHD vs. WQHD) A 4K meg ismét dupláz....
Ez nem olyan, mint amikor reszketve kérdezi a fórumozó, hogy 1680*1050-es monitoráról merjen-e FHD-ra váltani, ami még +20% plusz számolnivaló pixel sincs...[ Szerkesztve ]
-
-
HSM
félisten
válasz Habugi #134811 üzenetére
Hát nem tudom, az én szememben a Vega 56/64 kvázi ugyanaz. Az 56 alá csak kis extra TDP keretet kell csapni (meg jó VRM-est venni) és mehet is vele a buli. Persze, nyilván a 64-ek a jobb csipek, de azért szerintem az 56 is elég potens. Ár/értékben meg főleg jó, ha véletlen éppen kifogsz egy nem újkori árához képest másfélszeres áron kínált használtat.
Driver, hát igen. Kérdés, a zöld oldalon mi várna...
Lehet, érdemes most inkább a kivárásra játszani, alapszinten azért a 390X is meghajt egy WQHD-t, ha nem is ultrán, de high-on egész biztosan.
Amúgy elvileg ilyen magas frissítésen nem annyira kritikus a V-sync hiánya, mint a hagyományos monitoroknál, vagy alcsony FPS-en... Én amúgy amit nagyon szívesen kipróbálnék, az a blur csökkentős villogós háttérvilágítás, ami persze elvből OFF-ol minden "okos" szinkronizálósdit. [link](#134813) hackeeeee: Azért azt ne feletsd el, hogy a ROP/SETUP/MEMORY téren ugyanaz az 56, mint a 64. Az a plusz shader meg persze van, hogy jól jön, de az sem fogja megváltania világot. Szóval, szerintem amit tud a Vega, azt már az 56 is tudja, a 64 csak kis extra izommal, nincs a TDP-vel kissé visszafogva.
Nem lehet a mostani 32"-t kicsit távolabb tenni, mondjuk olyan bő 120 centi távolságba? Ott már jónak kéne lennie a FHD-nek rajta, 0Ft beruházással.
[ Szerkesztve ]
-
HSM
félisten
válasz hackeeeee #134815 üzenetére
Nem tudom, most mennyiért szórják, de mikor kijött, az első pár adag Vega56, 130K környéki ára nekem nagyon bejött. Ahogy nézem, most tényleg ilyen 10-20K a különbség a 64-től, annyiért persze, 64-est kell venni, egyértelműen.
Mondjuk pl. a Nitro Vega56 185K-ért tán annyira nem pocsék vétel. De nem annyira vagyok benne ezekben a high-end VGA doglokban mostanában, ez így is több, mint a duplája, mint amit jó szívvel valaha is VGA-ra költöttem.
De ahogy nézem a GTX1070 árakat, nincs ez ennyiért rosszul árazva.Szerintem nem vennék se procit, se monitort, játszanék. 32"-on, FHD-n.
[ Szerkesztve ]
-
HSM
félisten
válasz hackeeeee #134818 üzenetére
Igen, a shutter bizony marha idegesítő tud lenni. Nem gondoltam, hogy ennyire kéri a CPU-t.
(#134819) Habugi: Megértem. Zűrös ez a mostani időszak VGA-ügyileg. Drága a kártya, de legalább az ipar se tudja szvsz merre menjen.
Ami a szoftveres kiszolgáltatottságot illeti, nekem kicsit furán hangzik, a freesync nyílt szabvány, míg a másik sync a zárt, amivel ki vagy szolgáltatva egy gyártónak. Persze, megteheted, hogy mindkettőt kikapcsolod.
[ Szerkesztve ]
-
HSM
félisten
válasz Habugi #134823 üzenetére
Szerencsére azért ez nem egy túl kritikus feature szvsz, ha egy ideig nem megy egy játékban, semmi nem történik. Egyébként ugyanezek a szoftveres dolgok szvsz a másik oldalon is előjöhetnek, hiszen ugyanazt a trükköt sütik el, kérdés, ott beleírják-e a fixek közé.
(#134825) hackeeeee: A 6/12 azért igencsak masszív előrelépés a 4/4-hez képest. A cache is több azokban, az egy CCX-en belüli erőforrások is jócskán.
-
HSM
félisten
válasz hackeeeee #134827 üzenetére
Használt jóáras, nem széthajtott 1600(X)-ban, vagy új esetén 2600-ban gondolkoznék. Jó a 2400g is, de szerintem ár ügyileg csak akkor éri meg, ha a későbbiekben a GPU-ja használatán is gondolkozol. Nagyon nem mindegy, hogy 4 vagy 6 magod van, főleg, ha az adott játék is tud vele mit kezdeni.
[ Szerkesztve ]
-
HSM
félisten
válasz hackeeeee #134829 üzenetére
Ez a kép elég beszédes, mit tud a 2600, ha rendesen meghajtják a 2400G-vel szemben: [link]
Én azért szoktam leginkább Cinebench teszteket nézni, mert valamiért elég jól egybevág azzal, amit játékokban tapasztalok jó szál-kihasználtság mellett.Ha 6 szálat kezel az OW, az alapból előny a hatmagosnak, hiszen 6 fizikai mag mindig gyorsabb lesz 1-1 szállal, mint 4 fizikai mag, aminek próbál besegíteni (keresztbe tenni? ) még két logikai szál.
-
HSM
félisten
válasz MiklosSaS #134852 üzenetére
Szerintem a G6 kaphatott vizet, papíron az vízálló, az 1+1 sosem volt az. Az 1+6 az első vízállóként hirdetett telefonjuk, az is inkább csak esőállóként, nem a vízbemártósan vízálló kategóriaként.
Arany középút, egy 150 rugós kártya, amivel meghajthatod a 150 rugós monitorod. Pfff.... Hát, ez tényleg elég lehúzás szagú. Maradok inkább FHD-n, jó lesz erre az 50 rugós IPS monitor, a 30 rugós VGA-val.
[ Szerkesztve ]
-
HSM
félisten
válasz norbert1998 #134854 üzenetére
Nem lep meg... Elég beszédes, ha beleolvasol az utóbbi pár G-széria topikjába..... Sajnálom a dolgot.
[ Szerkesztve ]
-
HSM
félisten
válasz hackeeeee #134878 üzenetére
A textúrafelbontásnak az égvilágon semmi köze a renderelés felbontásához.
Meg nem teljesen értem azt a fogalmat, hogy "4K-s kép".
A lényeg, hogy ha a resolution scale 50%, akkor a beállított felbontáshoz képest feleakkora felbontásnyi képet renderel (értsd számol ki) amit utána interpolálva kirak a beállított felbontásra. Az eredmény nálad: FHD-s kép 4K felbontásra interpolálva. Ha FHD-ra állíod, 100% res scale-al, akkor natívan renderel, nem interpolál, hanem akkor vagy a monitorod interpolál, vagy a GPU-scale-el a GPU driver a GPU-n. Tehát végeredményben ugyanazt kapod, más módon elővarázsolva. Igazából a választott módszer interpolációs minősége révén lehet különbség a módszerek között. Ezért javasoltam a GPU-méretezés opciót, a játékban FHD-t és 100%-os res scale-t beállítva, az ugyanis amennyire tudom, jó minőségben interpolál, bár a FHD-4K interpoláció nem igazán kényes az algoritmusra, de ha mondjuk a 1440P-t skálázod fel már igencsak nem mindegy, hogy lett interpolálva.
A monitorok általában nem szoktak tudni jó minőségben interpolálni (kivéve pl. a FHD-4K, mivel az pont felezés, így kb akármilyen buta algoritmussal jó), ezért érdemes vagy játékból a res scale-el próbálkozni, vagy erre van a GPU-méretezés opció, ami natív felbontásban járatja a monitort mindig, és a GPU-val méretezi át arra a játékban beállított felbontást.[ Szerkesztve ]
-
-
HSM
félisten
válasz hackeeeee #134882 üzenetére
Nekem így képről egy fél hajszállal jobban bejön a natív FHD. Picit élesebbnek hat, lásd pl. a páncélon a kisebb mintázatokat. De minimális a difi tényleg.
Mondjuk ennek könnyen lehet a kép átméretezése is az oka, mivel a 4K-s kép nem 4K-ban jött le. Tehát nálad lehet éppen az volt még jobb minőségű, mielőtt átméreteződött, míg a FHD-s kép tényleg FHD-ban jött le.
Új hozzászólás Aktív témák
- WLAN, WiFi, vezeték nélküli hálózat
- Amlogic S905, S912 processzoros készülékek
- Sokkolóan drága az idei csúcs TCL tévé
- Nintendo Wii U
- exHWSW - Értünk mindenhez IS
- Linux kezdőknek
- Bugfix van, magyarázat nincs az iOS-ben újra feltűnő, korábban törölt fotókra
- Ezért jött hardveres sugárkövetés nélkül a Hellblade II
- Eredeti játékok OFF topik
- Mikrofon topic
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen