Keresés

Új hozzászólás Aktív témák

  • Puma K

    veterán

    válasz Gausz #40 üzenetére

    Vagy inkább 140W-al is beéri 1,5 óra Overwatch után 2560x1440-es felbontásban ésszel beállított lehető legszebb grafikával (az 1080 Ti után amit váltott csak a 122%-os felskálázást vettem vissza 100%-ra):

    GPU: 1920 MHz@0,95 v
    VRAM: 15800 MHz

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz Carlos Padre #80 üzenetére

    Amiről beszélsz 3090-es kártya azt külön a 8k felbontáson való játékra szánja az Nvidia.

    Már 2013-ban teszteltük haver GTX 670-es kártyájával, hogy a driver-ben beállítható egyedi felbontást miként lehet kamatoztatni a játékokban. A végeredmény azaz volt, hogy minden élesebb és részletgazdagabb lett. Erre a felskálázásra egy külföldi fórumon talált rá haver: [link]

    Ez a felskálázás egy ideje hivatalosan is beköltözött az Nvidia driver-ekbe DSR néven.

    A DSR-el az adott megjelenítő natív felbontását lehet maximum 4x-esre állítani és vannak még alatta kisebb mértékű felskálázások:

    Ezzel a DSR-el játszottam a GTX 1080 Ti-vel 5120x2880-as felbontásban. Amelyik játékban meg volt beépített felskálázás ott azt használtam. De ilyen nem mindegyik címben-grafikusmotorban van.

    Az meg sajnos tény, hogy adott teljesítmény szint felett az AMD nem tud sem köpni sem nyelni.

    Ettől még az Nvidia kiszolgálja adott generációnként ezeket az átlagtól magasabb és ugyan réteg igényeket, de közben gennyesre keresi magát.

    Hidd el ha az AMD-nek is lenne a zsebében hasonló a VGA-k terén mint a CPU-knál látható, akkor már előhúzták volna ők is. Csak sajnos hasonlóan mint az Intelnél úgy az AMD VGA részlegén is úgy tűnik dilettáns idióták dolgoztak-dolgoznak....

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz [Prolixus] #156 üzenetére

    Az egymagában 8pin helyett már több éve-évtizede a 6+2 adja a 8pin-t.

    Ennek megfelelően vannak olyan 750W-tól induló tápok amiken 12db ilyen 6+2pin-es csatlakozó is lehet.

    Ha pedig nem kell ennyi 6+2pin hanem kevesebb, akkor meg a táp teljesítménye növekszik és akár 2000W-os tápokat is be lehet szerezni amiken mondjuk 6-8db 6+2pin-es csatlakozó van.

    Ha csak 1 VGA és CPU van a gépben, akkor a minőségibb 650-750W-os tápok már elegek lehetnek. Ha vannak extrák mint épített vízhűtés, ventilátorok, világítás meg esetleg HDD-k, akkor érdemes ráhagyni +100-150W-ot.

    Én is az akár 255W-ot fogyasztó CPU és a korábbi akár 360W-ot fogyasztó VGA, meg a ventilátorok és a vízhűtés miatt hagytam rá a tápra és voltam úgy hogy ne legyen még véletlenül se alulméretezve, de feleslegesen se legyen túl sok.

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz ollie #432 üzenetére

    Örülök, hogy egy moderátor pontosít ;] :D :K

    A linkhez:

    Nagyon sokszor igen erős a gyanum, hogy az ilyen arctalan és névtelen csatornák csak számokkal dobálóznak a nézettség érdekében...

    Nem hiszem, hogy aki nem ebből él meg és csak hobbiból csinálja az meg is veszi ezeket a kártyákat-procikat és ennyiszer valóban le is méri a különbségeket...

    Egy Digital Foundry, egy Hardware Unboxed, egy GamersNexus vagy egy LLT számomra ezerszer hihetőbb mint ezek a -szerintem- kamu csatornák...

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz b. #476 üzenetére

    Ott van az: [kép]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz yericho800 #473 üzenetére

    Nem rossz kis kártya.

    Rosszabbra számítottam. Hasonlóan mint anno a GTX 1070 -> 1050 Ti váltásnál.
    Csak a 6GB VRAM bekorlátozza.

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz yericho800 #527 üzenetére

    Nálam így van belőve a sima 2060 [link]

    A mókuskerekes hűtése miatt kicsit foglalkozni kellett vele GPU órakel-feszültség és ventilátorgörbe szempontjából, de a VRAM kapott egy +900MHz-es tuningot. Menne a +1000MHz is de azt pár játék nem szereti... néhánynak meg nincs baja vele.

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz koxx #534 üzenetére

    Nah... nem illik piszkálni egy halottat... :N :U :DDD ;]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    3090:

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz VinoRosso #823 üzenetére

    Pont azt néztem, hogy ez a 3090 kitesz egy mini számítógépet a számítógépen belül :DDD
    Főleg a konzolos újítás után, hogy a CPU-RAM duóról átvesz egy terhet a VGA.

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz Maelephant #834 üzenetére

    Venni kell egy 750-850W-os platina minősítésű tápot 10 év garanciával és akkor 10 évig el lehet felejteni ezt a részét a gépnek.

    Ekkora wattnál a táp meg az ideje nagy részét passzívan tölti vagy a ventilátora alapon jár és soha az életben fel sem fog pörögni úgy hogy hallható is legyen. Feltéve ha kapcsolható az adott tápon ez a lehetőség mely szerint forogjon alapból vagy csak adott mértékű terhelés-hőmérséklet átlépése után.

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz Maelephant #837 üzenetére

    Ezért kell előre gondolkodni hogy mi lesz az igényünk és inkább ráhagyni a tápra és nem kicentizni. Ha meg akkorát vesz az ember, hogy adott komponensekkel a birtokában jó ha a harmadát vagy felét igényli még terhelés közben, akkor is legalább a táp nem fog zajongani.

    A mostani tápom előtt amik említésre méltóak abból az egyik az egy Corsair VX450 (Seasonic S12) volt a másik meg XFX Pro 450 (Seasonic S12 II ). Hosszú éveken át garancia lejárta után is tették a dolgukat.

    A Corsair mellett lendültem be a gépcserélgetésbe és akkoriban többet szereltem a gépet mint használtam. A legtáposabb masina amit etetett az i5 750@3,2GHz procit és egy tuningolt GTX 275 VGA-t (alap TDP-je 217W volt) szolgált ki. Plusz mellette volt még 7db 120-as ventilátor és 4db 7200RPM-es HDD.

    Az XFX táp mellett volt egy 4790K@4,7GHz meg egy GTX 1070 finomhangolva. Még volt 8db 120-as ventilátor, egy AIO és 1db SSD meg 2db 7200RPM-es HDD. Soha nem volt hangja a tápnak terhelés közben.

    A mostani szettel (vagyis még a GTX 1080 Ti-vel) a HWiNFO amit mért max CPU (9900K@5,1GHz 1,296v és AVX-es terhelés) és VGA fogyasztás az 255 + 360W volt. Ez a két komponens így egymagukban 615W-ot rántottak be.
    A házban van még 1db 120-as, 7db 140-es és 1db 200-as ventilátor. Meg egy épített vízhűtés szivattyúja.

    Sejtettem hogy idővel megint elborul az agyam ha elkezdem építgetni a masinát... szóval áldom az eszemet, hogy ennyire ráhagytam és 850 platinát pattintotam a házba. Pedig 550 és 650W-os tápokat nézegettem... de sejtettem hogy azok idővel kevesek lesznek.

    Az tény, hogy a 9900K@5,1GHz 1,264-1,28v esetén játékokban 158W-nál még BF1-ben és minden féle más online címeknél sem kér többet több órás folyamatos nyúzás után sem. Viszont a GTX 1080 Ti be-be rántott sima játszogatással is 330W-okat :D

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz angyalpc2 #864 üzenetére

    Bácsi, korábban mikor még az SLI a fénykorát élte volt aki 3 meg 4 kártyát is használt egyszerre. Már akkor is voltak 1200-1600W-os tápok amik kellettek ehhez a mutatványhoz.

    Sőt aki meg anno a feszültségzár mentes Nvidia kártyákat tuningolták a végletekig és akár 2db ilyen is volt a gépébe azok is szépen rángatták a tápok bajszát.

    Igazán semmi új nincs a nap alatt, csak most már egyszerűbb az ilyen igényeket kiszolgálni. Meg most már van minőségi 2000W-os táp is hogy legyen hely még nyújtózkodni és egy akár 500W-os fogyasztású proci is bedobni a masinába pl: [link]

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz Bennyboy #951 üzenetére

    Az a 7700K már egy 1080 Ti-hez sem elég.

    A korábbi 1080 Ti-m a mostani 9900K-val futotta ki magát igazán. Előtte egy 4790K@4,7GHz volt mellette, de még a 4700 MHz ellenére is maradt a kártyában.

    Egy 3080 olyan monitor mellé ami 1920x1080 és 144Hz-es már alapból értelmetlen kategória...

    Anyagiak szempontjából ha ennyire problémás a gépcsere vagy már egy alkatrész csere, akkor lehet nem erre kellene költeni...

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz oriic #1100 üzenetére

    Volt már 160-ért 2db Asus Strix is szintén megbízható eladótól.

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    Azt az elején leszögezem, hogy minden számítástechnikai eszközt azért veszek hogy használjam.

    Anno GF 4 MX440, 6800GT, 7600GT és 7900GT után megnéztem egy HD 4850-et.

    Az akkori AMD Athlon 64 3200+ Venice Socket 939-es procim mellett pörgettem a fent említett kártyákat.

    Az akkori Acer X223w monitorom szélesvásznú volt 16:10-es képaránnyal, 22"-os képernyőmérettel és 1680x1050-es felbontással.

    Az Acer monitor volt a 7600GT és a 7900GT mellett is. Hiba vagy bármiféle gond nélkül működött minden ahogy kellett.

    Ezzel szemben... a HD 4850-el a gépben nem tudtam a monitor natív felbontását kiválasztani.

    Minden más egyéb felbontás szerepelt a választható listában, de sem Windows-ból sem az akkor még Catalyst Control Center-nek nevezett ATI/AMD driver-ből. Driver újratelepítés vagy akár a Windows újrarakása sem oldotta meg ezt az akkori problémámat.

    Írtam az Acer-nek egy e-mailt, hogy ezzel a helyzettel találtam szembe magamat mi tudok tenni. Azt felelték, hogy nagyon semmit. Mert ezt, azaz a monitor paramétereit a VGA kártyának kellene egymagában felismernie és kezelnie...

    Ezzel vagy hasonló gonddal nem találkoztam a korábbi Nvidia kártyákkal.

    Végül azt találtam anno megoldásnak a netet böngészve, hogy ez sajnos mint kiderült egy létező probléma az AMD VGA kártyákkal...

    Ezért a feltelepített CCC fájljaiban kellett megkeresni adott .ini fájl-t majd adott részen bele kellett nyúlni és kiegészíteni a monitor natív felbontásával... majd csak ezután lehetett kiválasztani az általam áhított 1680x1050-es felbontást...

    Ezt minden egyes Windows újrarakásnál vagy driver frissítésnél meg kellett tennem...

    Egy idő után váltottam GTX 275-re és előző ATI/AMD driver radír nélkül,de friss Nvidia driver-el és még Windows újrarakást is mellőzve ugyan az a monitor... ugyan azzal a kábellel... hibátlanul működött. 1680x1050-ben.

    Második nekifutásom az AMD GPU-kat illetően egy ATI Mobility Radeon HD 5470-el volt.
    Adott volt egy LG LCD tévé 42"-on. Az egy akkor +250k Ft-os elég jó fajtájú tévének számított.

    Adott volt a laptopom amiben az említett ATI/AMD GPU volt. Erre a tévére rákötve olyan pocsék minőségű képet adott HDMI-n hogy botrány volt nézni.

    Próbáltam gépújraindítást, próbáltam akkor még mindig CCC driver-ből mindenfélét lépésenként állítani, de nem oldódott meg. A tévét is próbáltuk újraindítani (hátha) vagy a beállítások között átállítani hogy hátha ott kell valamit finomhangolni, de semmi változás nem történt. A kép pocsék maradt.

    Nem sokáig volt nálam az a laptop... és lett helyette egy másik hordozható masina amiben Nv GT555M volt. Nos. Ugyan azzal a HDMI kábellel a tévén történő bármiféle állítás nélkül (a tévé nem kapott frissítést) a dedikált Nv kártyával elsőre ment a kép és a hang úgy ahogy kell.

    A GT555M után ismét visszatértem az asztali gépek világába egy GTX 760-el és ugyan azzal a HDMI kábellel amivel előtte 2 évvel próbálkoztam ismét egy tévére kötve a gépet hibátlanul működött minden. Az a HDMI kábel azóta is megvan és teszi a dolgát.

    A GTX 760 után volt GTX 1070, 1050 Ti, 1080 Ti és most kíváncsiságból egy RTX 2060-am van.

    Lehet ez adott emberek szemében ez nem sok kártya, de én mint írtam használatra veszem a dolgaimat és nem problémák generálására amiket vagy meg tudok oldani vagy nem.

    Mindezen saját tapasztalataim miatt és mert elköteleztem magamat a G-Sync-el az Nvidia mellett egy ideig eszembe sem jut AMD kártyát venni.

    Ez a Nvidia vonal meg úgy mellékesen megemlítve az Intel is sokkal kiforrtabbnak avagy még plug&play-ebbnek (jahj de szépen hangzik) érződik szerelést követően a használatnál.

    Azt viszont nem mondom, hogy ha most építenék gépet akkor is Intel-re tenném le a voksomat... most simán egy B550 chipsetes lapra és legalább egy Ryzen 3600/X-re mennék rá ha prociról van szó.

    A VGA-nál meg lemondanék a G-Sync-ről ha adott áron olyan VGA-t tudna letenni az asztalra ami stabilan minimum 25%-al erősebb mint a korábbi 1080 Ti-m.

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz Steve_Brown #1466 üzenetére

    Tévedés, mert én semmilyenes vagyok.

    Mint írtam rendszerint úgy szeretem használni a dolgaimat hogy nem kell külön köröket futni velük, hogy az esetlegesen felmerülő gondjait kiküszöböljem... én a fizetni-vásárolni szándékozó végfelhasználó vagyok nem a béta tesztelő.

    Azt veszem ami adott áron hozza azt amire szükségem van. A gyakorlati használhatóság és problémamentesség számomra fontosabb mint hogy melyik színű gyártó elkötelezett híve legyek... mert egyiké sem vagyok.

    Itt pénzről és gyakorlati használhatóságról van szó. Nem elvi kérdésekről.

    Ahogy CPU-t 4 évre tervezek venni (és az előző 4790K-nál ez sikerült) úgy VGA-t legalább 2 évre szándékozok vásárolni.

    Azért 2 év a VGA esetén mert ennyi idő alatt _ha_ van jobb ajánlat az újabb szériából, akkor az eredeti átlag adott 3 év garanciából van még 1 év amivel könnyebb eladni az adott kártyát. A korábbi GTX 760 2 évig volt nálam, az 1070 6 hónapig, az 1050 Ti meg szerintem 1 évig, az 1080 Ti pedig 2 évig.

    Az Nvidia kártyáit jóval nagyobb számban vásárolják mint az AMD VGA-it. Ha a dedikált kártyákat nézzük akkor 80-20% körül lehet ez az arány. Ehhez képest a kisebb arányú gyártó termékeivel több hibát jeleznek vissza a felhasználók, mint a szélesebb körben elterjedt gyártóét.

    Pedig nem egy kártyát használtam, nem egy fajta Windows-t telepítettem-használtam és nem egy fajta driver-t raktam fel. De egyikkel sem volt olyan gondom mint a két különböző AMD GPU-s termékkel.

    Nem csak az én monitoromra volt jellemző ez a helyzet. A világ más pontján más emberek is tapasztaltak hasonlót, akik közül megtalálták ennek a megoldását...

    Mint írtam is... egy újabb driver sem oldotta meg a problémámat. Minden egyes driver frissítés után kezdhettem a CCC matatásával.

    A kártya teljesítményével meg voltam elégedve amíg használtam. Sőt annyira elégedett voltam vele, hogy kapott a gyárihoz képest egy komolyabb hűtőt is:

    ezek nem az életem legjobban sikerült képei

    (#1467) schawo:

    A mostani monitorom 2018. óta van meg. A korábbi Acer X223w amiről szó volt meg valami 2005/2006-os vásárlás volt talán... és 2010-2012-ben adtam el.

    Ha a monitorral lett volna gond akkor eladom már akkor mikor kiderült ez a gond. De mivel nem azzal volt a baj hanem a szoftveres bukfenccel ATI/AMD fronton így nem volt kedvem új monitor után nézni.

    A HD 4850 után használt GTX 275 meg szintén gond nélkül tudta kezelni a szóban forgó megjelenítőt bármiféle általam történő buherálás nélkül.

    A többit fentebb részleteztem.

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz MegalodonS #1480 üzenetére

    Nem kellenek ezek az alátámasztások... ezek csak újabb anyagpazarló és feleslegesen legyártott filléres kacatok amire adott haszonkulcs mellett egész jó kis pluszt lehet termelni ha külön adják el... ha meg a kártyához adják akkor csak egy plusz jóérzés, hogy de figyel ránk a gyártó... közben meg nem kell.

    A kártya elbírja saját magát... a sarka meg azért hajlik le, mert a számítógépházban a PCI csatlakozókba szánt eszközök fizikai rögzítésre szánt füleinek tágabbra vágják a hézagot és emiatt elmászhat a VGA sarka.

    Ha a 2-3 csavart ami a házhoz rögzíti az adott VGA-t adott sorrendben és adott erősséggel húzza meg az ember akkor bármiféle alátámasztás nélkül is egyenes lesz a VGA. Az meg a másik, hogy fektetett alaplappal-házzal szereljük a gépet...

    Ha nem csavarozod oda a VGA-t akkor meg idővel ez történhet:

    Az eddigi legnehezebb kártyám az a 1257 g-mos MSI Gaming X 1080 Ti volt és annak nem lógott a sarka.

    A vélt probléma forrása a házban:

    A magyarázat, személtetés és esetleges megoldás (ami szerintem nem szükséges):

    How to fix video card sag FOR FREE! - videó

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz MegalodonS #1504 üzenetére

    Azért tesz oda csavart hogy ne másszon el idővel sem a kártya... de ha rendesen odarögzíted a VGA-t a házhoz akkor nem fog lógni.

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz Laraxior #1936 üzenetére

    Az Nvidia kártyák mellett meg driver-ből lehet kapcsolni a DSR-t amivel fel lehet skálázni az adott kártyára kötött megjelenítő natív felbontását.

    Így volt-van az hogy a korábbi 1080 Ti és a mostani 2060-as kártyákkal adott játékokban amikben bírta-bírja 5120x2880-ban játszok a natív 2560x1440 helyett.

    Bármelyik élsimítás helyett ez a legjobb képjavító funkció.

    Ráadásul játéktól és adott játékban lévő szituációtól függően jobb FPS értéket produkál a felskálázott felbontás mint az erőforrás igényesebb és a képet valamilyen mértékben elmosó különféle élsimítási megoldások....

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz kolopele #2000 üzenetére

    Nem.

    Az erőforrás igényesebb élsimítási eljárások helyett jobb a felskálázott felbontás.

    A felskálázás meg szorzós értékkel megy és az adott megjelenítőt kell alapul venni. Így van az, hogy nálam a 2560x1440-es felbontás a driver-ből állítható 4x-es felskálázással (ez a legnagyobb érték, de vannak ettől kisebbek is amit tetszés szerint lehet kiválasztani) az a gyakorlatban 5120x2880.

    A felhasználó által tetszőlegesen választható, hogy milyen szorzókkal dolgozzon a driver. Majd a kívánt felskálázás bepipálása és nyugtázása után a Windows felbontáskelezéstől kezdve a játékokban lévő felbontás állításig minden helyen meg fog jelenni.

    Az hogy te melyik felbontást hol használod mint ami nagyobb mint a monitorod natív felbontása az már tetszőleges és általad eldöntendő.

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz koxx #2394 üzenetére

    Ez azokhoz képest olcsóbb és mégis dögivel van rajta VRAM.
    Plusz a támogatottság is szerényebb az a Quadro-hoz képest.

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz Chrys_ #2485 üzenetére

    Semeddig sem tart leszedni a csavarról azt a kis matricát.

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

  • Puma K

    veterán

    válasz Nite #2566 üzenetére

    Ha 3070 akkor Inkább 9900 vagy 9900K jó hűtővel.

    Vagy ha AMD akkor 3700X egy közepesen jó hűtővel.

    Egy a lényeg, hogy bármelyik 8mag/16szálas procit vennéd, a leendő alaplapnak a VRM-je után alaposan járj utána.

    [ Szerkesztve ]

    "Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘

Új hozzászólás Aktív témák