Új hozzászólás Aktív témák
-
Puma K
veterán
4 ventilátoros Galax RTX 3080 : [link]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
Uhh de zsúfoltak
NVIDIA referencia PG132 NYÁK RTX 3080 :
NVIDIA referencia PG132 NYÁK RTX 3090 :
NVIDIA Founders Edition PG133 NYÁK RTX 3080 :
Forrás: [link]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
Az Nvidia hűtővel szerelt RTX 3080 hőkameraképe terhelés közben videón: [link] és képen:
Forrás: NVIDIA GeForce RTX 3080 Founders Edition thermal testing
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz SeRoKrigid #130 üzenetére
Kell egy ismerőst vagy itteni fórumtagot keríteni aki kint él Ausztriába, Németországban Angliában vagy más országban aki segít és tud rendelni. Nem olyan nagy probléma ez.
Egy 10 milliós ország ahol a csak a jelentős töredéke az aki potenciális vevő meg jó hogy nem piaca egy ilyen szintű terméknek.
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz SeRoKrigid #136 üzenetére
Így már mindent értek.
Ránéztem a forrásra... egy földszinti lakásban-házban az előszobában/nappaliban a gép...? Úgy hogy a bejárati ajtó ólomüvegein keresztül látszódnak a kint guruló autók lámpái...? Kiráz a hideg még a gondolattól is.
Egyébként meg nem tudom komolyan venni az ipsét. A csatornáján lévő videók is olyan rossz összképet adnak. Nem vagyok egy nagy youtube fogyasztó és inkább a gyakorlati rész az érdekesebb a számomra mint a valósnak vélt gondolatok megosztása videók formájában."Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz Malibutomi #1397 üzenetére
Gondolom ezért van alapból becsomagolva a kártya és hőpadokkal ellátva a backplate, hogy hűtőként is funkcionáljon a PCB hátoldalán lévő alkatrészeknek-elemeknek.
Úgy azért -szerintem- nem lehetnek ilyen vészesek a hőmérsékletek.
Viszont ez a 90,3°C-os VRM még mindig nem 100°C.
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
-
Puma K
veterán
válasz gabor0928 #1544 üzenetére
Kicsivel több mint 2 éve 32" 1440p 165Hz-en vagyok. Kezdetben erre a monitorra pár nap erejéig 1050 Ti majd 2 évig 1080 Ti és most 2060 van kötve.
A kép minőségével-élességével semmi baj nincs. Ha lenne akkor váltottam volna más megjelenítőre mikor ezt megvettem és 14 napon belül vissza is vittem volna.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz csibuka85 #1563 üzenetére
A mese szerint akkor amikor teljesen szakítanak a DX11-es gyökerekkel és minden grafikusmotorból a régi eljárások ki lesznek gyomlálva és az újakkal lesz behelyettesítve.
Most hogy az új konzolok lassan elérhetőek lesznek remélhetőleg folytatódik a lépdelés előre... mert a konzolokon is fontos lett a "Hánnyal megy?" téma és nem csak "PC fétis".
Gondolok itt a 30 vs 60 vs 120 FPS-re.
Amíg korábban elég volt a ~30 FPS.Ugye ezektől az FPS-ektől adott komponensekkel rendelkező PC-k adott játékokban ennél több vagy jóval több FPS elérésére is képesek lennének... ha megfelelően lennének optimalizálva és ki lennének használva a hardverek...
Remélhetőleg az Nvidia DLSS meg a NVIDIA RTX IO ezen igen csak dobni fog.
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz AsakuraDave #2696 üzenetére
Az amit ráírnak az a gyári garantált érték adott modell esetén.
Ha azt nem tudja tartani akkor lehet reklamálni.Az hogy attól magasabb értéken jár a GPU órajele az a Nvidia GPU Boost-nak köszönhető ami az RTX 3000 szériánál már a 5. verziónál tart .
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz Rison77 #2898 üzenetére
A 4770K nem egy szint a 4790K-val, mert már az alap órajelük sem egyezik meg (3,5GHz vs 4GHz), plusz a 4790K-t jobban lehetett tuningolni.
A tesztelőkkel meg mi a répa volt, hogy 1600 MHz-es RAM-okat tettek a 4770K mellé...?
Az egy dolog hogy mit támogat a proci memóriavezérlője, az meg a másik, hogy a gyorsabb ramokkal nem meglepő módon gyorsabb a proci...Érdekes módon az újabb chipsetes lapokba gyorsabb memóriákat tettek mint amit az adott tesztben lévő procik memóriavezérlője támogat... szóval ezért sem értem, hogy a szerencsétlen 4770K miért 1600-as ramokkal engedték küszködni...
Nálam nem hiába volt 2x 8 GB/1866MHz-ről váltás 4x 8GB/2400MHz-re... a proci "jobban kifutotta magát" a gyorsabb ramokkal.
A mostani 9900K mellett lévő 3200-as memóriákat is cserélném legalább 4000 MHz-re hogy ismét jobban kifussa magát a renccer.
A 4790K 4700MHz-en hajtva (mehetett volna 4,8GHz-en is) nálam az 1080 Ti-ben is hagyott még pár FPS-t amit a 9900K hajtott ki teljesen. Csak aztán meg lett az hogy azonos felbontás mellett (2560x1440@165Hz) mint amin a 4790K-t is használtam elfogyott az 1080 Ti a 9900K mellett.
Én a fórumtárs helyében ha ennyi ideig kihúzta a mostani szettjével, akkor legalább 8-10 magos és 16-20 szálas procira váltanék.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
Akkor lehet is érvényesíteni az RTX 3080/3090 esetén a 14 napos elállást ha sz@rok a kártyák
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz Laraxior #3051 üzenetére
A tápon már meg sem lepődök... hogy az Nvidia ajánlása szerint 750W-os kell alá... erre itt a többség 550-650-esekkel fog rápróbálni...
Mert tápból be lehet pattintani gold-platina 850W-osat egyszerűen.
De ha Intel i7 6700-al szeretné meghajtani... az RTX 3080-at.. hát sok szerencsét...
Kb rosszabb a helyzet mint mikor én anno az AMD Athlon64 3200+ Venice Socket 939 mellé beraktam az ATI HD 4850-et egy rövid időre
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz Laraxior #3565 üzenetére
2018-ban keresgéltem megjelenítőt és arra jutottam hogy 32"-on nem sok lehetőségem maradt.
Nem akartam ívelt megjelenítőt, és 32"-nál kisebbet sem. De az extra széles monitor sem volt opció számomra...
Így lett akkor egy LG 32GK850G-B.
Alapból 144Hz-re van hitelesítve a panel, de át lehet állítani a monitor menüjében 165Hz-re. Én több mint 2 éve így használom, ezen a képfrissítésen úgy hogy minden körülmény között megy a G-Sync.
Elég sokféle módon lehet állítani a képernyőjét és még KIKAPCSOLHATÓ RGB LED is van benne .
Van hátul 2db 3.0-ás USB csatlakozó meg még fejesnek-mikrofonnak is talán. Bár ezeket én nem használom.
A panelja VA, de egy IPS után baromira tetszett a feketéje. Az IPS nem torzítja a színeket ha különböző szögekből nézed, de én a VA-nál sem látom különösebben a torzulást... meg úgy is szemből nézem...
Vásárláskor kértem hozzá kalibrálást is az üzletben ahonnan vettem és így a monitor beállításainál is beállították a monitort továbbá kaptam hozzá egy betölthető színprofilt amit ennek a monitornak a panelja alapján kalibráltak.
Továbbá eléggé visszafogott a kinézete. Ami még egy nyomós érv volt a számomra a csicsás mindenféle színű megjelenítők mellett.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
Én még tavasszal-nyár elején vagy mikor elcseréltem az MSI Gaming X 1080 Ti-t egy kisker garis Asus RTX 2060 Turbo + kápéra.
Ez a kis 2060 kapott egy tuningot amely során a feszültsége fixálva van maximum 0,95v-ra 1974MHz-en kezd majd beáll ~1920MHz-re a GPU.
A VRAM meg egy laza +900MHz-et kapott és így ketyeg 15800MHz-en a gyári 14000MHz helyett Egy ideig ment +950MHz-el is de volt pár játék ami nem szerette...
Szerencsére lehetett mit kezdeni a ventilátorprofiljával meg a kis mókuskerekével, így most a fenti beállítások után nem zajong (korábban 2600 RPM-en járt) és legalább annyira kihallani a gépből mint a korábbi 1,2kg-os Gaming X 1080 Ti-t.
A nyári melegben maximum 72-73°C volt és 2000 RPM-nél nem igen ment feljebb. Most hogy hűvösebb van és a szobában is így 65°C-nál nem melegebb aztán 1900 és alatta lévő fordulatokon pörög a ventilátora. Nagyjából ugyan ezzel a karakterisztikával rendelkezett az 1080 Ti hőmérséklet és ventilátorfordulatok alapján.
Csak a 2060 ~160W-ot ránt be maximum az 1080 Ti meg akár 360W-at
A teljesítménykülönbség nagyjából 25% az 1080 Ti javára, de annyit vettem észre az egészből, hogy a korábbi felskálázásokat amelyek során akár 5120x2880-ban játszottam, azokból vissza kellett venni teljesen.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
"Az játékfüggő,hogy hol mennyit eszik,érvényes ez mindkét kártyára természetesen."
Így van, ebben semmi újdonság nincs.
Több játéknál és több óra alatt (értsd 7-8-16) mértem 330W-os maximális fogyasztást.
Úgy hogy a GPU 1,025v-ra le volt korlátozva és az is 1974MHz-en kezdett és úgy állt be 1936MHz-re. A VRAM semmi tuningot nem kapott mert nem lehetett rajta húzni semennyit...
MSI AB-ben egyedül a fogyasztás és a hőmérséklet csúszka volt kitolva.
A 360W-os fogyasztás a fenti beállításokkal 3DMark valamelyik tesztje során jött össze.
Nem a villanyszámla miatt cseréltem le az 1080 Ti-t.
Ameddig tudom hűteni addig nem különösebben foglalkoztat a fogyasztás. Fontosabb volt az a tényező, hogy lejárt róla a garancia.Nálam alapból 162-re van lekorlátozva a maximum FPS. A CPU nálam minden esetben fixált órajelen és feszültségen jár.
Egyedül a VGA az ami ha nem játszok akkor váltogathatja a 2D, 3D low és 3D high órajelprofilokat.
De ha játszok akkor adott címeknél driver-ből be van kapcsolva a maximális teljesítmény előnyben részesítése opció mely keretén belül mindig 3D high órajelprofilon jár a kártya.
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz Csokilama #3695 üzenetére
Csak az a különbség, hogy az egyiken a GPU mellé tokozott HBM fajtájú VRAM van és emiatt lehetett kisebb a NYÁK és így is lehetett valamennyit spórolni az akkori viszonyokhoz képest... míg az Nvidia-nál még a hagyományos GDDR VRAM-al szerelve és ennek ellenére is a jobb hűtés érdekében lett olyan a NYÁK mint amilyen.
A kettő között van különbség.
Az a Fury halva született ötlet volt...
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz Albigator #3699 üzenetére
Az IPS-nek a feketéi nagyon nem tetszettek.
A legjobb panel az inkább az OLED.A ghosting-ot nem tapasztalom. De nem tudom hogy ezen a kalibrálás segített-e amivel kértem-vettem vagy alapból minimális ennél a AMVA panelnél.
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
Nem értem ezt a centizgetést.
300 ropi feletti VGA-t vesznek az emberek, de egy rendes 50k Ft-tól induló legalább 850W-os gold-platina minőségű táp már nem járja...?
Az meg a másik, hogy egyszer kell venni egy jó tápot és a garancia miatt jó esetben legalább 10 évig el is lehet feledkezni róla...
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz Csokilama #3750 üzenetére
Módosított BIOS nélkül is van a VGA kártyáknak meg úgy a gépben lévő minden hardvernek egy pillanatnyi-rövid ideig tartó maximális fogyasztása bekapcsoláskor (CPU-nál ezt adott lapok esetén lehet korlátozni is) és terhelés közben is, amely során tapasztalhat az ember kellemetlenséget.
Ha túl van méretezve a komplett gép elméleti-maximális fogyasztásához képest a tápegység, akkor ilyen kikapcsolással, kifagyással vagy újraindulással nem fog találkozni az ember.
A tápegységek egy része -a minőségibb fajtákból- tudják kezelni ezt a többlet terhelést, amiből a felhasználó semmit nem vesz észre.
De ha nem minőségi belsővel szerelt tápegységet vesz az ember vagy a szükségesnél kisebb teljesítményűt akkor jöhetnek a bajok.
Terheléskor ha a CPU vagy a VGA esetleg mind a kettő beránt annyi szuflát amit a tápegység már nem tud kezelni, akkor jöhetnek a meglepetések úgy mint elhalálozó táp vagy adott alkatrészek vagy akár kompletten kukázható gép...
Mindezekre lehet legyinteni és félvállról venni, de nem ajánlatos... ha cserélni kell akkor cserélni kell és egyszer kell megvenni a megfelelőt és jót.
Nálam a CPU egymagában amit mérni tudtam folyamatosan 255W-ot vett fel AVX-es terhelésnél az akkor mellette lévő VGA meg 360W-ot rántott be maximum amúgy 330W-on állt a fogyasztásmérője.
Csak ez a két komponens 615W-ot kért magának a VGA-val egy pillanatig, amúgy folyamatosan 585W-ot fogyasztott csak ez a kettő alkatrész.
Aztán ehhez lehet még számolni a gép többi részét is amik terheléskor szintén kérnek maguknak energiát.
De ezek mind olyan értékek amiket szoftveresen mértem, és nem valódi adott pontokon kimérve. Ott lehet értek volna meglepetések. Persze a szoftveres mérések is most már sokkal-sokkal pontosabbak és a valóshoz közeli fogyasztást mutatják-mérik, de azaz igazi ha digitális feszültségmérő van rákötve-bekötve adott pontokra.
Persze lehet azt mondani, hogy ez szélsőséges eset és olyan nincs, hogy folyamatosan maximumra van terhelve minden hardver a gépben. Valóban, de annak meg nincs értelme hogy alul méretezzük mert szerintünk jó a kevesebb is...
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
Korábban volt az Asus-nak egy olyan 2080 Ti-je amin egy 3 ventilátoros AIO volt.
"Legutolsó ismert ár (2020. 05. 28.): 629 910 Ft"
Ez most vajon mennyi lenne a 3080 vagy a 3090 esetén...?
ASUS GeForce RTX 2080 Ti ROG MATRIX INFINITY LOOP 11GB GDDR6 (ROG-MATRIX-RTX2080TI-P11G-GAMING)
A kép forrása: [link]
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
-
Puma K
veterán
Egy kis észrevétel:
Ha a ventilátort említesz akkor inkább a fordulatot írd és ne azt hogy hány %-on pörög mert az kb semmit nem mond mivel más és más fordulati tartománnyal rendelkeznek a különböző gyártók különböző kártyái.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
Az MSI AB is írja a fordulatot maximum lejjebb kell menni a csúszkával a monitorozott értékeknél.
Vagy rá kell nézni a beállításokban és ott engedélyeztetni kell, hogy monitorozza azt is:
Érdemes kicsit vizslatni a monitorozó részét az AB-nek, mert vannak infók amik feleslegesek és vannak amik meg nagyon is hasznosak tudnak lenni.
Kiegészítőkkel is lehet bővíteni avagy más monitorozó programok értékeit is ki tudja olvasni vagy ki is lehet íratni vele:
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
A ventilátor leállítósdi nekem nem tetszik, ezért pl a korábbi Gaming X 1080 Ti-t így használtam:
A mostani mókuskerekes 2060-at meg így:
Egészen biztosan még jobban lehetett volna finomhangolni ezt a ventilátor görbe témát, de pár terhelés-megfigyelés után jutottam erre.
Mondjuk az 1080 Ti-re nagyon akartam vízhűtést, de végül a korára és az ár-érték arány miatt mint amibe kertül volna az fc blokk inkább elvetettem ezt a gondolatomat...
Az gond nálam, hogy a ház elejében lévő 10cm vastag és 46cm magas ventilátor-radiátor-ventilátor annyira hűsen tartja a CPU-t és alacsony fordulaton járnak a ventilátorok hogy alig jut hűs levegő a gépházba... ami miatt a VGA meg valamennyivel magasabb hőmérsékleten jár mint amennyi tudna a házamban.
Amíg levegős hűtés volt a CPU-n és 7db Noiseblocker NB-eLoop B14-PS gondoskodott a ház szellőzéséről-hűtéséről addig 65°C-nál nem volt melegebb az 1080 Ti és alacsonyabb fordulaton is jártak a ventilátorai... most meg egyik VGA sem kap annyi levegőt mint amennyit tudna
De még a ház elejében lévő ventilátor-radiátor tömbbel se volt 73°C-nál és ~2000 RPM-nél magasabb értékeken az 1080 Ti úgy hogy a GPU maximum 1,025v-ot vett fel és adott játékok közben 300-330W körül fogyasztott 5120x2880-as felbontásban
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz FearFmRadio #4316 üzenetére
Melyik i5-el...? Pontosan kellene megnevezni a procit.
Játékra az Intel a jobb, de munkára az AMD. Ár-érték arányban pedig az AMD.
Tápból inkább minőségibb gyártótól nézz valami 850 Gold de inkább Platina minősítésűt.
Még mindig sehol nem lehet venni.
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz Cthulhu Dawn #4287 üzenetére
Azért ajánlott undervoltolni mindenki számára (proci esetén is), hogy a kártya ne tolja magának az amúgy esetlegesen feleslegesen sok feszt, ami miatt jobban melegszik (meg persze többet fogyaszt) és jobban dobálja vissza az órajelet terhelés közben.
Undervoltal a terhelés közben elért órajelet lehet stabilabbá tenni, hogy ne ugráljon vagy a lehető legkevesebbet és a lehető legkisebb tartományban.
Ez teljesítményben azaz FPS-ben vagy pontvadászatnál pontokban mérhető ki.
És itt jön a képbe az, hogy ha jó sziliciumdarabka van a kártyádon, akkor kevesebb feszültséggel magasabbra emelheti a kártya a saját órajelét és vagy te magad tudsz feljebb lépdelni órajelben kevesebb feszültséggel.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz -=RelakS=- #4433 üzenetére
"1080ti ennyivel jobb lenne az 1070-nél?"
Az egy 2063MHz-en járó meg nem tudom mennyire cibált VRAM-os 1080 Ti.
Nálam anno az 1070 fél évig volt a gépemben és ment is tovább. Nem voltam elégedett azzal a kártyával. Az 1070 előtt és utána használ 760 és 1050 Ti sokkal jobban hozta azt amit elvártam.
Végül az igényeim és így a megjelenítő változása miatt 1050 Ti helyett lett egy 1080 Ti ami 2 évig tette is a dolgát majd váltottam 2060-ra
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Puma K
veterán
válasz -=RelakS=- #4497 üzenetére
Ilyen fogyasztás és hőtermelés mellett inkább valami AMD-Asus Matrix 2080 Ti féle AIO valamelyikével kellett volna kiadniuk... vagy ilyennel:
a 3070 meg maradhatott volna sima levegős...
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
Új hozzászólás Aktív témák
- BESZÁMÍTÁS! Gigabyte AORUS MASTER RX 6800XT 16GB GDDR6 videokártya garanciával hibátlan működéssel
- 4070 Ti Aorus Master //KERESEM!!//
- GARANCIÁLIS! ASUS TuF RTX 3090 24GB DDR6X OC Videokártya! BeszámítOK
- PALIT RTX 3070 8GB GDDR6 GameRock OC Eladó! 125.000.-
- GARANCIÁLIS! MSI SUPRIM RTX 3080 Ti 12GB GDDR6X Videokártya! BeszámítOK