Új hozzászólás Aktív témák
-
Joshi
titán
válasz laychi #37102 üzenetére
Ha a képet vesszük mint utazó adatot, akkor igen nekem is ez a logikus, hogy a kimenet a VGA a bemenet pedig a Monitor. Ja úgy nincs kép, fordítva viszont jó.
Viszont lehet hogy a tápellátásra vonatkozik a felirat? Mert ugye ez aktív kábel, és a monitor biztosan nem tud feszt adni neki. Vagy nem tudom.
[ Szerkesztve ]
-
-
Joshi
titán
válasz PROTRON #37105 üzenetére
Jogos, de szerintem egyértelmű lett volna a fejekre gravírozni hogy Display és VGA. Végül is nem megy tönkre attól hogy fordítva dugja be az ember, különben sok selejt kábel lenne. A legrosszabb esetben megfordítjuk a kábelt.
Az Audioquest kábeleinél nem így van megoldva, hanem a HDMI fejeken van egy nyíl. Szerintem az a kép irányát mutatja, ha nem, akkor azt se jól használom.
[ Szerkesztve ]
-
Joshi
titán
Akkor lenne kérdésem a kábeles bal..ságom után. Igazán most kezdődik a kálváriám. Szóval a 15m-es DP kábellel az volta a célom, hogy a másik szobában lévő monitort is kiszolgálja ugyan az a gép. Már ott fura az egész, hogy az íróasztalos monitor LG nem az elsődleges, pedig az 1-es DP aljzatba van bedugva. Miért?
Illetve én úgy akarom a két monitort használni, hogy egyszerre csak az egyik menjen de az mindig elsődleges legyen.
[ Szerkesztve ]
-
Enton
addikt
Illetve én úgy akarom a két monitort használni, hogy egyszerre csak az egyik menjen de az mindig elsődleges legyen.
Ehhez igazából semmi beállítás nem szükséges mert annyi a kunszt hogy nem szabad egyszerre bekapcsolva lenniük és semmi nyűg nincs belőle. Amelyik épp nem kell azt eleve off/standby és jónak kell lennie.
"mert gyakorlatilag megszámolhatatlan mennyiségű papucsállatka használ gazdatestként internetezésre humanoidokat és ez követhetetlen."
-
Joshi
titán
Amit a #37112-ben írtam az most úgy néz ki hogy működik. Viszont a szimulátoros monitort eleve áramtalanítani szoktam, remélem az nem kavar be. Illetve azért nem tudtam hogy most mi van, mert régebben amikor ilyesmit próbáltam eleve régebbi Winem volt és akkor még az NV Control Panelben kellett ezeket csinálni. Még egy minőségi USB kábelt is be kell szerezzek 15m-es hosszban, szerintem a Kácsa Audiósoktól rendelek egyet.
-
PROTRON
addikt
Sziasztok.
Ősszel végül feladtam a dilemmát egyéb okok miatt, de most újra előszedtem.
A helyzet hogy alapvetően nettó 350k-t szánok videókártyára(persze az áfa erre rárakódhat ha pl boltból veszem).
Végre a használt piacon most már nem csak egyesek gondolják úgy hogy 3090 kártyák max kb 350-370k körül érnek, hanem a többség, ennek oka a 4070 TI kártyák nettó árazása, ami néha 400k körüli.
A fő dilemmám hogy a nagyjából hasonló gpu teljesítmény miatt az újabbat vegyem-e a jobb fogyasztása okán, de ez a 192 bites data bus elrettent.
Tapasztalatból tudom hogy ami engem érint 3D modellezés terén nagyon nem mind1 a data bus, sem pedig az összesített memory bandwidth.
Ilyen szempontból még a 4080-as is gyengusz az én értékelésemben, pedig nyers gpu erőben jóval erősebb a 3090 Ti-nél, pedig azt is kapni 400-420k között.
Ez a DLSS 3.0 tényleg ennyire jó újítás, hogy megéri az új generáció? A fogyasztási adatok kecsegtetőek.Az új generációval kapcsolatban az is zavar hogy noha nem kötelező, ajánlott az új power szabvány használata, nekem meg 1000W-os platinum EVGA tápegységem van amit nem akarnék most cserélni. Továbbá az alaplapot sem tervezem cseréni, az meg PCIe gen 3.0, amihez van processzorom.
Szóval ki hogy látja jelenleg a piacot:
jobb hűtéssel szerelt 3090-esek megérik a 350k-t?
jobb hűtéssel szerelt 3090 TI-k megérik a 400-420k-t? Így is túl van árazva ha a sima 3090-hez képest nézzük a tényleges többlet teljesítményt.
Ugyanakkor a 4070 TI esetén ez a 192-es data bus kevés, megéri egyáltalán a nettó 400k-t?
A 4080 TI-t meg fogja kapni a 320 bites data bust? Továbbá ahhoz már feltétlen kelleni fog új tápegység, jól gondolom? Bár az árak miatt valszeg ez eleve kiesik, de kitudja...Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.
-
-
PROTRON
addikt
Köszi a választ.
Tehát 3090 Ti és 4070 TI közül hasonló árban az én felhasználásomhoz inkább a 3090 Ti-t javaslod a magasabb bus érték okán és hogy sem a magasabb nyers GPU erős sem a DLSS 3-al nem lennék előrébb. Vagy az is lehet hogy Ti nélkül.
A magasabb villanyszámlát majd a céges projektek kitermelik.Amúgy van VR szettem, néha előveszem játékhoz, de mivel a GTX 1070 már elég régi, így ehhez mérten a szett csak egy HTC Vive 1-es, ami szemenként csak 1080*1200pixelt tud.
Az újabb, nagyobb felbontású VR fejesek esetén vannak tapasztalatok VR játékokkal kapcsolatban a 3xxx vs 4xxx-es szériáról, tehát van értelme ilyen téren az újabb kártyát választani?
Azért is kérdezem, mert eddig munkához nem nagyon tudtam használni a kevés pixel szám miatt, de lehet hogy munkafelhasználás miatt a jövőben cserélésre kerül a VR fejes...Azt már korábban is láttam hogy a gen 3.0 határát már éppen átlépheti egy 3090 TI is, de ezzel a kompromisszummal még meg tudok békülni. Legalább is az hogy játékokban 1-2%-ot veszítek az nem érdekel, ha cserébe munka terén sem hagyok ott túl sok kihasználatlan kapacitást a kártyában. Ezért sem terveztem eredetileg 4xxx-es szériát venni ebbe a munkaállomásba.
[ Szerkesztve ]
Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.
-
Joshi
titán
válasz PROTRON #37118 üzenetére
Ha biztosra akarsz menni nézz teszteket különböző felhasználással. Nekem ma már nagyon kevésnek tűnik a 10-12GB vram, szóval én biztosan egy 3090-et vennék. Azt hiszem létezik 16GB-os 3080 is, de a tuti biztos a 3090 szerintem. Én 3090Ti-t biztosan nem vennék, max ha nagyon jó áron lenne.
A PCIE 4.0 még kell az nvme ssd-hez is, szóval gondolkodj el egy komplett konfig cserén is. Én az adatlapomon látható konfigot vettem használtan, most egy Ryzen félkonfigot egész jó áron lehet venni.
VR kérdésben itt érdeklődj.
[ Szerkesztve ]
-
-
PROTRON
addikt
Köszi.
A 3090 Ti-vel kapcsolatban oké hogy anno flagship volt, de ma már csak egy matematikai egyenlet, amiben az ár-érték a lényeg. Így elvérzik 420k összegekért amennyiért hirdetik.A PCIe 4.0 nem nagyon hat meg, igazából az SSD-k ilyen jellegű sebességét akárhogy keresem, semmi nekem fontos dolog nem használja ki.
Így a VGA az egyetlen kérdés, de ott sem érte még el azt a szintet hogy megérje a komplett gépcserét, egyszerűen nem tenne hozzá a jelenlegi PC géphasználati szokásaimhoz annyit ár-értékben. De köszi a javaslatot.[ Szerkesztve ]
Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.
-
PROTRON
addikt
Naja, nekem azért annál fiatalabb a konfig, egy x299-es 10940x, 4x8 gb ram quad channelben.
Igazából az alaplap tud 2 db 16x + 1 db 8x pcie sávot kiosztani a VGA-knak, ugye most már nem kell SLI híd, mert alaplapi szinten Nvidia driverrel tudja összegezni a számítási kapacitást.
Arról nem tehetek hogy a programozók lusták kihasználni a lehetőséget... :@
A terv továbbra is hogy a 3090 TI mellé majd idővel szerezni jóárasított további VGA-kat, valszeg 3080 TI elég lesz a 384 bites adat bus miatt, felette felesleges, mert nvlinket nem használnám ki tehát a + vga Vrammal nem mennék semmire.Persze 3 db VGA-nál már bőven kevés lesz az 1000W tápegység, valszeg már kettőnél is elfog fogyni a proci miatt, mivel az többet kér mint egy sima i9-es.
Ha meg zavarna hogy lassú az SSD, akkor a 4. PCIe slotba berakok 2xNVME pcie x8 adaptert és raid1-be beállítva ugyanott lennék. Így legalább ki is használnám a platformot, mert egyébként nincs ötletem milyen eszközök kérnek x1-nél többet pcie fronton, mert pl digitalizálás terén sincs igény ekkora sebességre, nem leszek streamer hogy avermedia 4k kártya kellene pciex4-el, legfőképpen mert 4k-n csak 60 fps-t tud felvenni.
[ Szerkesztve ]
Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.
-
PROTRON
addikt
Nem is játékok miatt akarom és nem SLI-be, hisz az már nincs.
Az nvidia control panel natívan kérdezi meg hogy mit csináljon ha érzékeli hogy több nvidia gpu van egy alaplapra kötve. Akkor az nvidia control panelben, oldalt a 3D beállítások alatt tudod lekérdezni a "Set Multi-GPU configuration" szekciót.
Van idehaza a gtx 1070-en kívül egy Quadro K620-am, kíváncsiságból bedugtam a 1070 melletti slotba és meg is jelentek az alábbi opciók:
"
Select the multi-GPU configuration
-Disable multi-GPU mode: This option causes all GPUs to run independently and lets you drive multiple displays on each GPU.
-Span display with Surround: This option lets you combine multiple displays to act as one larger display to allow a panoramic view of full-screen games or your desktop.
-Maximize 3D performance: This option, where possible, causes the GPUs to work together to increase rendering performance of 3D applications.
-Activate all displays: This option enables all available displays. If possible, multi-GPU rendering may still be enabled.
"
Éppenséggel működött, valamivel már nem tudom mivel le is teszteltem és tűrésmezőn kívüli volt a különbség.De mint ahogy írjátok (és én is megírtam) ehhez az is kéne hogy kevésbé legyenek lusták a szoftverfejlesztők.
Pl vannak VR fejszettek amik már 8K-t tudnak és rendesen meg is telítik egy 3090 Vramját, amivel párhuzamosan pont az a gond hogy kevés az igazán meggyőzően jó minőségű és hasznos tartalom VR-ra.
Aminek oka az is hogy nem hajtják ki az ökoszisztémával a kártyát, pl HP reverb G2 is szemenként csak 2160x2160 pixelt tud, miközben a 3090 ugye maxon 7680x4320-at is bírna.Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.
-
PROTRON
addikt
-
TheProb
veterán
Amit a gyerek itt mutogat az korrekt? Mert amiket eddig néztem AF UV guide-okat, ott tök máshogy csinálták. Pl.:
1. Srác felnyomja csutkára a Power és temp limit csúszkát.
2. Settings alatt bekapcsolja az unlock voltage ctrl és monitoring box-okat.
3. A voltage csúszkával viszi le a curve-öt. Gondolom ez csak egy másik megoldás, a lényege ugyan az.
4. Voltage curve finomhangolás után ráver a RAM clock-ra +1k-t.Mivel az 1,2,4-es pontokat nála láttam először, így kérdezném, hogy ezeket meg kell csinálni vagy ez opcionális, netán full baromság?
CP77 alatt crash-el a játék (érdekes módon sem másik játék, sem furmark, sem TimeSpy alatt nem) ~2000MHz@950mV-nál. ~1950@950mV-nál már mondhati jó. Ez most azt jelenti, hogy a CP77 esetleg "érzékenyebb" és könnyebben összeomlik? Vagy esetleg egy furmark/TimeSpy test nem ad 100%-os képet az UV stabilitását illetően?
"Boba is Mickey, Mickey is Boba" - Finkle Einhorn | PC Rig: https://pcpartpicker.com/b/bBy48d
-
szabeska
addikt
válasz TheProb #37132 üzenetére
Nalam 2 teszt valt be: 3dMark Speedway es Metro Exodus Enhanced Edition benchmark. Volt amikor 30 perc utan, de crashelt egyik vagy masik. Miutan egy ora elteltevel sem fagyott ki egyik sem, minden stabilan fut. Vicces, a Speedwayt amikor telepitettem megjeleneskor, 1 kor se futott le vele, szoval valami nem volt jo, amire addig azt hittem hogy igen Ha valami, akkor ez a bench jo stabilitas tesztre 40-50 koros loopban.
[ Szerkesztve ]
F1
-
FingR86
őstag
válasz szabeska #37133 üzenetére
nálam amikor kb minden játék meg benchmark futott stabilan, pár kör cold war ki tudta fektetni az UV-t, akkor jöttem rá, hogy mégsem olyan stabil pedig érdekes mert a cold war UV mellett olyan 260-270W körül kajál max. Minden más újabb játék meg UV mellett is 300W felett. Azt gondolná az ember, hogy hamarabb behasal amikor többet zabál.
[ Szerkesztve ]
-
- = Zk = -
félisten
mi is az az UV?!
" Persze, ha elég ideig torzítasz egy "nézőpontot" akkor előbb-utóbb találsz hozzá igazságot. " , "A minőséget meg kell fizetni,minden másra ott az AMD!!! " " Pontosan. Különben is, akkor jó, ha nekünk jó. Ha mindenkinek jó, abban mi a jó" by Zebra
-
Laraxior
titán
válasz - = Zk = - #37136 üzenetére
Ami a drága VGAdból egy olcsóbb vackot csinál
4090-ből 3080Ti lesz
3080Ti-ből lesz a 3080
UVs 3080-ból meg egy stabil 3070Ti..talán."Mi a hazugság ára? A legnagyobb veszély nem az, hogy elhisszük, hanem az, hogy ha rendszeresen hazugságokat hallunk, akkor már egyáltalán fel sem ismerjük az igazságot. S akkor mit tehetünk? Mi mást tehetnénk, hogy lemondunk még a valóságnak a reményéről is és egyszerűen beérjük történetekkel."
-
- = Zk = -
félisten
komolyan nem tudom, nem figyelem annyira a topikot
" Persze, ha elég ideig torzítasz egy "nézőpontot" akkor előbb-utóbb találsz hozzá igazságot. " , "A minőséget meg kell fizetni,minden másra ott az AMD!!! " " Pontosan. Különben is, akkor jó, ha nekünk jó. Ha mindenkinek jó, abban mi a jó" by Zebra
-
rumkola
veterán
válasz - = Zk = - #37139 üzenetére
UnderVolt, downclock, powerlimit beállítás, kissebb órajel kevesebb fesszel, magasabb órajel a gyárinál kevesebb fesszel, ilyesmi.
[ Szerkesztve ]
-
FingR86
őstag
válasz - = Zk = - #37139 üzenetére
esetemben közel a gyári teljesítmény alacsonyabb fogyasztással és hőtermeléssel.
-
laychi
veterán
válasz - = Zk = - #37139 üzenetére
-
- = Zk = -
félisten
jaaa, jajaja
MSI AB asszem ilyet csinált, miután lecseréltem a gyári hűtést egy G12re, aztán egy ACE4-re.... memón is és az órajelen is tuningolt "óvatosba"... aztán lehet nagyon nem ilyet... fene tudja mit mókol a gép nekemköszönöm btw
[ Szerkesztve ]
" Persze, ha elég ideig torzítasz egy "nézőpontot" akkor előbb-utóbb találsz hozzá igazságot. " , "A minőséget meg kell fizetni,minden másra ott az AMD!!! " " Pontosan. Különben is, akkor jó, ha nekünk jó. Ha mindenkinek jó, abban mi a jó" by Zebra
-
Garsza
veterán
Igazából feleslegesek is a tesztelgetések. Mindenkinek azzal legyen stabil amivel játszik. Egyébkén a Coldvarral nekem is kibukott a stabilnak hitt beállítás.
-
Maelephant
aktív tag
Ugyan 3070-en (ezért elnézést is kérek, hogy nem a megfelelő topicba írok, de probléma ugyanaz) a RE: Village utolsó bossfightja (zsinórban fagyás ötször, miközben a teljes játék oké volt, igen, eddig tartott, míg leesett, mi lehet a gond) mutatott rá, hogy csak képzeltem, hogy stabil az UV-om. Meg kellett emelni egy v. két lépcsővel a feszt, utána nem dobta el magát többé.
[ Szerkesztve ]
-
s.bala31
őstag
válasz Maelephant #37145 üzenetére
Csinálni kell több profilt úgy gyorsabb váltani ha valami nem stabil. Nekem a Metro E.e.e.-re is van külön, mert az tényleg nagyon érzékeny az u.v-ra.
-
insyde5
aktív tag
Üdv!
Tudnátok segíteni abban, hogy egy FTW3 ULTRA GAMING 12GB kártyát PX1 el hogyan tudnám undervoltolni?Köszi.
-
insyde5
aktív tag
válasz Találtgyerek #37148 üzenetére
Ventiket és a színeket a px1ben állítottam. A színek alatt annyit kell érteni, hogy a legkisebb leden a höfokot tudom ellenörizni. ezért kellene egy jó konfig a px1 ben. Gondolom ha MSIvel csinálom a PX et el is kell felejteni, mert összevesznek.
Új hozzászólás Aktív témák
- SSD kibeszélő
- Világ Ninjái és Kódfejtői, egyesüljetek!
- Helldivers 2 (PC, PS5)
- Modern monitorokra köthető 3dfx Voodoo kártya a fészerből
- Mini-ITX
- Ez a mondat angolul?
- Redmi Note 13 Pro 5G - nem százas, kétszázas!
- iPhone topik
- DVB-T, DVB-S (2), DVB-C eszközök
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- További aktív témák...
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- Gainward Phoenix RTX3080
- Eladó ASUS GeForce GTX 1660 Super 6GB Phoenix videokártya (PH-GTX1660S-6G)
- Gigabyte RTX 4060TI OC Windforce bontatlan 36 Hó gari
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen