Keresés

Új hozzászólás Aktív témák

  • 1dude

    aktív tag

    válasz tamikomac #41 üzenetére

    Ha nem ugyan úgy tesztelnék (vagy nagyon hasonló HW -el), nem tudnák a többivel összehasonlitani.

    R7 5800X is lehet mellette, főleg ha munkagépbe megy.

  • Kansas

    addikt

    válasz tamikomac #45 üzenetére

    Szerintem az RDNA2-es Rembrandt-okra gondolt(pl. 6800H/6800U), laptopokban már elérhetőek és ősszel jönnek desktopra is(meg USFF PC-kbe). DDR5 mellett még memóriasávszél gondjuk is kevésbé lesz, és amennyibe egy 1630 vagy RX6400 kerül(a 6800-ak ez utóbbi szintjén vannak CU-számban) annyival kipótolva meg is tudod venni őket és sokkal kompaktabb, kevesebbet fogyasztó gépet kapsz. Persze ha csak GPU kell... akkor is jobban jársz egy 1650-nel.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • AlphaLionX

    csendes tag

    válasz tamikomac #41 üzenetére

    Azért tesztelik a videokártyákat egy felső kategóriás processzorral, hogy ne legyen bottleneck, mert akkor értelmét veszti a benchmark. Ugyanígy célszerű nem változtatni semmit a konfigban, kizárólag azt, amit épp tesztelsz, vagyis a GPU-t. A lenti példákat hasraütésre írtam, nem feltétlen tükrözik a valóságot, de az elméleti megértéséhez ez is elég

    Vegyünk mondjuk egy i5-8100-at, ami mellett tesztelsz egy GTX 1630-at, egy RX 6700 XT-t és egy RTX 3090-et. A teszt eredménye a következő: A 1630 a legharmatosabb, viszont a többi GPU egyformán teljesít, mert a proci nem tud többet kihozni belőle. Ezt azt jelenti, hogy a 3090 ugyanannyit tud, mint egy 6700? Nem, csak az adott konfigból nem derül ki a különbség a kettő között

    Fordítva ugyanez a helyzet, ha procikat tesztelsz egy GTX 1060-nal, akkor a legtöbb mai CPU kb. ugyanazt fogja mutatni játékokban, mert a 1060 nem képes többre, miközben a proci ott ül mondjuk 10% kihasználtság mellett. De ettől messze nem lesz egy liga a 3300X és egy 12900K annak ellenére, hogy az említett konfigban egyforma teljesítményt nyújtanak egy GTX 1060 mellett. Csak egyformának tűnnek, mert egy tőlük független összetevő korlátozza a teljesítményt, tehát értelmetlen a benchmark

    Ezekben mindig az adott komponenst teljesítményét mérjük a többihez képest, hogy valami kézzel fogható adatot kapjunk arról, hogy melyik jobb vétel az adott áron vagy felhasználásra. Ennek hiányában maximum az árak és a nevek maradnak, arra támaszkodni meg sok sikert igazából. Ezek nem arra hivatottak, hogy "pont egy 5800X-et fogok a 1630 mellé tenni és akkor ezt fogja tudni", hanem hogy kizárólag a videokártya teljesítményét nézzük a többihez képest, miközben a gép többi része érintetlen marad, hogy minél kevesebb tényező befolyásolja az eredményt

    Pld. egy i5-9400 +GTX 1630 az egyik tesztgépben, a másikban egy Ryzen 5600 +6600 XT, a harmadikban pedig egy 12700K +6800 XT. Az eredmény az, hogy a drágább gép sokkal jobb, duh. Ezt bárki meg tudja azonnal mondani, a teljesítménybeli különbség a felhasznált GPU-k között pedig nem összevethető, mivel a konfig többi része is teljesen más. Képzeld azt, hogy van két sportautó, mindkettő egymástól eltérő pályán megy egy kört, amit mérünk. A Ferrari megtett az X versenypályán egy kört 1:20 alatt, a Lambo pedig az Y pályát 1:43 alatt. De a két pálya teljesen más: eltérő hossz, más kanyarok stb. És most próbáld meg összevetni a kettőt, semmi értelme nincs mert nem egyező körülmények között ment a két autó, így a teszt teljesen haszontalan. Ha egy teszem azt drag race-en mennek egymás mellett és úgy derül ki, hogy a Lambo 3 másodperccel lassabb, az már használható eredmény, minden más kuka és időpazarlás

    Egy dologban egyet kell értsek, mégpedig az UHD benchmark. Annak tényleg semmi értelme egy 1630-on és hasonlóan hulladék kártyákon szerintem. Még 1080-ban is siralmas, az afölötti teljesítmény szerintem senkit nem érdekel. Egy közép vagy felső kategóriás kártyánál megértem, főleg hogy az NVIDIA ebben a generációban átlagban jobban teljesít magasabb felbontáson, így ott érdekes lehet látni, hogy alakulnak a számok még akkor is, ha senki nem fog egy 3060-at 4K AAA játékokban használni. De egy "BeLéPő" szintű kártyánál ez mire jó, azt tényleg nem tudom

  • Kansas

    addikt

    válasz tamikomac #101 üzenetére

    Akkor téged nem VGA-teszt érdekel, hanem egy olyan CPU-VGA párválasztó, mint amilyet régebben többször is csinált a PH... de az elmúlt évtizedben valamiért felhagytak vele.
    A Ryzen 3 4100-ból pedig nem vették ki a PCIe v4 támogatást, hanem soha nem volt benne, mert az egy IGP-nélküli Ryzen 3 4300G, amiről azt kell tudni, hogy AM4-es APU-ként nem chipletes hanem monolitikus chip, valamint egyik APU sem támogatja a PCIe v4-et(az Zen3-as 5x00G-k sem), így nyilván a belőlük "IGP-tlenítéssel" készült CPU-k sem.
    Az RX6400 pedig PCIe v3-ba rakva is üti a GTX1630-at...
    PCIe v2-be pedig új VGA-t egyik gyártótól se javasolt rakni...

    p.s.: B550-es lapot mATX méretben már 20-25e áron lehet kapni(OK, a választék nem nagy)... pl. MSI-től

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Új hozzászólás Aktív témák