Új hozzászólás Aktív témák

  • Robitrix

    senior tag

    válasz tasiadam #96 üzenetére

    Persze az élet azért nem csak játék programból áll. Mint ahogy arra sincsen garancia, hogy a játék programok megmaradnak a ma a szokásos tipikus 4-6 mag igénynél. Ne felejtsük el, hogy az új konzolok már 8/16-os procival rendelkeznek. Ráadásul egy eleve ZEN 2-es Ryzen származékkal. Ami talán leginkább a Ryzen 7 3700X-hez áll a legközelebb. És ha mátr ott a müszaki lehetőség a konzol játék fejlesztök elött arra, hogy túl lépjenek az eddig korláton a régi konzolok 2*4 magján és nyújtozhatnak feljebb 16 párhuzamos szálig, akkor lesz, amikor élnek vele és talán ha tudnak alkotnak 10-12-14 vagy akár 16 szálon futó játékokat. Azt is tudjuk, hogy a sikeres konzol játékok gyakran megjelenek PC-re is(és forditva) Így amikor visszaportolják a nagyjából kompatibilis PC-re a konzol játékokat várható, hogy a PC változat is simán kér 10-12 szálat a futáshoz. Mivel a PC-k esetében is folymatosan nővekszik az átlagos mag és szál szám ennek nem lesz akadálya. VAgyis szerintem simán várható, hogy jelennek meg olyan játékok a jövöben amik nagyobb mag és szál számat használnak egy PC-n Biztos, hogy nem fogják logikailag áttervezni az egész programot mondjuk 6 magra. Az sokkal több logikai munkát igényel. A sok munka meg idő és pénz. És nyilván egy játék fejlesztő igyekezne minnél gyorsabban és olcsóban megoldani a dolgot. Én várokm a következő 1-3 évben játék fronton némi mag és szál szám növekedést átlagosan. Ha ott a hardver kéznél, akkor ostobaság volna nem használni teljesítményben. Ilyen szempontból jobb választásnak tünik egy nagyobb teljesítményű Ryzen proci sok mag és szál mellet. Aztán, hogy meddig szabadulnak el a fejlesztök a következő években majd meglátjuk. Azért az elmúlt 20-30év azt a tapasztalatot adja, hogy igyekeznek követni egy adott kor hardver teljesítményét. Mind grafikában, mind CPU-ban. A konzolok új teljesítményei minden képpen emelni fog a következő évek teljesítmény igényén szerintem. Mint ahogy egyre gyakrabban karcsú már egy játékhoz egy 4 magos proci vagy egy régi 4/8-as néha már egy 6/6-os is

  • tasiadam

    veterán

    válasz Robitrix #101 üzenetére

    Ezért is van 2700X-em, meg olcsón is jutottam hozzá, de szeretnék olyan CPU-t rakni a 3060 mellé ami ki is tudja rendesen tekerni, de legalább 8 maggal. Ekkor jött hogy 11700(K), vagy 5800X a delikvens. Úgyhogy az 5800x lesz a hunyó, csak még minbdig sokallom, És remélem nem lesz olyan hatalmas változás az alder és AM5 részéről, hogy jóformán 2 gen után megint gyenge lesz a CPU. Viszont az megnyugtat, hogy 3000 nvidia super az 2022-2023 környékén lesz, aztán az Ada Lovelace kártyák meg mintha 2024ben rémlenének. Szóval 3-4 évig simán ki lehet húzni 1 konfiggal most anélkül, hogy a CPU kevés lenne a kártyának.

    Gyermektelen, nem házas, másodrangú állampolgár

  • martonx

    veterán

    válasz tasiadam #102 üzenetére

    A játékok gép igénye leginkább a konzolok 7-8 éves életciklusának fordulójakor ugrik meg, mert hirtelen nyugodtabban lehet erősebb vasra fejleszteni.
    Azaz most pont egy ilyen ciklus fordulóban vagyunk, azaz ha mostanában veszel naprakész hardvert, akkor azzal kis túlzással, de az elkövetkező jó pár évben jó vagy.
    Ellenben ha mondjuk pont 1-2 évvel egy ilyen ciklus váltáskor vásároltál be, akkor kb. 3 éven belül dobhatod is ki, amid van.

    Az új konzolokban Ryzen 3700x-hez hasonló proci van, és egy RX 6600 szerű GPU. Szóval az elkövetkező években ezeket a speciket kell megugrani, és akkor jó vagy (nyilván PC jóval optimalizálatlanabb, mint egy konzol).

    Azaz szerintem egy Ryzen 5800x + RTX 3060-al jó darabig jó leszel. A GPU hamarabb lesz kevés, mint a CPU szerintem.

    Én kérek elnézést!

  • Robitrix

    senior tag

    válasz dokanin #100 üzenetére

    Ennek az lehet az oka, hogy maga a fordító program talán beéri 5(jelen esetben 5 szál) magnyi teljesítménnyel. Erre az okos erőforrás ütemező a fogja mondjuk az első mag egyik szálát, a másik szálát és fogja a 4-es mag 1-es és 2-es szálát ezzel már akkor fut egy időszeletnyit 2 magon 4 szál. aztán valahová el akarja rakni futni az 5. szálat. Igen ám de mondjuk adott esetben nem talál olyan magot, ahol szabad mind a két szál. Egy gépben azért adott pillanatban sok tucat folyamat fut akár több száz szállal. (vagy akár több ezerrel) Viszont nem fogja a forditás 5. szálát összerakni egy magon egy másik alkalmazás másik szálával. Lévén, hogy a közös gyorsítótárba ne keveredjenek az eltérő alkalmazások adatai és programutasításai. Mivel adott pilanatban nincsen neki olyan mag, ahol van két szabad szál. Közben persze futnak a párhuzamosan az rendszer és más alkalmazások folymatai, amik szintén magokat és szálakat igényelnek. Na puff neki nem tudom rátenni egy szabad mag egyik szálára az 5. szálat hát dráma nincsen akkor az 5 szál ki fog hagyni egy időszeltnyi futást. Ismét teljesitmény veszteség. A vége az a dolognak, hogy a 2 magon futó 4 szál persze nem 4 magnyi teljesítményt ad, hanem kb. 2*160%-ot néha meg akár 140-150%-ot ad csak vagyis simán lehet, hogy csak 2,6 magnyi 4 mag helyett a teljesítmény. Ha eehez hozzá jön az adott pillanatban nem elinduló 5. szál simán megkapod szálasított procin a 9 másodpercnyi veszteséget. A szálasításnak amúgy akkor van értelme, ha sok magra van szükségünk. de persze mindig olcsóbb olyan procit gyártani, amiben bizonyos logikai és aritmetikai részek meg vannak duplázva a magban és a regiszter készlet is dupla. A gyorsitótárakból viszont egy van. Olcsóbb és egyszerűbb lesz a proci mintha minden magból teljes értékű van benne. A 8 mag 16 szálas proci egyszerűbb és kevesebb transziztorból, kondenzátorból kapuáramkörből és hasonlókból áll, mint egy 16 teljes értékű magot tartalmazó proci. Gyakorlatilag egy olcsóbb egyszerűbb kivitellel szimuláljuk, mintha nekünk egy dupla annyi magos procink volna. A 8 magos proci teljesítménye mondjuk 800%(nem teljesen igaz de elvben hagyjuk rá) a 8/16-os proci meg megfelel nagyjából 12-13 magnyi teljesítménynek. Már pedig az 1300% több, mint a 800% De ez a hatás csak akkor évényesül ha olyan program fut a procin, ami belecsap a lecsóban és használja a minnél nagyobb mag és szál számot. Ezért is értelmetlen játékokat futatni nagy teljesítményű procikon és úgy mérni a teljesítmény. Mondjuk egy 12/24-es 3900X/5900X vagy egy 16/32-es 3950x/5950X Aztán csodálkoznak hogy a háromszor annyiba kerülő procin se igazán gyorsabb a dolog. Tök hasonlóan fut rajta a 4 magot igénylő játék. Persze azért számít az egymagon nyujtott teljesitmény.

  • Robitrix

    senior tag

    válasz tasiadam #102 üzenetére

    azért egy rtx 3060-ast simán kihajt egy 2700X egy RTX 3060-as teljesítménye nagyjából ott van a rtx 2080 (TI nélkül) környékén. Persze a régebbi procik már összeszednek némi magonkénti teljesítmény hátrányt az újakkal szemben, de jelenleg még a 2700X jól lboldogul minden grafikával.

  • sb

    veterán

    válasz dokanin #92 üzenetére

    Te még mindig olyan paradigmákból indulsz ki amiről nem lesz szó a fejlesztési irányokban.
    Sőt már ma sincs nagyon sokszor.

    Nem tudom milyen kódot írsz, de ha render/szimuláció/bányász sw akkor értem. Minden más esetben nem ez a preferencia szerintem amit írsz.
    Nem nagy teljesítménye hangolt algoritmust kódolnak 100%-os terhelésre hw-gyenge környezetbe.

    Nézz szét most mennyi sw, de főleg mennyi folyamat fut egy x86-on a háttérben. Ezek a hétköznapi feladatok. Ezek egyike sem arról szól, hogy 4-8-16 magot fullra terhel és órákig várjuk a futás eredményét. Arról szól az sw-k 99%-a, hogy fut a háttérben és valamit pötyög.
    Ettől még lehet önmagában teljesítménycentrikus, lehet, hogy amire kell ott gpu-t használ, vagy mostanság akár vmi neurális hálót, akár hw gyorsítással. De akkor sem konstans 100% terhelést ad hosszú ideig.

    Innentől ma sem él az szvsz amit írsz, hogy egy programnak csak az a feladata, hogy "lefusson" a lehető leggyorsabban mert nincs elég erőforrás és legszívesebben 2-4x annyi hw-t tennél alá.

    És erre tesz rá még 1-2 lapáttal a mobil-ultramobil ág, ahol:
    1. Hatványozottan számít az akksi miatt a felhasznált energia minimalizálása.
    2. A rendszer/os is sokkal inkább el van tolódva a párhuzamosan futó sok folyamat felé még az x86-hoz képest is.
    És itt is efelé megyünk úgy, hogy már ma sem az "egy algoritmus fut a gépen aminek várjuk pár nap múlva az eredményét, a köv. prímszámot".

    És még egy megközelítés a fenti mellé: mi van a grafikával és a dedikált hw-ivel? A cpu/sw rendert 2 évtizede elhagytuk pedig ott is ugyanez volt, x86 kód kuka és teljesen újat kellett írni kényelmetlenül.
    Mi van a többi, hasonló spec ággal? Van DXVA és egyéb video encode gyorsítás gpu-n vagy fixfunkcióson. Gyk. ma se nagyon lenne filmnézés ezek nélkül. Van egyéb gpu hw gyorsítás akár böngészőben. De nagyobb rendszerben gondolkodva most Apple M1-en is "megérte" külön gyorsítani ezt-azt. Lassan jönnek az új slágerhez is a hw-s gyorsítók a neurális hálókhoz.
    A te gondolatmeneteddel itt is lehetett volna bármelyikre azt mondani, hogy 10-50x Gflops kéne az akkori cpu-khoz képest, tessék a 10-100x annyi magot/hw-t prezentálni kedves gyártók. Most annyi változott, hogy nem a hw kevés hanem több a lehetőség és van tér lefelé menni sw-ben egyéb előnyök (akku, mobilitás, méret, hűtés, always online, multitasking működés) miatt.

    [ Szerkesztve ]

  • Robitrix

    senior tag

    válasz tasiadam #102 üzenetére

    Amúgy nem vagyok arról meggyőződve, hogy egy AM 5 vagy egy DDR 5 memória hoz annyit teljesítményben, mint amennyivel többe fog kerülni. :) Nézd meg a PCI 3.0 és a PCI 4.0 különbségét. Tegye fel a kezét, aki érzi azt a hatalmas különbséget egy PCI 3-as és egy PCI 4-es kártya közt, amennyit elvben a specifikáció jelent.

  • tasiadam

    veterán

    válasz Robitrix #105 üzenetére

    a 3060 inkább 2070-2060s mint 2080. A 3060Ti-ra érvényes a 2080 erő. Ez annyira nem jó. A CPU elég, igen, de hagy benne némi erőt, azt előbb utóbb ki kell belőle kaparnom

    Gyermektelen, nem házas, másodrangú állampolgár

  • Robitrix

    senior tag

    válasz martonx #103 üzenetére

    Egyértelműen gyorsabban avul a GPU, mint a CPU. Én is terveztem idénre már egy grafika cserét. Ami a mai árak mellett nem tünik realitásnak. De általában ha veszek egy használható gépet, akkor elöbb kerül cserére benne a grafika,mint a CPU. A játékok grafikia igénye gyorsabban növekszik, mint a CPU igény.

  • Robitrix

    senior tag

    válasz tasiadam #108 üzenetére

    igazad van a sima RTX 3060 egy picivel a rtx 2060 super felett van. egy árnyalattal. Egy 2070 superrel simán ellennék a következő 2-3 évben. :) A sima rtx 3060-nért kicsit sok az induló 250-260 ezer körüli ár....

  • tasiadam

    veterán

    válasz Robitrix #110 üzenetére

    relative 170ért vettem, 70ért vásárolt majd 170ért eladott 1660S + 100k volt az ára

    Gyermektelen, nem házas, másodrangú állampolgár

  • dokanin

    aktív tag

    válasz sb #106 üzenetére

    Szerintem amikor a több mag kihasználásáról van szó a legtöbben mindig a hosszan tartó folyamatokra gondolnak, pedig üzleti alkalmazásokban is marha jól lehet használni rövid ideig tartó eseménykezelőkben is. Ha azt a rövid jellemzően 1-2 másodperces műveletet sikerül párhuzamosítani és ezáltal tizedmásodpercekre rövidíteni a válaszidőt, hatalmas ugrásnak fogja érezni az ügyfél, annak ellenére is, hogy a procija az idő 99%-ában malmozik. Szóval simán megéri ilyenkor is a többmagos procit választani.

  • opr

    veterán

    válasz dokanin #112 üzenetére

    Ez nagyon így van, minden szavaddal egyetértek.

    "Programozó vagyok. Ez azt jelenti, hogy amit leírok, megtörténik." :D “The only valid measurement of code quality is What-The-F**ks/Minute.” - Robert Martin

  • sb

    veterán

    válasz dokanin #112 üzenetére

    Ezzel egyetértek de nem hiszem, hogy ez jellemző.
    Számításigényes feladatokra kellhet ennyi extra és erős mag. Mi az ami UX folyamat/esemény része (gyk. nem számítás/szimuláció) és nem kéne elfutnia 1db magon ami önmagában mips/gflops szinten irdatlan teljesítményre képes?*

    Ill. ha erre is van szükség, akkor sem nagyon lehet a másik oldalát figyelmen kívül hagyni. A maradék időben jó lenne egy energiahatékony architektúra ami a 0.1s burst-ökön kívül az erre fenntartott 16-32 magjával idle-ben is tud valami kezdeni a fogyasztással. :)

    És végül visszakanyarodva a fő érvhez: még mindig onnan indulok ki, hogy sokkal inkább van szükség háttérben futó folyamatokra mint 1-2 éppen UX-en aktív dologra (ennél többet nem nyomkod senki mert a szeme/keze lesz a limit). A háttérben viszont még mindig több 100 folyamat futhat, de ami user szempontból felfogható abból is 10-es nagyságrend.

    *Kivéve a saját korábbi példámat hozva: Ha a chatprogramban az épp bepötyögött emojikat is neurális háló animálja majd 1.5TFlops számítási kapacitással. :D De ennek meg olyna ára van, hogy csak akkor jutunk el ide, ha "ingyen" lesz a mai 1.5TFlops árához képest:
    1. A hw aminek ennyi szabad kapacitása van ilyen f*szságokra.
    2. A fogyasztás, mert ezzel együtt is 2 hétig elmegy töltés nélkül. :D
    3. És a fejlesztő (team) bérét is elbírja akik 2 hónapig kódolják a gfx-et és 3 hónapig trainingelik a hálót. :D És ennek mind visszajön az ára a kedves chatelő userektől. :DDD

    Ide asszem akkor jutunk el, ha az Mi írja a kódot és tervezi a chipet is.

  • ricsi99

    addikt

    válasz sb #114 üzenetére

    " Mi az ami UX folyamat/esemény része (gyk. nem számítás/szimuláció) és nem kéne elfutnia 1db magon ami önmagában mips/gflops szinten irdatlan teljesítményre képes?*"

    Windows frissités.... :))

    Egy Gyűrű mind fölött, Egy Gyűrű kegyetlen, Egy a sötétbe zár, bilincs az Egyetlen...

  • dokanin

    aktív tag

    válasz sb #114 üzenetére

    "Számításigényes feladatokra kellhet ennyi extra és erős mag. Mi az ami UX folyamat/esemény része (gyk. nem számítás/szimuláció) és nem kéne elfutnia 1db magon ami önmagában mips/gflops szinten irdatlan teljesítményre képes?*"

    Hát én speciel nagyjából csak a Visual Studioban dolgozom és ott bizonyos műveletekkel el tud bíbelődni egy darabig és látható egyébként, hogy bizonyos műveleteket egy szálon old, meg míg másokat már optimalizáltak és több szálon fut. Pl a build az ilyen. De a bulid során is tökre jól látszik (legalábbis az én gépemen ryzen 2700), hogy még az SMT is tök negatívan befolyásolja a folyamatot. Amin most dolgozom solution smt nélkül 30 sec alatt végez, SMT-vel 40. Szerintem ha kicsi magok is keverednének ebbe a folyamatba ugyanígy csökkenne a hatékonyság, mivel a párhuzamosított folyamatoknak időnként mindenképp be kell várniuk egymást és ha belekeveredik valahogy egy lassabb szál a sok erős közé elvész az előny, mert ilyenkor a leggyengébbre vár a többi erős.
    Abban egyébként teljesen igazad van, hogy az aktív szálaknak kb 99,9%-a háttérfolyamat, de szerintem ezek kiszolgálása még mindig sokkal kedvezőbb egyforma magokon. Persze ha nem veszem figyelembe a fogyasztást, de engem az személyesen egyáltalán nem érint jelenleg.

Új hozzászólás Aktív témák