Keresés

Új hozzászólás Aktív témák

  • fatpingvin

    őstag

    ez annyira azért nem lep meg, figyelembe véve hogy az ARM dizájnok mekkorát mentek ezzel, illetve hogy az Intelnek már így is viszonylag régi rutinja van a műfajban: 2010-es évek eleje óta van egy beágyazott ARC/Quark processzormagra épülő hardveres rootkit a cuccaikban, IME néven ismeri az ipar. az újítás itt most csak az lesz hogy ezt a koncepciót a júzer számára is elérhetővé teszik, a rootkit persze marad ;]

    az jutott még eszembe, ezzel a sztorival talán még úgy lehetne nagyobbat dobni, ha a kicsi és a nagy magkomplexek esetleg tudnának olyat, hogy külön memóriaterületet foglalnak le maguknak, kicsit hasonlóan az iGPU megoldásaihoz. így lehetne pl a virtualizáció szeparációján erősíteni, vagy akár direkt virtualizáció nélkül párhuzamosan két kernelt futtatni ugyanazon a vason. ARM-en emlékszem megoldható, bár igaz az sokkal transzparensebb (jómúltkor olvastam egy cikket arról, hogy egy fószer szimultán futtatott OpenBSD-t meg VXW-t valami big.LITTLE ARM SoC-on, virtualizáció nélkül, kis magokon VXW, nagyokon BSD.)

    [ Szerkesztve ]

    A tipikus munkafolyamat legjobb tesztszimulációja a tipikus munkafolyamat. A "napi anti-corporate hsz"-ok felelőse :)

  • fatpingvin

    őstag

    válasz hallador #5 üzenetére

    az AMD PSP-je hasonló egy ARM maggal, bár ott a funkcionalitás még egész jól értelmezhető a rootkit funkcionalitás feltételezése nélkül is (memória inicializáció, device tree detection, satöbbi) mert pl önmagában nincs benne network stack.

    x86 fronton talán a VIA és a Zhaoxin az egyedüli ahol nincs beágyazottt koprocesszor (nem tudom részletesen, ők ugye nem arról híresek hogy részletesen dokumentálnák ezeket), ott viszont számomra a VIA AIS (alternative instruction set) az ami kifejezetten aggasztó: egy megfelelő utasítással a processzor utasításdekódere átkapcsol egy másik utasításkészlet használatára, ráadásul a bytecode-ok között van átfedés. ha akarsz erről olvasni, [link]

    [ Szerkesztve ]

    A tipikus munkafolyamat legjobb tesztszimulációja a tipikus munkafolyamat. A "napi anti-corporate hsz"-ok felelőse :)

  • fatpingvin

    őstag

    válasz GoldhandRent #20 üzenetére

    mert akármilyen hihetetlen, igen sok olyan célfeladat létezik, amihez nem kell nagy számítási teljesítmény, viszont folyamatos execution igen. és akárhogy nézem, egy nagy mag márcsak felépítéséből adódóan sem tud feltétlenül minden részegységet lekapcsolni amit nem használ. Most egy eklatáns példa jut eszembe erre: hálózati forgalom manageléséhez leginkább integer műveletek kellenek, lebegőpontos algebra nem. na most egy olyan nagy mag amiben a lebegőpontos részegység folyamatösan megy, ott hiába veszed le az órajelet, ha ez a rész üresen is fogyasztja az áramot.

    A tipikus munkafolyamat legjobb tesztszimulációja a tipikus munkafolyamat. A "napi anti-corporate hsz"-ok felelőse :)

  • fatpingvin

    őstag

    válasz Chiller #23 üzenetére

    ha a PS3-ra gondolsz (abban volt a Cell), az éppen hogy egy kifejezetten jó irány volt, igazából most az Apple M1 lapkája is ezért tud ennyire energiahatékony lenni valós életben nézett felhasználáson, mert van benne egy csomó kvázi koprocesszor (a Cell lapkában ezek voltak a SPE-k) amiknek le lehet osztani viszonylag fix elemi műveletek láncából álló, de nagy számítási teljesítményt igénylő feladatokat, ahogy a Cell prociban is a SPE-k gyorsították a különféle vektor- és mátrixműveleteket, nem pedig maguk a PowerPC magok, azok aszsem csak az AltiVec lebegőpontos kiterjesztést tudták önmagukban, aztán mégis csak PS3-akból rakták össze a Condor clustert, mert a SPE-k remekül tudtak mátrixműveleteket is gyorsítani.

    a koncepciót erősen tovább is vitték, nézd meg mondjuk egy mostani csúcs x86 proci is leginkább azzal dob nagyot, hogy ki van bővítve egy csomó olyan részegységgel amik önmagukban lényegében ASIC-ek, de az utasításdekóder le tudja nekik osztani azokat a dolgokat amiket nyers erőből igencsak költséges lenne számolni (ide tartozik pl az AVX, a különböző médiakodekek, satöbbi...)

    [ Szerkesztve ]

    A tipikus munkafolyamat legjobb tesztszimulációja a tipikus munkafolyamat. A "napi anti-corporate hsz"-ok felelőse :)

  • fatpingvin

    őstag

    válasz Dr. Akula #51 üzenetére

    ez is csak azon múlik, hogy a célfeladat mit követel meg. ha van változatosság a piacon, felőlem lehet olyan dizájn is hogy van benne 12 Atom mag meg két HT-képes, bikább Core. vicces módon simán el tudom képzelni hogy ez hova férne el.

    [ Szerkesztve ]

    A tipikus munkafolyamat legjobb tesztszimulációja a tipikus munkafolyamat. A "napi anti-corporate hsz"-ok felelőse :)

  • fatpingvin

    őstag

    válasz ShiTmano #71 üzenetére

    azért a PCIe 4.0 implementációját annyira ne tapsoljuk, POWER vason évekkel korábban volt már. 2016-ban már volt a piacon PCIe 4.0 képes desktop alaplap, a Talos II.

    A tipikus munkafolyamat legjobb tesztszimulációja a tipikus munkafolyamat. A "napi anti-corporate hsz"-ok felelőse :)

Új hozzászólás Aktív témák