-
Fototrend
Mára a ProHardver!/IT.News Fórum is nagylétszámú Linuxban jártas taggal büszkélkedhet. Nehéz szinteket felállítani egy olyan rendszer ismeretében, ami annyira sokrétű, hogy teljesen szinte lehetetlen megismerni minden egyes részét. Azt azonban mindenki tudja, hogy kezdő-e vagy sem. Elsősorban nekik szólnak az alábbiak, de érdemes mindenkinek elolvasnia, mint útjelző táblát.
Új hozzászólás Aktív témák
-
-
válasz
ViZion
#35469
üzenetére
Van olyan, amit lehet, ez HPE, smartctl szerint nincs AAM/APM/semmi. Amikor ebben a gépben nem volt, akkor lement a C state, meg az a gép is lejebb megy, amiben pont ilyen nincs, csak Micron. Ez van, de nem szomorodom el, pörgősebb gép lesz amúgy is.
Ha legyalultad és most átmásolásnál adott pendinget az fura, mert az olvasásra szokta adni. Írásra ha nem reagál, akkor kivágja reallocatedre, vissza se néz.
Ilyen értelemben a long önteszttől csak rosszabb lehet, jobb nem. -
-
válasz
ViZion
#35464
üzenetére
Igazából az, hogy Proxmox alatt a C3 már megy, én eddig se jutottam most még el. 6. és 10. gen intel, előbbin még extra PCIe sincs, hogy az fogná.
Azt láttam, hogy alapból performance módban megy, ezt átraktam intel pstate powersavere, az órajel az mozog, de a C state nem ment le.
Egy sima ubuntus szerverem meg simán megy C3ba, ott a NIC (X520) nem engedi le., de az egész kóceráj 20W.
Ha van ötleted, hogy hogyan tudtad elérni a C3at Proxmox alatt, kíváncsi vagyok. Nagyon nem lesz ebben az állapotban, de azért mégiscsak lentről induljunk.
@8zabi: igazából minél rosszabb UPSd van, annál kevesebbet fogyaszt.
Ami online, az ugye folyamatosan duplán konvertál, független a hálózattól. Ez eszik a legtöbbet.
Aztán az AVR és más vonalinteraktív UPS is folyamatosan dolgoznak. Ezzel szemben a AVR nélküliek, meg offline eszközök bypassolva adják át a delejt, 5W és alatta lesznek. Ez van, fura sajnos, de árammal és gyakrabb akksi cserével kell fizetni, az amúgy is drágább eszközöknél azért, hogy végül hasznuk legyen.
-
-
Nem ugyanarról beszéltek. Fedora mesa buildben nincs már h264/h265 decoding támogatás.
-
-
Nagyjából 10 éve történt meg, hogy egy 8G ramos laptopra nem tettem swapot, mert lightweight használatra volt tervezve, böngészés kb, szövegszerkesztés... mindenre is elég! Ja, addig volt a minden, amíg 10+ lapot nem nyitottál a krómban és csontra fagyott az egész. Tanultam belőle.
Most pedig a 32G-re hihetném ezt, de a céges gépemen rendszeresen kifutok belőle, az otthonin azért benne maradok jobban. Csak platformot kellett volna váltanom, de mintha kicsit drága lenne a ddr5.

-
-
A SMART így már látja? Write read badblocks futott? Arra akarok kilyukadni, hogy átmozgatott szektor lesz, vagy csak most épp olvashatatlan, de javítható/átírható.
Érdekes, hogy a SMART eddig nem jelölte, de az is lehet, hogy a PS vezérlő működése ilyen, egyáltalán nem ismerem a konzolokat ilyen téren. #pcmasterrace
-
-
válasz
cog777
#35315
üzenetére
LUKS-hoz konkrétan nem használom, elsősorban OTP és FIDO2. Böngészőhöz semennyire se nehéz bekonfigurálni, a régi FIDO (második faktor) szerintem már rég alap, az új FIDO2 WebAuthn (MFA passwordless) Firefox alatt talán egy konfig átírással járhat (régen kapcsoltam be, nem figyeltem, hogy azóta mi default mi nem), de Chrome/ium alatt nem kellett az sem.
OTP pont olyan nehéz, mint egy Google Authenticator, hozzáérinted a telefonodhoz és ott vannak a számok.
SSH FIDO2 kulcshoz se kellett atomfizikát tanulni, a megfelelően új OpenSSH fentléte után csak generálni kell egy kulcsot rá (szokásos ssh-keygen az is).Szóval én az 5-ös szériát tudom mondani, nyilván azzal lehet a legtöbbet megoldani, de alapvetően a FIDO2 kulcs az, ami a minimum.
@emvy:
Tény, hogy nem fed le minden lehetőséget. Viszont az általam használtakat azért közel igen. Kell SSH jelszót megjegyeznie a Gnomenak? Nem.
Te is ezt emelted ki:
>Engem az egészben csak az zavar, hogy az ilyenek miatt nincsen passkey támogatás Linuxon, holott csomó helyen már meg van tiltva, hogy más módon autentikálj :/Ha ugyanazt értjük ezalatt, hogy pl a Microsoftnál MFA kell, akkor a FIDO2 kulcs ezt simán tudja a böngészőkben, én nem használok jelszót ott. Linux alatt sem.
-
-
válasz
Rhino666
#35270
üzenetére
Srácok, a fallback nem így működik.
If systemd-resolved does not receive DNS server addresses from the network manager and no DNS servers are configured manually then systemd-resolved falls back to the fallback DNS addresses to ensure that DNS resolution always works.Ha jól rémlik, akkor Debianon is, ha nincs GUI, akkor a networkD a manager. Ezt írja DNS igényhez:
If a link has the property DefaultRoute=yes (either because the DNSDefaultRoute= network property is explicitly configured, or because the link does not have any "routing-only" domains), or if the search domain "." is configured, then wait for link-specific DNS servers to be accessible. Otherwise, allow global DNS servers to satisfy the condition.
Szóval ha a linked DefaultRoute, akkor csekkolni fogja a DNS-t rajta. Ha nem adsz meg DNS-t (kézzel vagy DHCPvel), akkor jóeséllyel egy Q9/CF/G közül keresgél valahol. -
válasz
bambano
#35245
üzenetére
Akkor esélyesen nem aktviáltál a network-online.targethez egyetlen servicet sem. *-wait-online.service néven futnak, ezek felelnek azért, hogy azt értse a rendszer "UP" alatt, amit te is, pl van IP címe (választható hogy v4 vagy v6), elérhető a DNS (ugye, hogy lesz értelme a default google fallbacknek
), stb.
PL network-manager esetén az nm-online parancsot futtatja, annak a manja így szól:
By default, connections have the ipv4.may-fail and ipv6.may-fail properties set to yes; this means that NetworkManager waits for one of the two address families to complete configuration before considering the connection activated. If you need a specific address family configured before network-online.target is reached, set the corresponding may-fail property to no.
Szóval kell neki legalább 1 ip cím, default.
networkD használata esetén a systemd-networkd-wait-online hasonlóan, és lesz .network fájl, ahol speciálisan is lehet konfigurálni.
És így tovább.
Nyilván ha kézzel random futtatsz egy dhcpd parancsot, akkor arra nem jók a managerek, de úgy is tudsz ilyet írni, a network-online.target adott mindenkinek, lehet bambano-wait-online.service-t írni
-
válasz
bambano
#35250
üzenetére
csak így nem tudod megjósolni, hogy mi milyen sorrendben indul el, így ha függőség van, katyvasz van.
Pont ezaz, hogy nem megjósolni kell, hanem meghatározni, megadni neki. Szerintem ez az előnye, mert eddig ez nem így volt meg, ezért volt lehetetlen normális párhuzamos indítás. -
válasz
Rhino666
#35241
üzenetére
Értem én, az a kérdés, hogy mennyi az idő is csak akkor probléma, ha legalább kettő órád van. Ha csak egy, akkor nem az...
Nem elvilegről beszélünk, ezek működő megoldások. Tény, hogy alkalmazkodni kell a systemDhez, mert ha fordítva akarod, akkor ez lesz belőle.
@bambano: nem feltétlenül, a network managered definiálja, hogy mit jelent.
-
válasz
Rhino666
#35239
üzenetére
Mondjuk a kommented alapján simán fstab sort írtál neki, nem .mount fájlt, amire tudnád linkelni a következő szolgáltatást.
Szóval a helyes megfejtés:
1. Mount leíró az nfsre network-online.targettel.
2. Service leíró a fenti mountra dependálva, vagy after remote-fs.target. utóbbi lehet magában is elegendő lenne, fstab netdevvel, rég volt már.. -
-
-
-
-
-
-
-
-
-
-
Ugyanolyan csomagok, mint a többi. Ezeket a disztrókat nem ismerem, nem tudom mi van fent csomagkezelőnek alapból, de azzal.
A másik kérdésedre visszamenve, RaveOS-em sincs (remélem, hogy bányászni se bányászik már senki). Ilyen dátumos azonosítója a telepítőnek (ISO) lehet, ez annak a képernyője? Aktív még az a lemez? -
-
válasz
Vasti74
#34745
üzenetére
Azt írtad, hogy nem tudod PWM vezérelni.
A táp ágat kell csökkenteni, ez volt az ajánlásom, ha már úgy is DC vezérelt, de akkor még sincs így. Persze ha nem jut el a pwm jel, akkor végül is fix DC lesz.![;]](//cdn.rios.hu/dl/s/v1.gif)
A pwm amúgy nem törekszik fordulatszámra, csak ugye a lassabb ventitől melegedni fog a rendszer, szóval a vezérlés görbe másik pontjára jutunk. Viszont nem megy annyit 5V-on, mint 12-n. De az volt az alapfeltétel, hogy amúgy is rossz a görbe, mivel vezérelni akarod valamiért.
-
válasz
Rhino666
#34734
üzenetére
Igen is, meg nem is. A brand gépek tervezhetnek azzal a hűtéssel, ami benne van, irányával vagy mennyiségével is. Egyszerűbb, értelmes nem bazári top-down hűtő sincs már minden foglalatra... arról nem is beszélve, ha már van hozzá alkatrész (ahogy nekem is volt elfekvőben, bár nem volt hangos a gyári se, de mégis 7/24ben akarom járattni).
Ha ezen túl vagyunk, akkor sincs meg a szabályzásod továbbra sem, gondolom nem véletlenül hiányzik neki a PWM. Ha meg van is belső szabályzása, nem a te aftermarket hűtődre, lehet azt is feltekeri...Arról nem is beszélve, ha nem sztenderd felfogatós, ahogy a HPba se tudtam beszerelni az amúgy CPU szinten rávaló hűtőt, mert nem úgy volt kialakítva.
+1 egy ellenállásos szabályzó mennyibe is fáj most?
-
válasz
Vasti74
#34731
üzenetére
Milyen proci? Lehet egyszerűbb fizikailag megoldani, mint szoftveresen.
Konkrétan nem ismerem a gépet, HP brand gépen sima 8cm venti volt a hűtőn, pont volt régebb óta egy arctic CO F8am, azzal nem lesz gond alapon, és persze PWMes is. De az is megoldás, hogy ellenállással csökkented a feszültséget a ventin, 5V-on is lassabb lesz. -
válasz
bambano
#34720
üzenetére
Miben más?
Az általad leírt igények:
- X-hez kell a /home
- /home-hoz kell a drbd
- drbd-hez kell a networkingNem konfiguráltam fel neked drbd-t, így tényleg más "problémára" megoldás, de a valóságban egyszerűsítettem a drbd által adott inputot és outputot, miszerint: kell neki networking (curl exit code 0/nem0), ha van networking, akkor lesz egy blockdevice (drbd a /dev/akármit csinálja, az én implementációm meg egy konténerfájlt valós helyi deviceról másolva.)
Nincs arról szó, hogy a systemD-hez internet kellene, ez egy adottság volt az én környezetemben, de nem a service leíróban megfogalmazott követelmény, hanem a "kódban" (curl).Tényleg felfogni sem tudom, hogy mi az, ami neked ebből nem világos, amiből azt gondolod, hogy ha így megcsinálod a saját valid drbd megoldásod, akkor ahhoz kötelezően internet kell.
Egyszerűen át sem gondoltad, csak a sok szívásodat arra töltöd ki, hogy lehetetlen, bármit írok. Nem az, és minden igényt teljesített, nem volt/kell extra megszorítás.
@emvy: nyilván, de így is teljesen felesleges volt 10 percet is eltöltenem az egésszel (ebből kb 90s a gép létrehozása "üres" környezetben), ha az egész napom arra megy el, hogy magyarázzam a falnak, hogy működik, amit szeretne.
-
válasz
bambano
#34718
üzenetére
Ott megoldás. Független attól, hogy a hálózat helyi vagy nem, mert a drbd nem igényli majd, csak az én curlom. Bizonyítani került bele, hogy van hálózat, ahelyett hogy felkonfigoltam volna csak neked egy igazi drbd-t.
Internet nélküli gépet nem tudok csinálni, mert a felhőben fut, el se érném... De lényegtelen is, mert nem akarod elfogadni a tényt, hogy működik, nem kuszál össze semmit, és nem a drbd a hálózati menedzser, akár helyi háló, akár nem.
Ne harcolj olyan démonnal, ami nincs.

Várjuk a következő feladatot, ingyenes oktatási keretre.
-
válasz
bambano
#34716
üzenetére
Mi a különbség az internetes networking és a lan között ? szerintem csak a gateway címe. Nekem így volt egyszerűbb tesztelni, hogy van hálózat, de ez nem igénye a megoldásnak.
a network-online.target nem azt jelenti, hogy van internetkapcsolat, vagy nem értem hol beszélünk el egymás mellett.
Csak azt, hogy a networkmanager (bármelyik is az) up-ot ad vissza. -
válasz
bambano
#34713
üzenetére
Megoldottam szerintem, Móricka behelyettesíttéssel.
drbd service before remote-fs-pre.target after network-online.target. Úgy néztem meg, hogy van-e háló, hogy google.com curloztam, majd ddvel csináltam egy file alapú blockot.
Utána mount after remote-fs-pre, before remote-fs, ez csatolja az mnt alá a képfáljt.
Mindkettő wantsby multi-user, de akár graphical target, display nekem itt nincs, a ploton minden jól kivehető.
És semmi rendszerfájlhoz nem nyúltam, kettő újat írtam csak, 22 LTS Ubuntu, systemD 249 -
válasz
bambano
#34711
üzenetére
Nyilván, de az mitől függ? Lokális diszk csak elérhető, random pendrive nem mérvadó, távoli eszköz meg gondolom ugyanúgy networking. Így nem kivehető, hogy mi a gond... lassan éled fel egy lokális blokkos eszköz? Timeout megvárja... Vagy mi a nehezítő körülmény. Te hoznád létre valami fájlból? Annak is mennie kéne (snap is így megy).
-
válasz
bambano
#34708
üzenetére
Nyilván nem fogja helyetted megírni, de amúgy mintha hiányozna egy lépés, mert most 2-2 esemény párt írtál csak (drbd a networkinget várja, lightdm a mountot).
Nyilván tucatnyi service van, ami megvárni a networkinget, valamint egy rakat mount is (snap, ha más nem
). A mount unit egyetlen kínja, hogy a fájl neve nem választható, hanem az elérési útvonal, hiába kell a tartalmában is megadni ezt... 
bináris log: aki tömöríti az előző napi logot, az már binárisban tartja.
-
-
-
-
-
Én tudom, hogy nincs ilyen. Az egyetlen, aminek semmi esetre se állnék neki, random kernel verziókat próbálni, vagy kézzel system libeket cserélni (pl mesa) vagy gyalulni (pl systemd).
User programok telepítése mindenhol megoldott...
Valódi okra lehetne mondani privacy (opt-out megoldások az ördög művei) vagy hasonló corporate felvetéseket, de ezt mindenki magának kell eldöntenie. -
válasz
daninet
#34478
üzenetére
Érzés, az igaz lehet. Átlag user miért lépne tovább a snap miatt? Kényelmes, elérhető, friss.
Én azt nem értem, hogy ha a linux egy nyílt környezet, akkor hogy van az, hogy adott dolog egy másik disztróban adatik csak meg. Nem azért szeretjük a linuxot, mert bármi megoldható? És honnan is vették ki a video decodingot, mert jajj a licence még a hw gyorsításnál is "lehet" kell?
Az én érzésem, hogy ez csak sznobizmus, a "btw I use Arch" egy alacsonyabb lépcsőfoka.
-
-
válasz
Vasti74
#34456
üzenetére
24 colon 4k? Akkor már értem minek skálázni...
Valószínűleg nem a 4k a gond, hanem a skálázás nem történik hardver gyorsítottan. Gondolom ezért nincs engedélyezve a fractal scaling. Megfejelve azzal, hogy a MATE és a cinnamon is régi technológia (GTK2 és GTK3).
KDE környezetben ez jobban működik.
-
-
-
-
válasz
vargalex
#34415
üzenetére
Ugyan csak tippelni tudok mire gondolsz, de ha a bootctl telepítésre, ott van előtte az, hogy mnt alá csatolt két külön particiot, majd chrootolt az mntre, de ez nem a futó környezet. Egyébként semmi se kötelező, persze.
De azt véletlenül sem akarjuk megkérdőjelezni, hogy mégis mi a bánatért kéne a GPT uefihez.. ja igen, mert a Windows csak úgy megy. De ez Linux topik.
-
Nincs /efi, csak /boot/efi. Annak amúgy pár 10 MB kell. /Bootnak viszont sokkal több (legalább 1G, inkább 2G mai meghajtók mellett főleg), de ha nincs extra igény pl titkosított root, akkor nincs igazából szükség rá.
MBR tábla mellett lehet maximum 4 elsődleges, GPT 128 alapból, ami növelhető. Tehát emiatt szintén nem kell ma már aggódni. Windowsnak, mint OS szintén kell amúgy 2+efi elsődleges.
LVM azért hasznos, mert ha nem adod oda egyből a teljes tárhelyet a fájlrendszernek, akkor dinamikusan allokálhatsz nekik, ahogy szükséges.
-
válasz
Roland861010
#34325
üzenetére
Linux Mint vagy Ubuntu 24 LTS. Reddit szerint megy a venti szabályozás az F5-tel így is (2 éves poszt).
-
-
-
-
A basic auth csak egy szabvány, hogyan küldöd el a jelszavad. Hogy azzal mit csinál a web szerver, az a te dolgod.
Attól lesz jobb egy megoldás, hogy nem csak user/passt küldesz, és lehetőleg nem plain HTTP-n.
Szerintem.@bambano: minden igaz, csak az nem, hogy user/pass tárolásra ajánlottam. Alapból tud totpot, webauthN, és más modern autentikácios lépést/megoldást. Néhány kattintás, és jól dokumentált.
-
Jó, én értem, csak ebben vannak össze nem egyeztethető tételek...
Basic auth/httpaswd miben rosszabb, mint formloginnal belépni egy ldapba?
Máshonnan kell közelíteni, a user/passt elkerülni, vagy legalább bővíteni 2FA-val. Erre van több lehetőség, van ami gyárilag adott (a felsorolt külső szolgáltatók, akik ingyen adják neked ezt az egészet), van ami extra eszközt igényel (Yubikey/webauthN/hmac challange-response megoldások), vagy gányolsz magadnak egy httpaswd-totp megoldást, ami igencsak limitáltan működik (basic authnál folyamatosan kell küldeni kb, tehát extra hosszú lejáratú totp megy csak érdemben.) -
-
-
válasz
urandom0
#34225
üzenetére
Nem, ilyen célokra, ha nincs meg a méretgazdaságosság miatti saját üzemeltetésre a pénz, akkor a felhőből kell venni, as a service. Git hub/lab támogat privát repokat, OneDrive/M365 meg véd ransomware ellen alapból. Aztán mindegy milyen linuxot futtatnak ott.
Amúgy 10 év ESM van. Live kernel patching mellett is elhasal a boot az új kernellel, de a korábbit futtatva se leszel "lyukas"... Ha emiatt volt az új kiadás egyáltalán. Nekem évek óta így futnak a 7/24 home serverek.
-
-
-
-
-
-
> Keverni? Amikor egymás mellett fut 200 gép egy Power vason, az keverés?
Nem. Semmi köze nincs ahhoz, hogy 200 gép van-e rajta, az a compute node-ot írja körül. És egy compute node nem úgy néz ki mint egy SAN. Ezt értem keverés alatt.
> Igen, ezért kérdeztem, hogy mi az, ami az adott céloknek egyszerre meg tud felelni
Remélem, hogy értem a kérdést, és legjobb tudásom és pozitív hozzáállás mellett írom, amit írok. Tehát pipa.
> Lássuk, nagyobb diszkre költöznél, akkor a RAID tömböt macerálni kell. Meghal egy diszk, RAID macera. Partíciókat kell macerálni. Stb. Egy qcow2 esetén meg a NAS-nak mindegy, mi van alatta.
De a hostnak nem mindegy. Azt akartam itt kifejezni, hogy teljesen mindegy, hogy a HOST ZFS-t vagy a GUEST ZFS-t kell abajgatni, pontosan ugyanazzal a munkával jár. A diszk csere akkor is a HDD fizikai kicserélésével jár, és pont. Ha pedig azt értjük extra melónak, hogy ezen valamiféle OS is van, akkor mindkét esetben így van (lehet/lesz), az egyik esetben a HOST OS, a másikban a GUEST OS. Ha van plusz diszk, akkor egyik esetben sem kell.
> A plusz réteg meg minden VM esetén megvan, szóval...
Ugye a direkt hozzáférésben az a lényeg, hogy nincs meg, legalább is a storage-et illetően (jelen esetben). "Menedzselni" a KVM-et persze kell, hogy ki kapja meg, ez plusz meló. De nincs FS->QCOW2->FS, csak 1db FS van az adott pár diszkeden, és pont. Pont ott, ahol a legértékesebb adataid vannak.
> És khm, az sem szokás, hogy a VM local diszken, az adat meg SAN-on, akkor már a VM is a SAN-ról fut, a hostban nem is kell legyen diszk.
Szokásokról nem nyitok vitát, amúgy pedig nem pontosan ezt írtam. És magad is hoztál rá példát.
-
-
Persze, hogy ritkán látsz ilyet, hiszen nem szokták keverni a funkcionalitását a fizikai vasnak. Már csak azért sem, mert másra van szükség adott funkcionalitáshoz, más-más az optimum... de szükség törvényt bont, te meg otthonra kendácsolsz, és ehhez próbáltam hozzátenni, teljesen függetlenül attól, hogy mi van enterprise környezetben.
Még azt tudom elképzelni, hogy a KVM-nek ZVol-t adsz (iSCSI target, ahogy egy storage-ről kapnád), ha már nem LVM-ben gondolkozunk.
A fizikai diszket nem tudod könnyen költöztetni? Akármilyen környezetbe viheted, ahol van SATA csatlakozó.
ZFS alatt diszket cserélni (bővíteni!!) azért rendesen szívás, de megintcsak, nem mindegy, hogy a host diszkjeit cseréled, vagy a guestnek adottat? Nem látok különbséget. Ugyanazok a ZFS problémák.
Ámde az, hogy egy fájl az egész adattárad, az ad egy extra komplexitás, amivel extra hibát viszel a rendszerbe... ha az valahogy megrottyan, vihet mindent... és igen, ez igaz a fájlrendszerre is, de olyanod ugyanúgy van (ZFS a hoston), sőt, több is egymáson (hiszen a fájlod csak egy block device a guest felé, arra tesz még ő is egy plusz FS-t, pl ext4.) És akkor a ZFS előnyeit egy óriási binárison kell értelmezni. Snapshotolni a qcow2-t, háááát, ha próbáltad, akkor tudod, hogy azt menedzselni nem könnyű. Azt csinálja, hogy lesz 2 fájlod, és az élő rendszer diffeli a régit... abból újra egyet csinálni ugye... performanciáról nem is beszélve. Menteni se poén egy ilyet, de sokat segít, ha külön van az adattár, ha az nagyjából WORM.Nem tudom ki hol találkozott enterprise-szal, vagy én vagyok túlságosan közel a hiperkonvergenciához, de mifelénk nincs a compute node (legyen az kvm vagy kubernetes worker) lokális diszkjein megőrzendő adat. És persze hívhatom a SAN-tól kapott blockdevice-t "VM diszknek", de nem teszem, mert valaki még összekeveri a lokálisan tárolt qcow2-vel. Szóval @urandom0 mondása nálam így végződne: ...minden mást a storage réteg (Ceph, Gluster, SAN, stb.) tárol.
-
-
-
-
-
-
-
-
-
-
-
válasz
fatpingvin
#33116
üzenetére
Technikai értelemben nem kvantum támadás ellenálló, ellenben egy Fujitsu szerint pl 10 000 qubit kell a 2048as RSAhoz... most meg alig 500-nál tartunk, és nem összeadható dologról van szó...
Az RSA nem elméletileg véd, hanem gyakorlatilag... -
-
-
válasz
urandom0
#33022
üzenetére
100 dollár/év egy developer RHEL licence a cégeknek, igazából nem nagy összeg.
Vanilla kubernetes összerakáshoz azért utána kell olvasni rendesen...
Eredeti kérdésre, hogy mire váltottunk: Ubuntu
Aminek maradnia kell, az még nem eldöntött... esélyesen egyedileg lesz eldöntve, de játszik a Rocky, OL és RHEL is. -
válasz
arcoskönyv
#32964
üzenetére
De bind mountoltad, és fent csak a feljebbi könyvtárak jogosultságát írtad. A konténerben pedig más van felette, tehát ez nem feltétlenül releváns.
-
válasz
arcoskönyv
#32954
üzenetére
Esélyesen úgy, hogy a konténerben a user uidja egyezik a tieddel.
De én úgy értem, hogy azt szeretnéd, hogy tudja olvasni, akkor miért fura, hogy tudja?
-
-
-
válasz
MasterMark
#32823
üzenetére
Nem az idézőjellel lesz a gond szerintem, hanem a
awk '{print $1;}'a $1 behelyettesítődik előre, \$ kell oda. -
Megszaladt valóban.

Visszaolvasva, újragondolva: /var/run alatt a runtime létrehozott fájlok (többnyire mondjuk lock) szoktak lenni, így a tény, hogy nem indul és a tény, hogy nincs ott a socket annak az ok-okozata fordított is lehet... nem indul, ezért nem jön létre a fájl. De ezt nem a telepítés hozza akkor létre, hanem a szolgáltatás.
Nem összekeverendő ez a fájl típus a systemd.socket fájllal...
De nem vagyok CUPS szagértő.
@_ak_ : a compose mapping csak a hoston nézi a szabad portot, hogy belül mi fog ráülni (ha fog bármi bármikor is), az csak később, runtime derül ki.
-
-
-
válasz
bambano
#32729
üzenetére
Amit csak repo esetén lehet érdemben ellenőrizni, tudtommal debianban csak a Repository fájl/adatbázis van aláírva, és abban van a hash a csomagra vonatkozóan.
A lokálisan felforceolt deb nem tartozik ebbe a körbe, így ebből nincs gond.RPM-ben előfordul a csomag aláírás is.
-
-
válasz
erdeidominik
#32533
üzenetére
Key interval csökkentése (-> nagyobb sávszélesség igény), kliens oldalon buffer csökkentése.
Egyébként velejáró dolog, ha nem csak I frameekben kapod, akkor össze kell őket várni, és utána lekódolni (megint csak 2 key frame közötti mennyiséget egyszerre), majd kitolni a nagyvilágba. Ha kliens oldalon van buffering, akkor ott is várni fog, hogy folyamatos legyen a lejátszás. (Jitter vs latency) -
-
-
Új hozzászólás Aktív témák
- Dobozos ASUS TUF Ryzen 7 7735HS 16 GB DDR5 1TB SSD RTX 4060 (8 GB) Garancia 26.09.12.
- HIBÁTLAN iPhone 13 Pro 128GB Sierra Blue-1 ÉV GARANCIA - Kártyafüggetlen, MS4515, 100% Akkumulátor
- Új állapotban! Lenovo ThinkPad T14 Gen 3 i5-1245/16gb ram/256 ssd FHD+ garancia
- iKing.Hu - Samsung Galaxy S24 Ultra 120 Hz Dynamic AMOLED 2X, beépített S Pen, Galaxy AI 12/256 GB
- iPhone 11 64GB 100% (3hónap Garancia)
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Ilyen értelemben a long önteszttől csak rosszabb lehet, jobb nem.


Csak azt, hogy a networkmanager (bármelyik is az) up-ot ad vissza. 


