Keresés

Új hozzászólás Aktív témák

  • CPT.Pirk

    Jómunkásember

    válasz Rowon #102474 üzenetére

    Én ezt úgy csináltam egy bash scriptben crontabból futtatva, hogy rsync a forrás meghajtót egy másik meghajtóra mentette napi szinten, de inkrementális mentéssel. Aztán ezen kívül havonta egyszer péntek este csinált egy tar.gz fájlt az egészről, hogy ne csak az inkrementális mentés legyen meg, biztos ami biztos.

    A tar.gz teljesen jó ilyen célra és paraméterezhető, hogy hány cpu szálat használjon, amit úgy látom 1-el kevesebbre érdemes venni mint ahány van és akkor a tömörítés közben is használható marad a gép.

  • urandom0

    senior tag

    válasz Rowon #102474 üzenetére

    Állítólag a tömörítés garantálja, hogy az adat veszteségmentesen megmaradjon.

    Ez annyiban igaz, hogy a tömörítők leellenőrzik a fájlok cheksumját, szóval elméletileg kitömörítés után biztos, hogy ugyanazt a fájlt kapod, mint amit betömörítettél. De ettől függetlenül még megsérülhet a fájl menet közben, pl. fájlrendszer vagy diszkhibából kifolyólag.

    Én nem szoktam tömöríteni, de amúgy nem rossz ötlet. A zip, rar, és a 7z annyiból előnyös, hogy komplett könyvtárstruktúrákat is tudnak tömöríteni, míg a gzip, a bz2, zstandard, és az xz csak egy-egy fájlt. Ha az utóbbiakkal akarsz több fájlt tömöríteni, akkor össze kell raknod először egy fájlba, erre való tar.
    Aztán arra is figyelni kell, hogy a választott formátum megőrzi-e a fájlok/könyvtárak jogosultságait, tulajdonosát, esetleg a symlinkeket is. Ezt a tar alapból tudja. A zip, rar és 7z közül nem tudom, melyik tudja ezeket, arra emlékszem, hogy a 7z pár éve még nem tudta.

    Én így első körben a bzip2-re szavaznék.

Új hozzászólás Aktív témák