Comprimere file grandi
Comprimere file grandi e archivi storici su file server linux
Ho un server samba su linux che fa da fileserver per tutta la rete. Ci sono almeno 500GB di dati. Quindi mi sono ingegnato a cercare un modo per comprimere file grandi.
Tenere tutto sotto controllo è davvero una impresa difficile. Per farlo mi avvalgo di una strategia di ricerca e una serie di comandi / tool di utilità.
Strategia
Che strategia seguo? Iniziamo con il cercare le directory maggiormente piene. Per questo ho in caldo il comando:
du . –max-depth=1 -h
Si parte dalla directory che si ritiene più importante da controllare … esempio la dir del samba o NFS e si prosegue con a ripetere il comando in tutte le dir più impegnative.
Se poi localizzaimo una serie di file tipo, conun pattern facilmente identificabile, allora possiamo usare la compressione gnu zip a nostro favore. Prendetevela comoda e attenti al carico disco e cpu.
Esempio. Archiviamo i backup del client Microsoft Outlook? File a volte enormi e che rimangono per anni intoccati. Allora ecco:
find . -type f -name "*.pst" -exec gzip {} \;
Si potrebbe persino pensare di schedulare la regolare ripetizione, notturna, di questo comando per le directory e i tipi file grandi da comprimere.