Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:
- I dati sono rappresentati in formato specifico, per cui si è vincolati all’applicazione stessa per recuperarli; incrementale:
- Backup completo - Consente il salvataggio indistinto di qualsiasi file indicato, senza alcuna relazione con backup precedenti; paga: per recuperare un file all’interno di un set incrementale bisognerà recuperare prima il file conservato nell’ultimo backup completo e poi, via via, tutti le copie incrementali, fino ad arrivare al set che contiene la versione richiesta. Il che, ancora intuitivamente, porta l’evidente svantaggio di richiedere tempi di restore lunghi e uno swapping di supporti che in alcuni casi si può rivelare notevole. Diventa quindi necessario implementare una policy di backup che alterni registrazioni complete e incrementali basandosi su fattori contingenti, quali l’importanza data a un restore veloce, per esempio in sistemi pubblici con livelli di servizio cogenti, oppure le limitazioni dovute alla scarsa capacità dei supporti o al loro numero carente, oppure alla frequenza di rilascio dei dati e il conseguente riutilizzo dei supporti stessi o, ancora, alla frequenza con la quale vengono modificati i file da salvare. E’ un’alchimia, più che un’equazione, e il backup è un’arte minore, più che una scienza. Oltretutto, sistemi sofisticati richiedono un database in cui possa venire registrata la corrispondenza fra set di backup, file registrati e supporti sui quali viene salvato il tutto. Il che espone il rischi di trovarsi con un insieme di dati non coerenti nel momento in cui quest’unico database risulti corrotto. Certo, programmi come Afbackup provvedono a spedire un’email dopo ogni backup, allegando un set minimo di informazioni da utilizzare per il recupero dei dati, proprio nel caso in cui venisse a mancare il database di collegamento, ma il rischio permane in soluzioni meno evolute. Che fare, allora? Se non si hanno grandi quantità di dati da backuppare e questi possono essere tenuti giusto per poco tempo, due settimane o un mese, giusto per avere qualche set di emergenza per un pronto ripristino di un server, quindi non per un’archiviazione di lungo termine ma per un disaster recovery, è possibile affidarsi a qualche vecchia conoscenza del mondo Unix, ovvero all’accoppiata TAR/FTP, il tutto condito da poche righe di shell scripting.
Ultima versione stabile rilasciata: 3.5.3
- I dati sono rappresentati in formato specifico, per cui si è vincolati all’applicazione stessa per recuperarli; incrementale:
- Backup completo - Consente il salvataggio indistinto di qualsiasi file indicato, senza alcuna relazione con backup precedenti; paga: per recuperare un file all’interno di un set incrementale bisognerà recuperare prima il file conservato nell’ultimo backup completo e poi, via via, tutti le copie incrementali, fino ad arrivare al set che contiene la versione richiesta. Il che, ancora intuitivamente, porta l’evidente svantaggio di richiedere tempi di restore lunghi e uno swapping di supporti che in alcuni casi si può rivelare notevole. Diventa quindi necessario implementare una policy di backup che alterni registrazioni complete e incrementali basandosi su fattori contingenti, quali l’importanza data a un restore veloce, per esempio in sistemi pubblici con livelli di servizio cogenti, oppure le limitazioni dovute alla scarsa capacità dei supporti o al loro numero carente, oppure alla frequenza di rilascio dei dati e il conseguente riutilizzo dei supporti stessi o, ancora, alla frequenza con la quale vengono modificati i file da salvare. E’ un’alchimia, più che un’equazione, e il backup è un’arte minore, più che una scienza. Oltretutto, sistemi sofisticati richiedono un database in cui possa venire registrata la corrispondenza fra set di backup, file registrati e supporti sui quali viene salvato il tutto. Il che espone il rischi di trovarsi con un insieme di dati non coerenti nel momento in cui quest’unico database risulti corrotto. Certo, programmi come Afbackup provvedono a spedire un’email dopo ogni backup, allegando un set minimo di informazioni da utilizzare per il recupero dei dati, proprio nel caso in cui venisse a mancare il database di collegamento, ma il rischio permane in soluzioni meno evolute. Che fare, allora? Se non si hanno grandi quantità di dati da backuppare e questi possono essere tenuti giusto per poco tempo, due settimane o un mese, giusto per avere qualche set di emergenza per un pronto ripristino di un server, quindi non per un’archiviazione di lungo termine ma per un disaster recovery, è possibile affidarsi a qualche vecchia conoscenza del mondo Unix, ovvero all’accoppiata TAR/FTP, il tutto condito da poche righe di shell scripting.
Ultima versione stabile rilasciata: 3.5.3
- Backup completo - Consente il salvataggio indistinto di qualsiasi file indicato, senza alcuna relazione con backup precedenti; paga: per recuperare un file all’interno di un set incrementale bisognerà recuperare prima il file conservato nell’ultimo backup completo e poi, via via, tutti le copie incrementali, fino ad arrivare al set che contiene la versione richiesta. Il che, ancora intuitivamente, porta l’evidente svantaggio di richiedere tempi di restore lunghi e uno swapping di supporti che in alcuni casi si può rivelare notevole. Diventa quindi necessario implementare una policy di backup che alterni registrazioni complete e incrementali basandosi su fattori contingenti, quali l’importanza data a un restore veloce, per esempio in sistemi pubblici con livelli di servizio cogenti, oppure le limitazioni dovute alla scarsa capacità dei supporti o al loro numero carente, oppure alla frequenza di rilascio dei dati e il conseguente riutilizzo dei supporti stessi o, ancora, alla frequenza con la quale vengono modificati i file da salvare. E’ un’alchimia, più che un’equazione, e il backup è un’arte minore, più che una scienza. Oltretutto, sistemi sofisticati richiedono un database in cui possa venire registrata la corrispondenza fra set di backup, file registrati e supporti sui quali viene salvato il tutto. Il che espone il rischi di trovarsi con un insieme di dati non coerenti nel momento in cui quest’unico database risulti corrotto. Certo, programmi come Afbackup provvedono a spedire un’email dopo ogni backup, allegando un set minimo di informazioni da utilizzare per il recupero dei dati, proprio nel caso in cui venisse a mancare il database di collegamento, ma il rischio permane in soluzioni meno evolute. Che fare, allora? Se non si hanno grandi quantità di dati da backuppare e questi possono essere tenuti giusto per poco tempo, due settimane o un mese, giusto per avere qualche set di emergenza per un pronto ripristino di un server, quindi non per un’archiviazione di lungo termine ma per un disaster recovery, è possibile affidarsi a qualche vecchia conoscenza del mondo Unix, ovvero all’accoppiata TAR/FTP, il tutto condito da poche righe di shell scripting.
- I dati sono rappresentati in formato specifico, per cui si è vincolati all’applicazione stessa per recuperarli; incrementale:
- Backup completo - Consente il salvataggio indistinto di qualsiasi file indicato, senza alcuna relazione con backup precedenti; paga: per recuperare un file all’interno di un set incrementale bisognerà recuperare prima il file conservato nell’ultimo backup completo e poi, via via, tutti le copie incrementali, fino ad arrivare al set che contiene la versione richiesta. Il che, ancora intuitivamente, porta l’evidente svantaggio di richiedere tempi di restore lunghi e uno swapping di supporti che in alcuni casi si può rivelare notevole. Diventa quindi necessario implementare una policy di backup che alterni registrazioni complete e incrementali basandosi su fattori contingenti, quali l’importanza data a un restore veloce, per esempio in sistemi pubblici con livelli di servizio cogenti, oppure le limitazioni dovute alla scarsa capacità dei supporti o al loro numero carente, oppure alla frequenza di rilascio dei dati e il conseguente riutilizzo dei supporti stessi o, ancora, alla frequenza con la quale vengono modificati i file da salvare. E’ un’alchimia, più che un’equazione, e il backup è un’arte minore, più che una scienza. Oltretutto, sistemi sofisticati richiedono un database in cui possa venire registrata la corrispondenza fra set di backup, file registrati e supporti sui quali viene salvato il tutto. Il che espone il rischi di trovarsi con un insieme di dati non coerenti nel momento in cui quest’unico database risulti corrotto. Certo, programmi come Afbackup provvedono a spedire un’email dopo ogni backup, allegando un set minimo di informazioni da utilizzare per il recupero dei dati, proprio nel caso in cui venisse a mancare il database di collegamento, ma il rischio permane in soluzioni meno evolute. Che fare, allora? Se non si hanno grandi quantità di dati da backuppare e questi possono essere tenuti giusto per poco tempo, due settimane o un mese, giusto per avere qualche set di emergenza per un pronto ripristino di un server, quindi non per un’archiviazione di lungo termine ma per un disaster recovery, è possibile affidarsi a qualche vecchia conoscenza del mondo Unix, ovvero all’accoppiata TAR/FTP, il tutto condito da poche righe di shell scripting.