Skip to main content
Solved

file backup job

  • February 18, 2026
  • 11 comments
  • 71 views

Buongiorno, ho aggiunto una risorsa file server come “unstructured data” al mio veeam versione 12.3.2, ho creato un file backup job che copia dei file (100 gb creati ogni giorno come export di DB) dal file server (il server è dove c’è installato veeam) ad una share remota e archivia gli stessi su un S3 ed ho impostato la retention a 3 giorni; nel verificare un restore in effetti ho la possibiltà di restorare, oltre al giorno della copia, i 3 giorni precedenti come da impostazione della retention; il mio problema è l’occupazione spazio su disco : nel verificare le proprietà della cartella di destinazione ho notato che ogni giorno viene incrementata dei Gb creati e non viene eseguita la pulizia dei vecchi retention days precedenti ai 3 giorni come impostato. Come posso eseguire una pulizia? E soprattutto è possibile impostare una pulizia automatica dei vecchi retention days?

grazie.

Best answer by fbonez

Ciao mriva72, 

Secondo la documentazione ufficiale, le impostazioni di immutabilità del repository di archive influenzano anche la retention della copia nel repository primario, perché finché l’immutabilità non scade, i dati non possono essere rimossi nemmeno localmente. In pratica, anche se hai impostato 3 giorni di retention locale nel repository principale:

Se il bucket S3 ha immutabilità per ad esempio 14 giorni, Veeam non potrà eliminare dai repository primari quei dati fino a che l’immutabilità non scade.

La “logica di cancellazione” resta bloccata finché S3 non rilascia il lock dei dati (cioè finché la retention lock impostata nel bucket non è finita).

Se quello che vuoi ottenere è una copia di backup del tuo DB, potresti pensare di fare il backup del DB direttamente con Veeam e successivamente eseguirne un copia. 
Di quale DB si tratta? Hai accesso al server? E’ una VM, la proteggi già con Veeam?

Francesco

11 comments

Link State
Forum|alt.badge.img+11
  • Veeam Legend
  • February 18, 2026

Ciao stai usando veeam server come file server? Non è una best practice sconsiglio tale utilizzo.

Per capire hai un copy file che archivia successivamente un S3 ho capito bene ? ( nel caso non esegue nessuna pulizia dei vecchi file sono copie incrementali)

Se hai creato un File Copy Job (e non un File Backup Job), la retention funziona diversamente e in certi scenari non esegue la pulizia automatica della destinazione remota (specialmente su share SMB).

Se puoi darmi maggiori informazioni ti ringrazio.

 


  • Author
  • New Here
  • February 18, 2026

ciao, no non è un file server (è la dicitura riportata in veeam), sono dei file recuperati su una cartella locale e poi con veeam ho creato un file backup type che li prende e li copia prima su una share remote ed allo stesso tempo ne archivia una su uno spazio S3


Andanet
Forum|alt.badge.img+12
  • Veeam Legend
  • February 18, 2026

ciao ​@mriva72 come scrive Luca non è chiarissimo quello che hai fatto come settaggio e se davvero hai aggiunto la share al VBR sei completamente fuori dalle Best Practice. 

Per la questione dell’occupazione prova a verificare nella parte Advanced della scheda BAckup Repository che ci sia l’impostazione di mantenere i file e le versioni allo stesso numero come descritto qui: 

https://helpcenter.veeam.com/archive/backup/120/vsphere/file_share_backup_job_advanced_file_versions.html

Se fai questa modifica al prossimo giro i backup verranno cancellati automaticamente. 

Chiaramente mi aspetto che su bucket S3 non ci sia una immutabilità o che comunque non sia superiore ai 3 giorni altrimenti i dati di backup non verrebbero cancellati restando “bloccati” dall’immutabilità.

Facci sapere


atinivelli
Forum|alt.badge.img+3
  • Veeam Legend
  • February 18, 2026

ciao e benvenuto. Confesso che non è chiarissima la situazione, a parte che si tratta di un Unstructured Data Backup/File backup.

Puoi ripetere schematicamente:

  1. quale è la sorgente dei dati da proteggere
  2. come è configurato il backup repository, performance tier, capacity tier, archive tier

eventualmente con le schermate 


  • Author
  • New Here
  • February 18, 2026

ciao a tutti e grazie delle risposte. penso che a quanto scrive ​@Andanet  dovrei essere fuori dalle best practice. Ricapitolando :

cartella sorgente      - è su un disco del mio Nas, ogni mattina viene pulita e su di essa vengono copiati file di export DB di N Gb

cartella destinazione - repository Linux (non gestito da me) raggiungibile via rete lan, ho impostato “keep all version for the last 3 days”

cartella archivio        - repository S3 con immutabilità attivata, ho impostato “archive recent file versions”

schedulato               - ogni giorno

spero di essere stato chiaro. Nel caso cosa mi consigliereste per eseguire una copia di file?

grazie.


fbonez
Forum|alt.badge.img+1
  • New Here
  • Answer
  • February 19, 2026

Ciao mriva72, 

Secondo la documentazione ufficiale, le impostazioni di immutabilità del repository di archive influenzano anche la retention della copia nel repository primario, perché finché l’immutabilità non scade, i dati non possono essere rimossi nemmeno localmente. In pratica, anche se hai impostato 3 giorni di retention locale nel repository principale:

Se il bucket S3 ha immutabilità per ad esempio 14 giorni, Veeam non potrà eliminare dai repository primari quei dati fino a che l’immutabilità non scade.

La “logica di cancellazione” resta bloccata finché S3 non rilascia il lock dei dati (cioè finché la retention lock impostata nel bucket non è finita).

Se quello che vuoi ottenere è una copia di backup del tuo DB, potresti pensare di fare il backup del DB direttamente con Veeam e successivamente eseguirne un copia. 
Di quale DB si tratta? Hai accesso al server? E’ una VM, la proteggi già con Veeam?

Francesco


atinivelli
Forum|alt.badge.img+3
  • Veeam Legend
  • February 20, 2026

sicuramente proteggere il db direttamente da Veeam semplificherebbe molto e sarebbe più logico in quanto una soluzione totalmente “nativa” dedicata ai db invece che fare un dump e poi trattare il dato come non strutturato, quando in realtà lo è.

Però capisco che a volte si litiga con i dba, le loro abitudini, e si perde. O non si ha voglia.

Per “svincolare” le retention dei due tipi di repository potresti provare a fare così (non ho provato… solo un’idea):
Il job lo fai puntare solo al repository linux.

Poi fai un backup copy job che porta su S3.


Link State
Forum|alt.badge.img+11
  • Veeam Legend
  • February 20, 2026

sicuramente proteggere il db direttamente da Veeam semplificherebbe molto e sarebbe più logico in quanto una soluzione totalmente “nativa” dedicata ai db invece che fare un dump e poi trattare il dato come non strutturato, quando in realtà lo è.

Però capisco che a volte si litiga con i dba, le loro abitudini, e si perde. O non si ha voglia.

Per “svincolare” le retention dei due tipi di repository potresti provare a fare così (non ho provato… solo un’idea):
Il job lo fai puntare solo al repository linux.

Poi fai un backup copy job che porta su S3.

Esatto se è possibile utilizzare sempre Application Aware dei Database supportati.

@mriva72  Nel caso il Databese in questione non è nella lista supportata è possibile eseguire uno script pre post bakckup job che stoppa il servizio database ed esegue una snapshot consistente.

Pre-Freeze and Post-Thaw Scripts - Veeam Backup & Replication User Guide


Link State
Forum|alt.badge.img+11
  • Veeam Legend
  • February 20, 2026

Ciao mriva72, 

Secondo la documentazione ufficiale, le impostazioni di immutabilità del repository di archive influenzano anche la retention della copia nel repository primario, perché finché l’immutabilità non scade, i dati non possono essere rimossi nemmeno localmente. In pratica, anche se hai impostato 3 giorni di retention locale nel repository principale:

Se il bucket S3 ha immutabilità per ad esempio 14 giorni, Veeam non potrà eliminare dai repository primari quei dati fino a che l’immutabilità non scade.

La “logica di cancellazione” resta bloccata finché S3 non rilascia il lock dei dati (cioè finché la retention lock impostata nel bucket non è finita).

Se quello che vuoi ottenere è una copia di backup del tuo DB, potresti pensare di fare il backup del DB direttamente con Veeam e successivamente eseguirne un copia. 
Di quale DB si tratta? Hai accesso al server? E’ una VM, la proteggi già con Veeam?

Francesco

Esatto anche nei job standard il backup job mantien sempre due full dunque troverai sempre qualche restore point in più rispetto alla retention impostata.


  • Author
  • New Here
  • February 21, 2026

ciao a tutti e scusate il ritardo ma sono stato fuori ufficio. Penso che ​@fbonez ha confermato quello che potevo pensare sulla retention (l’immutabilità prevale sul resto); penso che dividerò le 2 copie. Capisco che la protezione dei database è meglio gestirla in Application Aware ma gli oracle db linux hanno parecchi dati e lo spazio che ho a disposizione non è grandissimo.

grazie a tutti per le info.


Andanet
Forum|alt.badge.img+12
  • Veeam Legend
  • February 21, 2026

Ok ​@mriva72 puoi marcare la risposta come la migliore in modo da chiudere la discussione? Grazie