Skip to main content

una delle limitazioni che c’è per i Linux Hardened repository è quella per la quale l'hardened repo deve essere collegato a un solo server Veeam.

Stamattina sotto la doccia ho pensato a un workaround per questo: la mia idea è:

  • Utilizzare un hardware come ad esempio l'HPE Apollo
  • Installare un hypervisor come ESXi (controllare le matrici di compatibilità!)
  • Se desiderato, mettere un vCenter (io lo metterei)
  • Creare N macchine virtuali, ciascuna con un'opportuna quota disco, che diventeranno dei Linux hardened repo, tante quante sono i server Veeam che dovranno usufruirne
  • Come da best practices, le interfacce fisiche e i virtual switch etc etc saranno separate fra uplink delle VM e Management dell'ESXi/vCenter
  • Le interfacce fisiche di Management e quella della ILO o iDRAC saranno connesse a piccolo switch dedicato e isolato dal resto della rete
  • Per la gestione si potrà collegare un NUC/miniPC completamente dedicato, isolato dalla rete e connesso solo al piccolo switch (in alternativa ci si potrà collegare allo switch con il proprio portatile)


può avere senso, è una fesseria, cosa ne pensate?

https://blog.tinivelli.com/one-veeam-hardened-repository-for-two-veeam-servers-ec749d5c4ffe

Ciao!

hai fatto bene a introdurre questo topic, sono molto interessato alle opinioni della community a questo riguardo. Personalmente mi sono già trovato alcune volte in una situazione simile, e mi riferisco in particolare agli hardened repo virtuali, e non ho riscontrato problemi.

Immagino che la risposta ufficiale di Veeam sia quella di evitare questo tipo di configurazione poiché il layer di virtualizzazione “complica” il mantenimento della messa in sicurezza dell’ambiente di backup in questo tipo di scenario (è molto più semplice mettere in sicurezza un box fisico autoconsistente). Personalmente ritengo che l’elemento essenziale in questo scenario sia avere molto ben chiari i principi di sicurezza e di segmentazione di rete e degli accessi, dopodiché non vedo particolari problemi.

Rimango super interessato alla finestra per conoscere le opinioni degli altri membri della Community!

Un saluto,

Massimiliano


già, è sicuramente vero che usare come hard repo una vm che sta su una infrastruttura virtuale di produzione o condivisa con altri ha poco senso (e me l’hanno fatto fare ugualmente).

Però quello della mia perversione mattutina (una volta i pensieri mattutini erano assai differenti 😍) sarebbe comunque in un “box fisico autoconsistente”, pur se condiviso fra diversi VBR server. Vediamo che ne pensa la community, intanto grazie per non avermi fatto sentire del tutto impazzito 😉


già, è sicuramente vero che usare come hard repo una vm che sta su una infrastruttura virtuale di produzione o condivisa con altri ha poco senso (e me l’hanno fatto fare ugualmente).

Però quello della mia perversione mattutina (una volta i pensieri mattutini erano diversiiii 😍) sarebbe comunque in un “box fisico autoconsistente”, pur se condiviso fra diversi VBR server. Vediamo che ne pensa la community, intanto grazie per non avermi fatto sentire del tutto impazzito 😉

Si scusami, nella mia testa intendevo “box fisico autoconsistente” la classica implementazione “da manuale” in cui abbiamo un server fisico dedicato con il sistema operativo Linux installato. Allo stesso tempo confermo che il requisito minimo di questo scenario è che l’hypervisor sia completamente indipendente dall’ambiente di produzione, anche come segmentazione di rete.

 

Un saluto!


Ciao @atinivelli ho letto il tuo blog e a questo punto mi pongo una domanda: come mai avere più VBR server all’interno di una stessa infrastruttura e non affidare risorse a proxy dedicati a tali attività? 

Quando lavoravo per un grosso Service Provider gestivamo circa 30 VBR server e 3-400 proxies ma si parlava di ambienti diversi completamente isolati tra di loro. 

Comunque la virtualizzazione di più LHR è sconsigliata nell’utilizzo per i motivi che tu e @mrizzi2 avete descritto. 

non la discuto dal punto di vista della fattibilità ma ne faccio una questione più tecnico/pratica a livello hardware. Le appliance hardware che offrono servizi S3 montano almeno 192GB di ram. Questo perchè la necessità di elaborazione deve essere alta e rapida. 

Volendo fare n LHR su un server fisico utilizzando la virtualizzazione dovresti comunque avere almeno 192 x n = xxx GB di ram.

Ti porto un esempio pratico… ultimamente abbiamo avuto un preventivo per un server fisico biprocessore con 192GB di ram e 36TB di dischi. 

Costo di listino circa 20K 

facciamo che vogliamo creare 4 LHR dovremmo avere almeno 1*4 768GB di ram e 36*4=144 TB di dischi. Ti direi che siamo almeno a 50K.

Aggiungi i seguenti costi tra acquisto licenze e gestioni operative:

licenze VMWAre

licenze RedHat

installazione a rack (1 gg/uomo)

installazione VMWare (2gg/uomo)

installazione Sistemi operativi hardenizzati (2gg * 4OS = 8 gg/uomo)

configurazioni per segmentazioni di rete (2 gg/uomo)

manutenzione dei software per 5 anni (3 update vmware + 2 update OS per ogni anno = 25gg/uomo)  

licenze a parte ci sono circa 40 gg/uomo Senior a 500€ = 20K

Siamo a un totale di almeno 70K licenze a parte. facciamo lo sconto del 40% siamo a 42K + licenze software facciamo un totale di 45K

Ti dico che con quel prezzo ce la compri una appliance da 128TB con protocollo S3. La monti e non devi fare più nulla!

Come vedi il costo dell’hardware, le licenze VMware e il costo umano vanno a superare di gran lunga l’acquisizione di una appliance hardware con protocollo S3 da cui puoi esportare più bucket e creare più repository sui tuoi diversi VBR server.  

Keep it simple!  

My 2 cents.


Personalmente mi soffermerei solo sulla reale esigenza di avere due Veeam distinti che scrivono su uno stesso VHR..non mi vengono in mente molti use case, e se proprio mi dovesse servire un VBR dedicato per il NAS backup, forse significa che mi servirà anche un VHR dedicato per tutti quei dati! 😅

Comunque curioso di ascoltare altri pareri! 💚


la necessità ce l’avrei per esempio da un cliente che ha un solo VBR, repository su macchina fisica linux immutabile.
Quel VBR gestisce migliaia di VM (vSphere e Ovirt), RMAN e una caterva di dati che vengono riversati su nastro: praticamente non si può fermare mai o quasi mai, oltre ad avere un db di dimensioni elevate e che impiega tempi biblici, per giunta imprevedibili (nemmeno il supporto è riuscito a darmi un modo per stimare né vedere il progresso) quando si tenta di migrarlo su nuova VM o nuovo SQL server.
Fossero due, o tre server VBR sotto un EM, si potrebbe lavorare con una certa serenità.

Sul calcolo sono interessantissime le considerazioni di Andrea ma ogni caso penso vada sempre analizzato per sé: l’appliance da 128TB nel suddetto caso sarebbe microscopica 😉

Fra installare Ubuntu su un Apollo oppure ESXi e due Ubuntu i costi “vivi” sono quelli della licenza ESXi, che sono abbastanza limitati. I costi della “manodopera” sono molto variabili, ad esempio se c’è un IT interno non stracarico in grado di farlo sono limitati o nulli (si può vedere come formazione).
Poi se ormai l’hai comprato, non hai budget per altro, mi sa che l’unico modo per partizionarlo in due è la vecchia virtualizzazione 😊


Secondo me è stato sbagliato il disegno architetturale iniziale. 

Personalmente (e anche con il mio collega Marco) abbiamo fatto una distinzione sui clienti: 

clienti piccoli → LHR

clienti medi → server con appliance software (Ad es. Scality) 

clienti grandi →  appliance storage S3

Enterprise → infrastrutture enterprise 

Il taglio da 128 TB come repository di backup è la base iniziale per i clienti grandi (vado a memoria ma partendo da una source data di 50 TB con 30gg e GFS 8w+12m+3y sei intorno ai 120TB di occupazione)…. se tu sei su cifre più grandi devi per forza mettere in piedi repository di tipo enterprise e non un Hardened repository.

 

Per il database del tuo cliente mi pare di ricordare che ci fosse di mezzo una tape e il suo catalogo viene memorizzato nel database. Quindi cresce a dismisura.

questo è sicuramente penalizzante però un altro aspetto che i clienti devono conoscere è che è necessario avere delle finestre di manutenzione per gli aggiornamenti. 

 


Non so, se hai una criticità/collo di bottiglia nelle tape e lo separi in modo da rendere gli altri più flessibili nella gestione, comunque la criticità nelle tape rimane! 😅

Forse in prima battuta conviene ripensare/snellire quei task troppo pesanti..

Per quanto riguarda la migrazione del config db, con la ultima versione dovrebbe essere stato migliorato il processo:

Configuration Backup and Restore improvements — enhanced our code’s reliability in several corner
cases observed in Customer Support particularly around large-scale deployments of File to Tape backup
jobs. These enhancements should facilitate seamless large-scale configuration database migrations from
Microsoft SQL Server to PostgreSQL.

Ricordo che avevi auto problemi un pò di tempo fa..magari riprova (se non l’hai già fatto) e facci sapere!

 


 

Configuration Backup and Restore improvements — enhanced our code’s reliability in several corner
cases observed in Customer Support particularly around large-scale deployments of File to Tape backup
jobs.

 

 

sto cercando questa frase nelle release notes della 12.2 ma proprio non la trovo… comunque devo fare un sql->sql senza postgres


Secondo me è stato sbagliato il disegno architetturale iniziale. 

...

questo è sicuramente penalizzante però un altro aspetto che i clienti devono conoscere è che è necessario avere delle finestre di manutenzione per gli aggiornamenti. 

 

tutto giusto ma purtroppo ci si scontra con situazioni pregresse ed è nota la necessità di finestre di manutenzione, ma averle solo una volta a settimana o meno complica le cose, si finisce per rimandare e i db crescono 😉


 

Configuration Backup and Restore improvements — enhanced our code’s reliability in several corner
cases observed in Customer Support particularly around large-scale deployments of File to Tape backup
jobs.

 

 

sto cercando questa frase nelle release notes della 12.2 ma proprio non la trovo… comunque devo fare un sql->sql senza postgres

In fondo, sezione “Backup Console”


ak on è nel “What’s new” e non nelle Release Notes.

 

Peccato che “These enhancements should facilitate seamless large-scale configuration database migrations from Microsoft SQL Server to PostgreSQL”  sembra dire che non ci saranno miglioramenti nel caso a cui lavorerò, ahimè. ma chissà, speriamo….


Comment