Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite
by user
Comments
Transcript
Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite
Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Red Hat Cluster Suite per Red Hat Enterprise Linux 5 Edizione 3 Landmann Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Red Hat Cluster Suite per Red Hat Enterprise Linux 5 Edizione 3 Landmann [email protected] m Nota Legale Copyright © 2009 Red Hat, Inc. T his document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed. Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law. Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, MetaMatrix, Fedora, the Infinity Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries. Linux ® is the registered trademark of Linus T orvalds in the United States and other countries. Java ® is a registered trademark of Oracle and/or its affiliates. XFS ® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries. MySQL ® is a registered trademark of MySQL AB in the United States, the European Union and other countries. Node.js ® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project. T he OpenStack ® Word Mark and OpenStack Logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community. All other trademarks are the property of their respective owners. Sommario La Panoramica su Red Hat Cluster Suite fornisce una panoramica del Red Hat Cluster Suite per Red Hat Enterprise Linux 5. Indice Indice .Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4. . . . . . . . . . 1. Convenzioni del documento 4 1.1. Convenzioni tipografiche 5 1.2. Convenzioni del documento 6 1.3. Note ed avvertimenti 7 2. Commenti 8 .Capitolo . . . . . . . . .1. . . Panoramica . . . . . . . . . . . . .su . . .Red . . . . Hat . . . . .Cluster . . . . . . . .Suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9. . . . . . . . . . 1.1. Concetti di base del cluster 9 1.2. Red Hat Cluster Suite Introduction 10 1.3. Cluster Infrastructure 11 1.3.1. Cluster Management 11 1.3.2. Lock Management 12 1.3.3. Fencing 13 1.3.4. Il Cluster Configuration System 16 1.4. Gestione dei servizi High-availability 17 1.5. Red Hat GFS 20 1.5.1. Prestazione e scalabilità superiori 21 1.5.2. Prestazione, scalabilità e prezzo moderato 22 1.5.3. Risparmio e prestazione 22 1.6. Cluster Logical Volume Manager 23 1.7. Global Network Block Device 25 1.8. Linux Virtual Server 26 1.8.1. T wo-T ier LVS T opology 28 1.8.2. T hree-T ier LVS T opology 30 1.8.3. Metodi di instradamento 31 1.8.3.1. NAT Routing 31 1.8.3.2. Instradamento diretto 32 1.8.4. Persistenza e Firewall Mark 34 1.8.4.1. Persistence 34 1.8.4.2. Firewall Mark 34 1.9. T ool di amministrazione del cluster 34 1.9.1. Conga 35 1.9.2. GUI di amministrazione del cluster 37 1.9.2.1. Cluster Configuration T ool 37 1.9.2.2. Cluster Status T ool 39 1.9.3. T ool di amministrazione della linea di comando 40 1.10. GUI di amministrazione del server virtuale di Linux 41 1.10.1. CONT ROL/MONIT ORING 42 1.10.2. GLOBAL SET T INGS 43 1.10.3. REDUNDANCY 44 1.10.4. VIRT UAL SERVERS 45 1.10.4.1. Sottosezione SERVER VIRT UALE 46 1.10.4.2. Sottosezione REAL SERVER 48 1.10.4.3. EDIT MONIT ORING SCRIPT S Subsection 50 .Capitolo . . . . . . . . .2. . . Sommario . . . . . . . . . . .dei . . . .componenti . . . . . . . . . . . . di . . .Red . . . . Hat . . . . Cluster . . . . . . . . Suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 ............ 2.1. Componenti del cluster 52 2.2. Pagine man 57 2.3. Hardware compatibile 59 . . . . . . . . . . . . della Cronologia . . . . . .revisione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 ............ 1 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite .Indice . . . . . . analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 ............ C 60 F 60 I 60 L 61 M 61 N 61 O 61 P 61 R 62 T 62 2 Indice 3 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Introduzione Questo documento fornisce una buona panoramica sul Red Hat Cluster Suite per Red Hat Enterprise Linux 5, ed è organizzato nel modo seguente: Capitolo 1, Panoramica su Red Hat Cluster Suite Capitolo 2, Sommario dei componenti di Red Hat Cluster Suite Anche se le informazioni presenti in questo documento sono generali, l'utente dovrebbe essere in possesso di una conoscenza pratica avanzata con Red Hat Enterprise Linux, e capire i concetti di computazione del server, in modo da comprendere correttamente le informazioni presenti. Per maggiori informazioni su come utilizzare Red Hat Enterprise Linux, consultate le seguenti risorse: Red Hat Enterprise Linux Installation Guide — Fornisce tutte le informazioni necessarie per l'installazione di Red Hat Enterprise Linux 5. Red Hat Enterprise Linux Deployment Guide — Fornisce tutte le informazioni necessarie per l'impiego, la configurazione e l'amministrazione di Red Hat Enterprise Linux 5. Per maggiori informazioni su Red Hat Cluster Suite per Red Hat Enterprise Linux 5, consultate le seguenti risorse: Configurazione e gestione di un Red Hat Cluster — Contiene informazioni sull'installazione, configurazione e gestione dei componenti del Red Hat Cluster. LVM Administrator's Guide: Configuration and Administration — Provides a description of the Logical Volume Manager (LVM), including information on running LVM in a clustered environment. Global File System: Configurazione e Amministrazione — Contiene informazioni su come installare, configurare e gestire il Red Hat GFS (Red Hat Global File System). Global File System 2: Configurazione e Amministrazione — Contiene informazioni su come installare, configurare e gestire il Red Hat GFS (Red Hat Global File System 2). Utilizzo del Device-Mapper Multipath — Fornisce tutte le informazioni necessarie per l'impiego del Device-Mapper Multipath di Red Hat Enterprise Linux 5. Utilizzo di GNBD con il Global File System — Fornisce una panoramica su come usare il Global Network Block Device (GNBD) con Red Hat GFS. Amministrazione del server virtuale di Linux — Fornisce le informazioni su come configurare i servizi ed i sistemi ad alte prestazioni con il Linux Virtual Server (LVS). Note di rilascio di Red Hat Cluster Suite — Fornisce informazioni sulla release corrente del Red Hat Cluster Suite. La documentazione di Red Hat Cluster Suite ed altri documenti di Red Hat sono disponibili nelle versioni HT ML, PDF, e RPM sul CD di documentazione di Red Hat Enterprise Linux, e online su http://www.redhat.com/docs/. 1. Convenzioni del documento Questo manuale utilizza numerose convenzioni per evidenziare parole e frasi, ponendo attenzione su informazioni specifiche. Nelle edizioni PDF e cartacea questo manuale utilizza caratteri presenti nel set Font Liberation. Il set Font Liberation viene anche utilizzato nelle edizioni HT ML se il set stesso è stato installato sul vostro sistema. In caso contrario, verranno mostrati caratteri alternativi ma equivalenti. Da notare: Red Hat Enterprise Linux 5 e versioni più recenti, includono per default il set Font Liberation. 4 Introduzione 1.1. Convenzioni tipografiche Vengono utilizzate quattro convenzioni tipografiche per richiamare l'attenzione su parole e frasi specifiche. Queste convenzioni, e le circostanze alle quali vengono applicate, sono le seguenti. Neretto m onospazio Usato per evidenziare l'input del sistema, incluso i comandi della shell, i nomi dei file ed i percorsi. Utilizzato anche per evidenziare tasti e combinazione di tasti. Per esempio: Per visualizzare i contenuti del file m y_next_bestselling_novel nella vostra directory di lavoro corrente, inserire il comando cat m y_next_bestselling_novel al prompt della shell e premere Invio per eseguire il comando. Quanto sopra riportato include il nome del file, un comando della shell ed un tasto, il tutto riportato in neretto monospazio e distinguibile grazie al contesto. Le combinazioni si distinguono dai tasti singoli tramite l'uso del segno più, il quale viene usato per creare una combinazione di tasti. Per esempio: Premere Invio per eseguire il comando. Premere Ctrl+Alt+F2 per usare un terminale virtuale. Il primo esempio evidenzia il tasto specifico singolo da premere. Il secondo riporta una combinazione di tasti: un insieme di tre tasti premuti contemporaneamente. Se si discute del codice sorgente, i nomi della classe, i metodi, le funzioni i nomi della variabile ed i valori ritornati indicati all'interno di un paragrafo, essi verranno indicati come sopra, e cioè in neretto m onospazio. Per esempio: Le classi relative ad un file includono filesystem per file system, file per file, e dir per directory. Ogni classe possiede il proprio set associato di permessi. Proportional Bold Ciò denota le parole e le frasi incontrate su di un sistema, incluso i nomi delle applicazioni; il testo delle caselle di dialogo; i pulsanti etichettati; le caselle e le etichette per pulsanti di selezione, titoli del menu e dei sottomenu. Per esempio: Selezionare Sistema → Preferenze → Mouse dalla barra del menu principale per lanciare Preferenze del Mouse. Nella scheda Pulsanti, fate clic sulla casella di dialogo m ouse per m ancini, e successivamente fate clic su Chiudi per cambiare il pulsante primario del mouse da sinistra a destra (rendendo così il mouse idoneo per un utilizzo con la mano sinistra). Per inserire un carattere speciale in un file gedit selezionare Applicazioni → Accessori → Mappa del carattere dalla barra del menu principale. Selezionare successivamente Cerca → T rova… dal menu Mappa del carattere, digitare il nome desiderato nel campo Cerca e selezionare Successivo. Il carattere desiderato sarà evidenziato nella T abella dei caratteri. Eseguire un doppio clic sul carattere per poterlo posizionare nel campo T esto da copiare e successivamente fare clic sul pulsante Copia. Ritornare sul documento e selezionare Modifica → Incolla dalla barra del menu di gedit. Il testo sopra riportato include i nomi delle applicazioni; nomi ed oggetti del menu per l'intero sistema; nomi del menu specifici alle applicazioni; e pulsanti e testo trovati all'interno di una interfaccia GUI, tutti presentati in neretto proporzionale e distinguibili dal contesto. 5 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Corsivo neretto monospazio o Corsivo neretto proporzionale Sia se si tratta di neretto monospazio o neretto proporzionale, l'aggiunta del carattere corsivo indica un testo variabile o sostituibile . Il carattere corsivo denota un testo che non viene inserito letteralmente, o visualizzato che varia a seconda delle circostanze. Per esempio: Per collegarsi ad una macchina remota utilizzando ssh, digitare ssh username@ domain.name al prompt della shell. Se la macchina remota è exam ple.com ed il nome utente sulla macchina interessata è john, digitare ssh john@ exam ple.com . Il comando m ount -o rem ount file-system rimonta il file system indicato. Per esempio, per rimontare il file system /hom e, il comando è m ount -o rem ount /hom e. Per visualizzare la versione di un pacchetto attualmente installato, utilizzare il comando rpm -q package. Esso ritornerà il seguente risultato: package-version-release. Da notare le parole in corsivo grassetto - username, domain.name, file-system, package, version e release. Ogni parola funge da segnaposto, sia esso un testo inserito per emettere un comando o mostrato dal sistema. Oltre all'utilizzo normale per la presentazione di un titolo, il carattere Corsivo denota il primo utilizzo di un termine nuovo ed importante. Per esempio: Publican è un sistema di pubblicazione per DocBook. 1.2. Convenzioni del documento Gli elenchi originati dal codice sorgente e l'output del terminale vengono evidenziati rispetto al testo circostante. L'output inviato ad un terminale è impostato su tondo m onospazio e così presentato: books books_tests Desktop Desktop1 documentation downloads drafts images mss notes photos scripts stuff svgs svn Gli elenchi del codice sorgente sono impostati in tondo m onospazio ma vengono presentati ed evidenziati nel modo seguente: 6 Introduzione static int kvm_vm_ioctl_deassign_device(struct kvm *kvm, struct kvm_assigned_pci_dev *assigned_dev) { int r = 0; struct kvm_assigned_dev_kernel *match; mutex_lock(&kvm->lock); match = kvm_find_assigned_dev(&kvm->arch.assigned_dev_head, assigned_dev->assigned_dev_id); if (!match) { printk(KERN_INFO "%s: device hasn't been assigned before, " "so cannot be deassigned\n", __func__); r = -EINVAL; goto out; } kvm_deassign_device(kvm, match); kvm_free_assigned_device(kvm, match); out: mutex_unlock(&kvm->lock); return r; } 1.3. Note ed avvertimenti E per finire, tre stili vengono usati per richiamare l'attenzione su informazioni che in caso contrario potrebbero essere ignorate. Nota Una nota è un suggerimento o un approccio alternativo per il compito da svolgere. Non dovrebbe verificarsi alcuna conseguenza negativa se la nota viene ignorata, ma al tempo stesso potreste non usufruire di qualche trucco in grado di facilitarvi il compito. Importante Le caselle 'importante' riportano informazioni che potrebbero passare facilmente inosservate: modifiche alla configurazione applicabili solo alla sessione corrente, o servizi i quali necessitano di un riavvio prima di applicare un aggiornamento. Ignorare queste caselle non causa alcuna perdita di dati ma potrebbe causare irritazione e frustrazione da parte dell'utente. Avvertimento Un Avvertimento non dovrebbe essere ignorato. Se ignorato, potrebbe verificarsi una perdita di dati. 7 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite 2. Commenti Se individuate degli errori, o pensate di poter contribuire al miglioramento di questa guida, contattateci subito! Vi preghiamo di inviare un report in Bugzilla (http://bugzilla.redhat.com/bugzilla/) contro il componente Documentazione-cluster. Be sure to mention the document's identifier: Cluster_Suite_Overview(EN)-5 (2008-12-11T15:49) By mentioning this document's identifier, we know exactly which version of the guide you have. Se avete dei suggerimenti per migliorare la documentazione, cercate di essere il più specifici possibile. Se avete trovato un errore, vi preghiamo di includere il numero della sezione, e alcune righe di testo, in modo da agevolare le ricerca dell'errore stesso. 8 Capitolo 1. Panoramica su Red Hat Cluster Suite Capitolo 1. Panoramica su Red Hat Cluster Suite I sistemi clusterizzati forniscono affidabilità, scalabilità e disponibilità ai i servizi critici di produzione. Utilizzando Red Hat Cluster Suite, è possibile creare un cluster in grado di far fronte alle vostre esigenze di prestazione, high availability, di bilanciamento del carico, scalabilità, file sharing e di risparmio. Questo capitolo fornisce una panoramica sui componenti di Red Hat Cluster Suite e le sue funzioni, e consiste nelle seguenti sezioni: Sezione 1.1, «Concetti di base del cluster» Sezione 1.2, «Red Hat Cluster Suite Introduction» Sezione 1.3, «Cluster Infrastructure» Sezione 1.4, «Gestione dei servizi High-availability» Sezione 1.5, «Red Hat GFS» Sezione 1.6, «Cluster Logical Volume Manager» Sezione 1.7, «Global Network Block Device» Sezione 1.8, «Linux Virtual Server» Sezione 1.9, «T ool di amministrazione del cluster» Sezione 1.10, «GUI di amministrazione del server virtuale di Linux» 1.1. Concetti di base del cluster Un cluster è costituito da due i più computer (chiamati nodi o membri), che operano insieme per eseguire un compito. Sono presenti quattro tipi principali di cluster: Storage High availability Bilanciamento del carico Elevate prestazioni I cluster storage forniscono una immagine coerente del file system sui server presenti in un cluster, permettendo ai server stessi di leggere e scrivere simultaneamente su di un file system condiviso singolo. Un cluster storage semplifica l'amministrazione dello storage, limitando l'installazione ed il patching di applicazioni su di un file system. Altresì, con un file system cluster-wide, un cluster storage elimina la necessità di copie ridondanti di dati dell'applicazione, semplificando il processo di backup e di disaster recovery. Red Hat Cluster Suite fornisce uno storage clustering attraverso Red Hat GFS. I cluster High-availability forniscono una disponibilità continua dei servizi tramite l'eliminazione dei così detti single points of failure, e tramite l'esecuzione del failover dei servizi da un nodo del cluster ad un altro nel caso in cui il nodo diventi non operativo. Generalmente i servizi presenti in un cluster highavailability leggono e scrivono i dati (tramite un file system montato in modalità di lettura-scrittura). Per questo motivo un cluster high-availability deve essere in grado di garantire l'integrità dei dati, poichè un nodo del cluster può assumere il controllo di un servizio da un altro nodo. La presenza di errori in un cluster high-availability non risulta essere visibile da parte di client esterni al cluster. (I cluster highavailability sono talvolta indicati come cluster di failover.) Red Hat Cluster Suite fornisce un clustering high-availability attraverso il proprio componente High-availability Service Management. I cluster a bilanciamento del carico 'cluster load-balancing' inviano le richieste del servizio di rete a nodi multipli del cluster, in modo da bilanciare il carico richiesto tra i nodi del cluster. Il bilanciamento del carico fornisce una scalabilità molto economica, poichè è possibile corrispondere il numero di nodi in base ai requisiti del carico. Se un nodo all'interno del cluster risulta essere non operativo, il software per il bilanciamento del carico rileva l'errore e ridireziona le richieste ad altri nodi del cluster. Il fallimento di un nodo nel cluster load-balancing non risulta essere visibile da parte dei client esterni al cluster. Red Hat 9 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Cluster Suite fornisce un bilanciamento del carico attraverso LVS (Linux Virtual Server). I cluster High-performance utilizzano i nodi del cluster per eseguire processi di calcolo simultanei. Un cluster high-performance permette alle applicazioni di lavorare in parallelo aumentando così la prestazione delle applicazioni. (I cluster High performance vengono anche identificati come cluster computational o grid computing.) Nota Bene I cluster sopra citati rappresentano le configurazioni di base; in base alle vostre esigenze potreste aver bisogno di una combinazione dei tipi di cluster appena descritti. 1.2. Red Hat Cluster Suite Introduction Il Red Hat Cluster Suite (RHCS) è un set integrato di componenti software il quale può essere impiegato in una varietà di configurazioni idonee per far fronte alle vostre esigenze di prestazione, high-availability, di bilanciamento del carico, scalabilità, file sharing e di risparmio. RHCS consists of the following major components (refer to Figura 1.1, «Red Hat Cluster Suite Introduction»): Infrastruttura del cluster — Fornisce le funzioni fondamentali per i nodi in modo che gli stessi possano operare insieme come un cluster: gestione della configurazione-file, gestione appartenenza, lock management, e fencing. High-availability Service Management — Fornisce il failover dei servizi da un nodo del cluster ad un altro, in caso in cui il nodo non è più operativo. T ool di amministrazione del cluster — T ool di gestione e configurazione per l'impostazione, la configurazione e la gestione di un cluster di Red Hat. È possibile utilizzare i suddetti tool con i componenti dell'infrastruttura del cluster, e con componenti per la Gestione del servizio, High availability e storage. Linux Virtual Server (LVS) — Software di instradamento che fornisce l'IP-Load-balancing. LVM viene eseguito su di una coppia di server ridondanti, che distribuisce le richieste del client in modo omogeneo ai real server dietro i server LVS. È possibile integrare con Red Hat Cluster Suite i seguenti componenti facenti parte di un pacchetto opzionale (e non parte di Red Hat Cluster Suite): Red Hat GFS (Global File System) — Fornisce il file system del cluster per un utilizzo con Red Hat Cluster Suite. GFS permette ai nodi multipli di condividere lo storage ad un livello del blocco, come se lo storage fosse collegato localmente ad ogni nodo del cluster. Cluster Logical Volume Manager (CLVM) — Fornisce la gestione del volume del cluster storage. Nota When you create or modify a CLVM volume for a clustered environment, you must ensure that you are running the clvm d daemon. For further information, refer to Sezione 1.6, «Cluster Logical Volume Manager». Global Network Block Device (GNBD) — Un componente ausiliario di GFS in grado di esportare uno storage del livello del blocco su Ethernet. Esso rappresenta un modo molto economico per rendere disponibile il suddetto storage a Red Hat GFS. 10 Capitolo 1. Panoramica su Red Hat Cluster Suite For a lower level summary of Red Hat Cluster Suite components and optional software, refer to Capitolo 2, Sommario dei componenti di Red Hat Cluster Suite. Figura 1.1. Red Hat Cluster Suite Introduction Nota Bene Figura 1.1, «Red Hat Cluster Suite Introduction» includes GFS, CLVM, and GNBD, which are components that are part of an optional package and not part of Red Hat Cluster Suite. 1.3. Cluster Infrastructure L'infrastruttura del cluster di Red Hat Cluster Suite fornisce le funzioni di base per un gruppo di computer (chiamati nodi o membri), in modo da poter operare insieme come un cluster. Una volta formato il cluster utilizzando l'infrastruttura del cluster stesso, è possibile utilizzare altri componenti del Red Hat Cluster Suite, in modo da far fronte alle esigenze del proprio cluster (per esempio per l'impostazione di un cluster per la condivisione dei file su di un file system GFS, oppure per l'impostazione del servizio di failover). L'infrastruttura del cluster esegue le seguenti funzioni: Cluster management Lock management Fencing Gestione configurazione del cluster 1.3.1. Cluster Management Cluster management manages cluster quorum and cluster membership. CMAN (an abbreviation for cluster manager) performs cluster management in Red Hat Cluster Suite for Red Hat Enterprise Linux 5. CMAN is a distributed cluster manager and runs in each cluster node; cluster management is distributed across all nodes in the cluster (refer to Figura 1.2, «CMAN/DLM Overview»). CMAN keeps track of cluster quorum by monitoring the count of cluster nodes. If more than half the 11 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite nodes are active, the cluster has quorum. If half the nodes (or fewer) are active, the cluster does not have quorum, and all cluster activity is stopped. Cluster quorum prevents the occurrence of a "splitbrain" condition — a condition where two instances of the same cluster are running. A split-brain condition would allow each cluster instance to access cluster resources without knowledge of the other cluster instance, resulting in corrupted cluster integrity. Il quorum viene determinato tramite la presenza di messaggi inviati tra i nodi del cluster via Ethernet. Facoltativamente il quorum può essere anche determinato da una combinazione di messaggi via Ethernet e attraverso un quorum disk. Per il quorum via Ethernet, esso consiste nel 50 per cento dei voti del nodo più 1. Invece per un quorum tramite il quorum disk, esso consiste nelle condizioni specificate dall'utente. Nota Bene Per default ogni nodo possiede un voto. Facoltativamente è possibile configurare ogni nodo in modo da avere più di un voto. CMAN controlla l'appartenenza tramite il monitoraggio dei messaggi provenienti da altri nodi del cluster. Quando l'appartenenza del cluster cambia, il cluster manager invia una notifica agli altri componenti dell'infrastruttura, i quali a loro volta intraprendono l'azione appropriata. Per esempio, se il nodo A si unisce al cluster e monta un file system GFS già montato sui nodi B e C, allora sarà necessario per il nodo A un journal ed un lock management aggiuntivi per poter utilizzare il file system GFS in questione. Se il nodo non trasmette alcun messaggio entro un ammontare di tempo prestabilito il cluster manager rimuove il nodo dal cluster, e comunica agli altri componenti dell'infrastruttura del cluster che il nodo in questione non risulta più essere un membro. Ancora, altri componenti dell'infrastruttura del cluster determinano le azioni da intraprendere, previa notifica, poichè il nodo non è più un membro del cluster. Per esempio, il fencing potrebbe isolare il nodo non più membro. Figura 1.2. CMAN/DLM Overview 1.3.2. Lock Management Lock management is a common cluster-infrastructure service that provides a mechanism for other cluster infrastructure components to synchronize their access to shared resources. In a Red Hat cluster, DLM (Distributed Lock Manager) is the lock manager. As implied in its name, DLM is a distributed lock manager and runs in each cluster node; lock management is distributed across all nodes in the cluster (refer to Figura 1.2, «CMAN/DLM Overview»). GFS and CLVM use locks from the lock manager. GFS uses locks from the lock manager to synchronize access to file system metadata (on shared storage). 12 Capitolo 1. Panoramica su Red Hat Cluster Suite CLVM uses locks from the lock manager to synchronize updates to LVM volumes and volume groups (also on shared storage). 1.3.3. Fencing Fencing is the disconnection of a node from the cluster's shared storage. Fencing cuts off I/O from shared storage, thus ensuring data integrity. T he cluster infrastructure performs fencing through the fence daemon, fenced. Quando CMAN determina la presenza di un nodo fallito, esso lo comunica agli altri componenti dell'infrastruttura del cluster. fenced, una volta notificata la presenza di un errore, isola il nodo in questione. Successivamente gli altri componenti dell'infrastruttura del cluster determinano le azioni da intraprendere — essi eseguiranno qualsiasi processo necessario per il ripristino. Per esempio, subito dopo la notificata di un errore a DLM e GFS, essi sospendono l'attività fino a quando non accerteranno il completamento del processo di fencing da parte di fenced. Previa conferma del completamento di tale operazione, DLM e GFS eseguono l'azione di ripristino. A questo punto DLM rilascia i blocchi del nodo fallito e GFS ripristina il jounal del suddetto nodo. Fencing determina dal file di configurazione del cluster il metodo da utilizzare. Per la definizione del suddetto metodo è necessario prendere in considerazione due elementi principali: il dispositivo fencing ed il fencing agent. Questo programma esegue una chiamata nei confronti di un fencing agent specificato nel file di configurazione del cluster. Il fencing agent a sua volta, isola il nodo tramite un dispositivo di fencing. Una volta completato, il programma esegue la notifica al cluster manager. Red Hat Cluster Suite fornisce una varietà di metodi usati per il fencing: Power fencing — Esso è il metodo utilizzato da un controllore di alimentazione per disalimentare il nodo non utilizzabile. Fibre Channel switch fencing — Rappresenta il metodo attraverso il quale viene disabilitata la porta del Fibre Channel la quale collega lo storage ad un nodo non utilizzabile. GNBD fencing — A fencing method that disables an inoperable node's access to a GNBD server. Altri tipi di fencing — Diversi metodi per il fencing che disabilitano l'I/O o l'alimentazione di un nodo non utilizzabile, incluso gli IBM Bladecenters, PAP, DRAC/MC, HP ILO, IPMI, IBM RSA II, ed altro ancora. Figura 1.3, «Power Fencing Example» shows an example of power fencing. In the example, the fencing program in node A causes the power controller to power off node D. Figura 1.4, «Fibre Channel Switch Fencing Example» shows an example of Fibre Channel switch fencing. In the example, the fencing program in node A causes the Fibre Channel switch to disable the port for node D, disconnecting node D from storage. 13 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Figura 1.3. Power Fencing Example Figura 1.4 . Fibre Channel Switch Fencing Example Specificare un metodo significa modificare il file di configurazione del cluster in modo da assegnare un nome per il metodo di fencing desiderato, il fencing agent, ed il dispositivo di fencing per ogni nodo nel cluster. T he way in which a fencing method is specified depends on if a node has either dual power supplies or multiple paths to storage. If a node has dual power supplies, then the fencing method for the node must specify at least two fencing devices — one fencing device for each power supply (refer to Figura 1.5, 14 Capitolo 1. Panoramica su Red Hat Cluster Suite «Fencing a Node with Dual Power Supplies»). Similarly, if a node has multiple paths to Fibre Channel storage, then the fencing method for the node must specify one fencing device for each path to Fibre Channel storage. For example, if a node has two paths to Fibre Channel storage, the fencing method should specify two fencing devices — one for each path to Fibre Channel storage (refer to Figura 1.6, «Fencing a Node with Dual Fibre Channel Connections»). Figura 1.5. Fencing a Node with Dual Power Supplies Figura 1.6. Fencing a Node with Dual Fibre Channel Connections 15 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite È possibile configurare un nodo con uno o più metodi di fencing. Quando configurate un nodo per un determinato metodo di fencing, tale metodo risulterà l'unico perseguibile per eseguire il fencing del nodo in questione. Se configurate invece un nodo con metodi di fencing multipli, i suddetti metodi seguiranno una determinata sequenza, da un metodo ad un altro seguendo l'ordine riportato nel file di configurazione del cluster. Se un nodo fallisce, esso viene isolato utilizzando il primo metodo specificato nel file di configurazione del cluster. Se il primo metodo fallisce, verrà utilizzato il metodo successivo per quel nodo. Se nessun metodo è riuscito ad isolare il nodo, allora il processo di fencing inizierà nuovamente seguendo l'ordine appena descritto e specificato nel file di configurazione del cluster, fino a quando il nodo non verrà isolato con successo. 1.3.4. Il Cluster Configuration System T he Cluster Configuration System (CCS) manages the cluster configuration and provides configuration information to other cluster components in a Red Hat cluster. CCS runs in each cluster node and makes sure that the cluster configuration file in each cluster node is up to date. For example, if a cluster system administrator updates the configuration file in Node A, CCS propagates the update from Node A to the other nodes in the cluster (refer to Figura 1.7, «CCS Overview»). Figura 1.7. CCS Overview Other cluster components (for example, CMAN) access configuration information from the configuration file through CCS (refer to Figura 1.7, «CCS Overview»). 16 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.8. Accessing Configuration Information Il file di configurazione del cluster (/etc/cluster/cluster.conf) è un file XML che descrive le seguenti caratteristiche: Nome del cluster — Mostra il nome del cluster, il livello della revisione del file di configurazione, e le proprietà di base sul tempo necessario per l'esecuzione del fencing, usate quando un nodo si unisce al cluster o viene isolato. Cluster — Mostra ogni nodo del cluster, specificandone il nome, l'ID ed il numero di voti del quorum del cluster insieme al metodo per il fencing corrispondente. Fence Device — Mostra i dispositivi per il fencing nel cluster. I parametri variano a seconda del tipo di dispositivo. Per esempio, per un controllore dell'alimentazione usato come un dispositivo per il fencing, la configurazione del cluster definisce il nome del controllore dell'alimentazione, l'indirizzo IP relativo, il login e la password. Risorse gestite — Mostrano le risorse necessarie per creare i servizi del cluster. Le risorse gestite includono la definizione dei domini di failover, delle risorse (per esempio un indirizzo IP), e dei servizi. Insieme, le risorse gestite definiscono i servizi del cluster ed il comportamento del failover dei servizi del cluster. 1.4. Gestione dei servizi High-availability La gestione del servizio High-availability fornisce la possibilità di creare e gestire servizi cluster highavailability in un cluster Red Hat. Il componente principale per la gestione di un servizio high-availability in un cluster Red Hat, rgm anager, implementa un cold failover per applicazioni commerciali. In un cluster di Red Hat un'applicazione viene configurata con altre risorse del cluster in modo da formare un servizio high-availability. È possibile eseguire un failover nei confronti di tale servizio da un nodo del cluster ad un altro, senza interruzione apparente per i client. Il failover del servizio può verificarsi se un nodo fallisce o se un amministratore di sistema del cluster muove il servizio da un nodo ad un altro (per esempio, per una interruzione pianificata di un nodo). Per creare un servizio high-availability, è necessario prima configurarlo all'interno del file di configurazione del cluster. Un servizio è composto da svariate risorse. Le suddette risorse sono costituite da blocchi di costruzione da voi creati e gestiti nel file di configurazione del cluster — per 17 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite esempio, un indirizzo IP, uno script di inizializzazione dell'applicazione, o una partizione condivisa di Red Hat GFS. You can associate a cluster service with a failover domain. A failover domain is a subset of cluster nodes that are eligible to run a particular cluster service (refer to Figura 1.9, «Domini di failover»). Nota Bene I domini di failover non sono necessari per questa operazione. Il servizio può essere eseguito su di un nodo per volta in modo da garantire l'integrità dei dati. È possibile specificare la priorità di failover in un dominio di failover. T ale priorità consiste in una assegnazione di un livello di priorità ad ogni nodo in un dominio di failover. Il suddetto livello determina l'ordine di failover — determinando così il nodo sul quale un servizio del cluster deve essere eseguito in presenza di un failover. Se non specificate alcuna priorità, allora sarà possibile eseguire il failover del servizio su qualsiasi nodo presente nel proprio dominio di failover. Altresì, è possibile specificare se un servizio sia limitato durante la sua esecuzione, e quindi eseguibile solo su nodi presenti nel dominio di failover associato. (Quando associato con un dominio di failover non limitato, il servizio del cluster può essere eseguito su qualsiasi nodo, nel caso in cui nessun membro del dominio di failover risulti disponibile.) In Figura 1.9, «Domini di failover», Failover Domain 1 is configured to restrict failover within that domain; therefore, Cluster Service X can only fail over between Node A and Node B. Failover Domain 2 is also configured to restrict failover with its domain; additionally, it is configured for failover priority. Failover Domain 2 priority is configured with Node C as priority 1, Node B as priority 2, and Node D as priority 3. If Node C fails, Cluster Service Y fails over to Node B next. If it cannot fail over to Node B, it tries failing over to Node D. Failover Domain 3 is configured with no priority and no restrictions. If the node that Cluster Service Z is running on fails, Cluster Service Z tries failing over to one of the nodes in Failover Domain 3. However, if none of those nodes is available, Cluster Service Z can fail over to any node in the cluster. 18 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.9. Domini di failover Figura 1.10, «Web Server Cluster Service Example» shows an example of a high-availability cluster service that is a web server named "content-webserver". It is running in cluster node B and is in a failover domain that consists of nodes A, B, and D. In addition, the failover domain is configured with a failover priority to fail over to node D before node A and to restrict failover to nodes only in that failover domain. T he cluster service comprises these cluster resources: Risorsa indirizzo IP — Indirizzo IP 10.10.10.201. An application resource named "httpd-content" — a web server application init script /etc/init.d/httpd (specifying httpd). A file system resource — Red Hat GFS named "gfs-content-webserver". 19 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Figura 1.10. Web Server Cluster Service Example I client sono in grado di accedere al servizio del cluster tramite l'indirizzo IP 10.10.10.201, permettendo una interazione con l'applicazione del web server, httpd-content. L'applicazione httpd-content utilizza il file system gfs-content-webserver. Se il nodo B fallisce, il servizio del cluster content-webserver eseguirà il failover sul nodo D. Se il nodo D non risulta disponibile o se fallito, è possibile eseguire il failover sul nodo A. Il processo di failover si verificherà con nesuna interruzione apparente al client del cluster. Il servizio del cluster sarà accessibile da un altro nodo tramite lo stesso indirizzo IP prima del verificarsi del processo di failover. 1.5. Red Hat GFS Red Hat GFS è un file system del cluster che permette ad un cluster di nodi di accedere simultaneamente ad un dispositivo a blocchi condiviso tra i nodi. GFS è un file system nativo che interfaccia con il livello VFS dell'interfaccia del file system del kernel di Linux. GFS impiega i metadata distribuiti e journal multipli, per operare in maniera ottimale all'interno di un cluster. Per mantenere l'integrità del file system, GFS utilizza un lock manager per coordinare l'I/O. Quando un nodo modifica i dati su di un file system GFS, tale modifica sarà visibile immediatamente da parte di altri nodi del cluster che utilizzano quel file system. Utilizzando Red Hat GFS, è possibile ottenere l'uptime massimo dell'applicazione attraverso i seguenti benefici: Semplificazione della vostra infrastruttura dei dati Installazione e aggiornamenti eseguiti una sola volta per l'intero cluster. Elimina la necessità di copie ridondanti dei dati (duplicazione). Abilita un accesso lettura /scrittura simultaneo dei dati da parte di numerosi client. Semplifica il backup ed il disaster recovery (backup o ripristino di un solo file system) 20 Capitolo 1. Panoramica su Red Hat Cluster Suite Massimizza l'utilizzo delle risorse dello storage, e minimizza i costi di amministrazione. Gestisce lo storage nella sua totalità invece di gestirlo tramite ogni singola partizione. Diminuisce le necessità di spazio, eliminando la necessita di replicare i dati. Varia la dimensione del cluster aggiungendo server o storage, durante il suo normale funzionamento. Non è più necessario il partizionamento dello storage con tecniche complicate. Aggiunge il server al cluster semplicemente montandoli al file system comune I nodi che eseguono il Red Hat GFS sono configurati e gestiti tramite i tool di configurazione e gestione del Red Hat Cluster Suite. Il Volume management viene gestito attraverso il CLVM (Cluster Logical Volume Manager). Red Hat GFS permette una condivisione dei dati tra i nodi del GFS all'interno di un cluster di Red Hat. GFS fornisce una panoramica singola ed uniforme sullo spazio del nome del file system, attraverso i nodi del GFS in un cluster di Red Hat. GFS permette l'installazione e l'esecuzione delle applicazioni senza avere una conoscenza dettagliata dell'infrastruttura dello storage. Altresì, GFS fornisce alcune caratteristiche spesso necessarie in ambienti enterprise, come ad esempio i quota, journal multipli ed il supporto multipath. GFS fornisce un metodo versatile per lo storage networking basato sulle prestazioni, sulla scalabilità e sulle esigenze economiche del vostro ambiente storage. Questo capitolo fornisce alcune informazioni di base abbreviate come background, per aiutarvi a comprendere il GFS. You can deploy GFS in a variety of configurations to suit your needs for performance, scalability, and economy. For superior performance and scalability, you can deploy GFS in a cluster that is connected directly to a SAN. For more economical needs, you can deploy GFS in a cluster that is connected to a LAN with servers that use GNBD (Global Network Block Device) or to iSCSI (Internet Small Computer System Interface) devices. (For more information about GNBD, refer to Sezione 1.7, «Global Network Block Device».) Le seguenti sezioni forniscono alcuni esempi su come implementare GFS in modo da soddisfare le vostre esigenze di prestazione, scalabilità e di risparmio: Sezione 1.5.1, «Prestazione e scalabilità superiori» Sezione 1.5.2, «Prestazione, scalabilità e prezzo moderato» Sezione 1.5.3, «Risparmio e prestazione» Nota Bene Gli esempi relativi all'implementazione del GFS riflettono le configurazioni di base; nel vostro caso potreste richiedere una combinazione di configurazioni riportate con i seguenti esempi. 1.5.1. Prestazione e scalabilità superiori You can obtain the highest shared-file performance when applications access storage directly. T he GFS SAN configuration in Figura 1.11, «GFS with a SAN» provides superior file performance for shared files and file systems. Linux applications run directly on cluster nodes using GFS. Without file protocols or storage servers to slow data access, performance is similar to individual Linux servers with directly connected storage; yet, each GFS application node has equal access to all data files. GFS supports over 300 GFS nodes. 21 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Figura 1.11. GFS with a SAN 1.5.2. Prestazione, scalabilità e prezzo moderato Multiple Linux client applications on a LAN can share the same SAN-based data as shown in Figura 1.12, «GFS and GNBD with a SAN». SAN block storage is presented to network clients as block storage devices by GNBD servers. From the perspective of a client application, storage is accessed as if it were directly attached to the server in which the application is running. Stored data is actually on the SAN. Storage devices and data can be equally shared by network client applications. File locking and sharing functions are handled by GFS for each network client. Figura 1.12. GFS and GNBD with a SAN 1.5.3. Risparmio e prestazione Figura 1.13, «GFS e GNBD con uno storage collegato direttamente» shows how Linux client applications can take advantage of an existing Ethernet topology to gain shared access to all block storage devices. Client data files and file systems can be shared with GFS on each client. Application failover can be fully 22 Capitolo 1. Panoramica su Red Hat Cluster Suite automated with Red Hat Cluster Suite. Figura 1.13. GFS e GNBD con uno storage collegato direttamente 1.6. Cluster Logical Volume Manager Il Cluster Logical Volume Manager (CLVM) fornisce una versione cluster-wide di LVM2. CLVM fornisce le stesse caratteristiche di LVM2 su di un nodo singolo, rendendo i volumi disponibili su tutti i nodi in un cluster di Red Hat. I volumi logici creati con CLVM, rende gli stessi disponibili a tutti i nodi presenti in un cluster. T he key component in CLVM is clvm d. clvm d is a daemon that provides clustering extensions to the standard LVM2 tool set and allows LVM2 commands to manage shared storage. clvm d runs in each cluster node and distributes LVM metadata updates in a cluster, thereby presenting each cluster node with the same view of the logical volumes (refer to Figura 1.14, «CLVM Overview»). Logical volumes created with CLVM on shared storage are visible to all nodes that have access to the shared storage. CLVM allows a user to configure logical volumes on shared storage by locking access to physical storage while a logical volume is being configured. CLVM uses the lock-management service provided by the cluster infrastructure (refer to Sezione 1.3, «Cluster Infrastructure»). Nota Bene Lo storage condiviso con Red Hat Cluster Suite necessita di una esecuzione del cluster logical volume manager daemon (clvm d) o degli High Availability Logical Volume Management agent (HA-LVM). Se non siete in grado di utilizzare il demone clvm d o HA-LVM per ragioni operative, o perchè non siete in possesso degli entitlement corretti, è consigliato non usare il single-instance LVM sul disco condiviso, poichè tale utilizzo potrebbe risultare in una corruzione dei dati. Per qualsiasi problema si prega di consultare un rappresentante per la gestione dei servizi di Red Hat. 23 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Nota Bene L'utilizzo di CLVM richiede piccole modifiche di /etc/lvm /lvm .conf per il cluster-wide locking. Figura 1.14 . CLVM Overview You can configure CLVM using the same commands as LVM2, using the LVM graphical user interface (refer to Figura 1.15, «LVM Graphical User Interface»), or using the storage configuration function of the Conga cluster configuration graphical user interface (refer to Figura 1.16, «Conga LVM Graphical User Interface») . Figura 1.17, «Creating Logical Volumes» shows the basic concept of creating logical volumes from Linux partitions and shows the commands used to create logical volumes. Figura 1.15. LVM Graphical User Interface 24 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.16. Conga LVM Graphical User Interface Figura 1.17. Creating Logical Volumes 1.7. Global Network Block Device 25 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Il Global Network Block Device (GNBD) fornisce un accesso ai dispositivi a blocchi per Red Hat GFS attraverso T CP/IP. GNBD è simile nel concetto a NBD; tuttavia GNBD è specifico al GFS, e viene regolato solo per un suo utilizzo con il GFS. GNBD è utile se è necessario utilizzare tecnologie più robuste, il Fibre Channel o lo SCSI single-initiator non sono necessari o presentano costi proibitivi. GNBD consists of two major components: a GNBD client and a GNBD server. A GNBD client runs in a node with GFS and imports a block device exported by a GNBD server. A GNBD server runs in another node and exports block-level storage from its local storage (either directly attached storage or SAN storage). Refer to Figura 1.18, «Panoramica di GNBD». Multiple GNBD clients can access a device exported by a GNBD server, thus making a GNBD suitable for use by a group of nodes running GFS. Figura 1.18. Panoramica di GNBD 1.8. Linux Virtual Server Il Linux Virtual Server (LVS) è un insieme di componenti software integrati per il bilanciamento del carico IP attraverso un set di real server. LVS viene eseguito su di una coppia di computer configurati in modo simile: un router LVS attivo ed un router LVS di backup. Il router LVS attivo viene utilizzato per: Bilanciare il carico attraverso i real server. Controllare l'integrità dei servizi su ogni real server. Il router LVS di backup monitorizza il router LVS attivo, sostituendolo nel caso in cui il router LVS attivo fallisce. Figura 1.19, «Components of a Running LVS Cluster» provides an overview of the LVS components and their interrelationship. 26 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.19. Components of a Running LVS Cluster Il demone pulse viene eseguito sia sul router LVS attivo che su quello passivo. Sul router LVS di backup, pulse invia un heartbeat all'interfaccia pubblica del router attivo, in modo da assicurarsi che il router LVS attivo funzioni correttamente. Sul router LVS attivo, pulse avvia il demone lvs, e risponde alle interrogazioni heartbeat provenienti dal router LVS di backup. Una volta avviato, il demone lvs chiama l'utilità ipvsadm per configurare e gestire la tabella d'instradamento IPVS (IP Virtual Server) nel kernel, e successivamente avvia un processo nanny per ogni server virtuale configurato su ogni real server. Ogni processo nanny controlla lo stato di un servizio configurato su di un real server, ed indica al demone lvs se è presente un malfunzionamento del servizio su quel real server. Se tale malfunzionamento viene rilevato, il demone lvs indica a ipvsadm di rimuovere il real server in questione dalla tabella d'instradamento di IPVS. Se il router LVS di backup non riceve alcuna risposta dal router LVS attivo, esso inizia un processo di failover attraverso la chiamata send_arp, riassegnando tutti gli indirizzi IP virtuali agli indirizzi hardware NIC (indirizzo MAC) del router LVS di backup, ed inviando un comando al router LVS attivo tramite l'interfaccia di rete privata e quella pubblica in modo da interrompere il demone lvs sul router LVS attivo. A questo punto verrà avviato il demone lvs sul router LVS di backup ed accettate tutte le richieste per i server virtuali configurati. Per un utente esterno che accede ad un servizio hosted (come ad esempio le applicazioni databese o website), LVS può apparire come un unico server. T uttavia l'utente accede ai real server situati oltre i router LVS. Poichè non è presente alcun componente interno a LVS per condividere i dati tra i server reali, sono disponibili due opzioni di base: La sincronizzazione dei dati attraverso i real server. L'aggiunta di un terzo livello alla topologia per l'accesso dei dati condivisi. Verrà utilizzata la prima opzione per i server che non permettono un numero di utenti molto grande per 27 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite caricare o modificare i dati sui real server. Se i real server permettono un numero esteso di utenti per la modifica dei dati, come ad esempio un sito web e-commerce, allora sarà preferita l'aggiunta di un terzo livello. Sono disponibili diverse modalità per la sincronizzazione dei dati tra i real server. Per esempio è possibile utilizzare gli script della shell per postare simultaneamente le pagine web aggiornate sui real server. Altresì è possibile utilizzare programmi come rsync, per replicare i dati modificati attraverso tutti i nodi in un intervallo di tempo determinato. T uttavia in ambienti dove gli utenti caricano spesso file o emettono transazioni del database, l'utilizzo di script o del comando rsync per la sincronizzazione dei dati, non funzionerà in maniera ottimale. Per questo motivo per real server con un numero di upload molto elevato, e per transazioni del database o di traffico simile, una topologia three-tiered risulta essere più appropriata se desiderate sincronizzare i dati. 1.8.1. Two-Tier LVS Topology Figura 1.20, «T wo-T ier LVS T opology» shows a simple LVS configuration consisting of two tiers: LVS routers and real servers. T he LVS-router tier consists of one active LVS router and one backup LVS router. T he real-server tier consists of real servers connected to the private network. Each LVS router has two network interfaces: one connected to a public network (Internet) and one connected to a private network. A network interface connected to each network allows the LVS routers to regulate traffic between clients on the public network and the real servers on the private network. In Figura 1.20, «T woT ier LVS T opology», the active LVS router uses Network Address Translation (NAT) to direct traffic from the public network to real servers on the private network, which in turn provide services as requested. T he real servers pass all public traffic through the active LVS router. From the perspective of clients on the public network, the LVS router appears as one entity. Figura 1.20. T wo-T ier LVS T opology Le richieste del servizio che arrivano ad un router LVS vengono indirizzate ad un indirizzo IP virtuale o VIP. Esso rappresenta un indirizzo instradabile pubblicamente che l'amministratore del sito associa con un fully-qualified domain name, come ad esempio www.example.com, e assegnato ad uno o più server virtuali [1] . Nota bene che un indirizzo IP migra da un router LVS ad un altro durante un failover, 28 Capitolo 1. Panoramica su Red Hat Cluster Suite mantenendo così una presenza in quel indirizzo IP, conosciuto anche come Indirizzi IP floating. È possibile eseguire l'alias degli indirizzi VIP, sullo stesso dispositivo che esegue il collegamento del router LVS con la rete pubblica. Per esempio, se eth0 è collegato ad internet, allora sarà possibile eseguire l'alias dei server virtuali multipli su eth0:1. Alternativamente ogni server virtuale può essere associato con un dispositivo separato per servizio. Per esempio, il traffico HT T P può essere gestito su eth0:1, ed il traffico FT P gestito su eth0:2. Solo un router LVS alla volta può essere attivo. Il ruolo del router LVS attivo è quello di ridirezionare le richieste di servizio dagli indirizzi IP virtuali ai real server. Questo processo si basa su uno degli otto algoritmi per il bilanciamento del carico: Round-Robin Scheduling — Distribuisce ogni richiesta in successione all'interno di un gruppo di real server. Utilizzando questo algoritmo, tutti i real server vengono trattati allo stesso modo, senza considerare la loro capacità o il loro carico. Weighted Round-Robin Scheduling — Distribuisce ogni richiesta in successione all'interno di un gruppo di real server, dando un carico di lavoro maggiore ai server con maggiore capacità. La capacità viene indicata da un fattore di peso assegnato dall'utente, e viene modificata in base alle informazioni sul carico dinamico. Essa rappresenta la scelta preferita se sono presenti differenze sostanziali di capacità dei real server all'interno di un gruppo di server. T uttavia se la richiesta di carico varia sensibilmente, un server con un carico di lavoro molto elevato potrebbe operare oltre ai propri limiti. Least-Connection — Distribuisce un numero maggiore di richieste ai real server con un numero minore di collegamenti attivi. Questo è un tipo di algoritmo di programmazione dinamico, il quale rappresenta la scelta migliore se siete in presenza di una elevata variazione nelle richieste di carico. Offre il meglio di se per un gruppo di real server dove ogni nodo del server presenta una capacità simile. Se i real server in questione hanno una gamma varia di capacità, allora il weighted leastconnection scheduling rappresenta la scelta migliore. Weighted Least-Connections (default) — Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base alle proprie capacità. La capacità viene indicata da un peso assegnato dall'utente, e viene modificata in base alle informazioni relative al carico dinamico. L'aggiunta di peso rende questo algoritmo ideale quando il gruppo del real server contiene un hardware di varia capacità. Locality-Based Least-Connection Scheduling — Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base ai propri IP di destinazione. Questo algoritmo viene utilizzato in un cluster di server proxy-cache. Esso indirizza i pacchetti per un indirizzo IP al server per quel indirizzo, a meno che il server in questione non abbia superato la sua capacità e sia presente al tempo stesso un server che utilizzi metà della propria capacità. In questo caso l'indirizzo IP verrà assegnato al real server con un carico minore. Locality-Based Least-Connection Scheduling con Replication Scheduling — Distribuisce un numero maggiore di richieste ai server con un numero minore di collegamenti attivi, in base ai propri IP di destinazione. Questo algoritmo viene usato anche in un cluster di server proxy-cache. Esso differisce da Locality-Based Least-Connection Scheduling a causa della mappatura dell'indirizzo IP target su di un sottoinsieme di nodi del real server. Le richieste vengono indirizzate ad un server presente in questo sottoinsieme con il numero più basso di collegamenti. Se tutti i nodi per l'IP di destinazione sono al di sopra della propria capacità, esso sarà in grado di replicare un nuovo server per quel indirizzo IP di destinazione, aggiungendo il real server con un numero minore di collegamenti del gruppo di real server, al sottoinsieme di real server per quel IP di destinazione. Il nodo maggiormente carico verrà rilasciato dal sottoinsieme di real server in modo da evitare un processo di riproduzione non corretto. Source Hash Scheduling — Distribuisce le richieste al gruppo di real server, cercando l'IP sorgente in una tabella hash statica. Questo algoritmo viene usato per i router LVS con firewall multipli. 29 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Altresì, il router LVS attivo monitorizza dinamicamente lo stato generale dei servizi specifici sui real server, attraverso semplici script send/expect. Per assistervi nella rilevazione dello stato dei servizi che richiedono dati dinamici, come ad esempio HT T PS o SSL, è possibile richiamare gli eseguibili esterni. Se un servizio non funziona correttamente su di un real server, il router LVS attivo interrompe l'invio di lavori al server interessato, fino a quando non vengono ripristinate le normali funzioni. Il router LVS di backup esegue il ruolo di un sistema in standby 'attesa'. I router LVS scambiano periodicamente messaggi heartbeat attraverso l'interfaccia pubblica esterna primaria e, in una situazione di failover, attraverso l'interfaccia privata. Se il router LVS di backup non riceve un messaggio heartbeat entro un intervallo di tempo determinato, esso inizierà un processo di failover assumendo così il ruolo di router LVS attivo. Durante il processo di failover, il router LVS di backup prende a carico gli indirizzi VIP serviti dal router fallito utilizzando una tecnica conosciuta come ARP spoofing — con questa tecnica il router LVS di backup si presenta come destinazione per i pacchetti IP indirizzati al nodo fallito. Quando il nodo in questione ritorna in uno stato di servizio attivo, il router LVS di backup assume il proprio ruolo di backup. T he simple, two-tier configuration in Figura 1.20, «T wo-T ier LVS T opology» is suited best for clusters serving data that does not change very frequently — such as static web pages — because the individual real servers do not automatically synchronize data among themselves. 1.8.2. Three-Tier LVS Topology Figura 1.21, «T hree-T ier LVS T opology» shows a typical three-tier LVS configuration. In the example, the active LVS router routes the requests from the public network (Internet) to the second tier — real servers. Each real server then accesses a shared data source of a Red Hat cluster in the third tier over the private network. 30 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.21. T hree-T ier LVS T opology Questa topologia è ideale per server FT P molto occupati, dove i dati accessibili vengono conservati in un server highly available centrale, accessibili da ogni real server tramite una directory NFS esportata o una condivisione Samba. Questa topologia è anche consigliata per siti web in grado di accedere ad un database high-availability centrale per le loro transazioni. In aggiunta, utilizzando una configurazione attiva-attiva con un cluster Red Hat, è possibile configurare un cluster high-availability, in modo da servire simultaneamente entrambi i ruoli. 1.8.3. Metodi di instradamento È possibile utilizzare con LVS il Network Address T ranslation (NAT ) routing oppure l'instradamento diretto. Le seguenti sezioni descrivono brevemente il NAT routing e quello diretto con LVS. 1.8.3.1. NAT Routing Figura 1.22, «LVS Implemented with NAT Routing», illustrates LVS using NAT routing to move requests between the Internet and a private network. 31 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Figura 1.22. LVS Implemented with NAT Routing In questo esempio sono presenti due NIC all'interno del router LVS attivo. Il NIC per Internet presenta un indirizzo IP reale su eth0, con un indirizzo IP floating come alias su eth0:1. Il NIC per l'interfaccia di rete privata possiede un indirizzo IP reale su eth1 ed un indirizzo IP floating come alias su eth1:1. Nell'evento di un failover, l'interfaccia virtuale che interessa internet e quella privata che interessa l'interfaccia virtuale, vengono controllate simultaneamente dal router LVS di backup. T utti i real server presenti sulla rete privata, utilizzano l'IP floating per il router NAT come rotta predefinita per comunicare con il router LVS attivo, in modo tale da non limitare le proprie capacità di rispondere alle richieste provenienti da internet. In the example, the LVS router's public LVS floating IP address and private NAT floating IP address are aliased to two physical NICs. While it is possible to associate each floating IP address to its physical device on the LVS router nodes, having more than two NICs is not a requirement. Utilizzando questa topologia il router LVS attivo riceve la richiesta e la direziona al server appropriato. Successivamente, il real server processa la richiesta e ritorna i pacchetti al router LVS. Il router LVS utilizza la traduzione dell'indirizzo di rete per sostituire l'indirizzo del real server nei pacchetti, con l'indirizzo VIP pubblico dei router LVS. Questo processo viene chiamato IP masquerading poichè gli indirizzi IP correnti dei real server vengono nascosti ai client richiedenti. Utilizzando il NAT routing i real server possono essere rappresentati da ogni tipo di computer sui quali viene eseguito una verietà di sistemi operativi. Il router LVS può rappresentare lo svantaggio del NAT routing, infatti con implementazioni molto grandi esso deve processare richieste sia in entrata che in uscita. 1.8.3.2. Instradamento diretto L'instradamento diretto fornisce maggiori benefici per quanto riguarda le prestazioni rispetto al NAT routing. Esso permette ai real server di processare e direzionare i pacchetti direttamente ad un richiedente, invece di passare i pacchetti in uscita attraverso il router LVS. L'instradamento diretto riduce i problemi di prestazione della rete, relegando il compito del router LVS alla sola processazione dei 32 Capitolo 1. Panoramica su Red Hat Cluster Suite pacchetti in entrata. Figura 1.23. LVS Implemented with Direct Routing In una configurazione LVS direct-routing tipica, un router LVS riceve le richieste in entrata del server attraverso un IP virtuale (VIP), ed utilizza un algoritmo di programmazione per direzionare la richiesta al real server. Ogni real server processa le richieste ed invia le risposte direttamente ai client, bypassando i router LVS. L'instradamento diretto permette di avere una certa scalabilità, e quindi aggiungere real server senza aver bisogno che il router LVS direzioni i pacchetti in uscita dal real server al client, evitando un potenziale problema in presenza di carichi di rete maggiori. Anche se sono presenti numerosi vantaggi nell'utilizzo dell'instradamento diretto in LVS, sono presenti alcune limitazioni. Il problema più comune tra l'instradamento diretto e LVS è rappresentato dall'Address Resolution Protocol (ARP). In typical situations, a client on the Internet sends a request to an IP address. Network routers typically send requests to their destination by relating IP addresses to a machine's MAC address with ARP. ARP requests are broadcast to all connected machines on a network, and the machine with the correct IP/MAC address combination receives the packet. T he IP/MAC associations are stored in an ARP cache, which is cleared periodically (usually every 15 minutes) and refilled with IP/MAC associations. Il problema esistente con le richieste ARP in una configurazione LVS con instradamento diretto, è dovuto alla necessità di associare una richiesta del client fatta ad un indirizzo IP, con l'indirizzo MAC per la richiesta da gestire, l'indirizzo IP virtuale del router LVS deve anch'esso essere associato ad un MAC. T uttavia, poichè sia il router LVS che i real server possiedono lo stesso VIP, la richiesta ARP viene trasmessa a tutti i nodi associati con il VIP. T ale operazione potrebbe causare diversi problemi come ad esempio la possibilità di associare il VIP direttamente ad uno dei real server, e processare la richiesta 33 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite direttamente bypassando completamente il router LVS, ed annullando lo scopo della configurazione LVS. L'utilizzo di un router LVS con una CPU molto potente in grado di rispondere rapidamente alle richieste del client, porebbe non risolvere questo problema. Se il router LVS presenta un carico molto elevato, esso potrebbe rispondere alle richieste ARP molto più lentamente di un real server con un carico di lavoro normale, il quale sarà in grado di rispondere più velocemente e al quale verrà assegnato il VIP nella cache ARP del client richiedente. Per risolvere questo problema le richieste in entrata dovrebbero solo associare il VIP al router LVS, il quale processerà correttamente le richieste, inviandole al gruppo di real server. È possibile eseguire questo processo utilizzando il tool arptables di filtraggio del pacchetto. 1.8.4. Persistenza e Firewall Mark In alcune situazioni potrebbe essere più semplice per un client ricollegarsi ripetutamente allo stesso real server, invece di avere un algoritmo di bilanciamento del carico di LVS per l'invio della richiesta al server migliore disponibile. Esempi di quanto detto includono forme web multi-screen, cookies, SSL, e collegamenti FT P. In questi casi un client potrebbe non funzionare correttamente a meno che le transazioni non vengono gestite dallo stesso server che ne mantiene il contesto. LVS fornisce due diverse funzioni in grado di gestire quanto detto: persistenza e firewall mark. 1.8.4 .1. Persistence Quando abilitata, la persistenza funziona come un timer. Quando un client esegue il collegamento ad un servizio, LVS ricorda l'ultimo collegamento effettuato dal client stesso per un periodo di tempo specificato. Se lo stesso indirizzo IP del client si collega entro un determinato periodo, esso verrà inviato allo stesso server al quale si è precedentemente collegato — bypassando così i meccanismi di bilanciamento del carico. Se si verifica invece al di fuori del suddetto periodo, tale processo viene gestito in base alle regole in corso. La persistenza vi permette altresì di specificare una maschera di sottorete da applicare al test dell'indirizzo IP del client, come tool per il controllo degli indirizzi che possiedono un elevato livello di persistenza, e quindi raggruppando i collegamenti a quella sottorete. Il raggruppamento dei collegamenti destinati a porte diverse, può essere importante per protocolli che utilizzano più di una porta per le loro comunicazioni, come ad esempio FT P. T uttavia la persistenza non rappresenta il metodo più efficace per affrontare il problema del raggruppamento dei collegamenti destinati a porte diverse. Per queste situazioni, è consigliato utilizzare firewall mark. 1.8.4 .2. Firewall Mark I firewall mark rappresentano un modo semplice ed efficiente per le porte di un gruppo, usate per un protocollo o gruppo di protocolli relativi. Per esempio, se LVS viene implementato su di un sito ecommerce, i firewall mark possono essere usati per raggruppare i collegamenti HT T P sulla porta 80, e rendere i collegamenti HT T PS sicuri sulla porta 443. Assegnando lo stesso firewall mark al server virtuale per ogni protocollo, le informazioni sullo stato per ogni transazione possono essere preservate, poichè il router LVS inoltra tutte le richieste allo stesso real server dopo aver aperto un collegamento. A causa della sua efficienza e facilità d'uso, è consigliato agli amministratori di LVS l'utilizzo, quando possibile, dei firewall mark invece della persistenza per raggruppare i collegamenti. T uttavia è consigliato aggiungere la persistenza sui server virtuali insieme ai firewall mark, in modo da assicurarsi che i client possono essere ricollegati allo stesso server per un periodo di tempo adeguato. 1.9. Tool di amministrazione del cluster Red Hat Cluster Suite fornisce una varietà di tool per configurare e gestire il vostro cluster di Red Hat. Qusta sezione fornisce una panoramica dei tool di amministrazione disponibili con Red Hat Cluster 34 Capitolo 1. Panoramica su Red Hat Cluster Suite Suite: Sezione 1.9.1, «Conga» Sezione 1.9.2, «GUI di amministrazione del cluster» Sezione 1.9.3, «T ool di amministrazione della linea di comando» 1.9.1. Conga Conga è un set di componenti software in grado di fornire una gestione ed una configurazione centralizzata dello storage e dei cluster di Red Hat. Conga fornisce le seguenti funzioni: Una interfaccia web per la gestione dello storage e del cluster Implementazione automatizzata dei dati del cluster e pacchetti di supporto Integrazione semplice con i cluster esistenti Nessuna necessità di eseguire la riautenticazione Integrazione dello stato del cluster e dei log Controllo più meticoloso sui permessi dell'utente I componenti primari di Conga sono luci e ricci, i quali non possono essere installati separatamente. luci è un server eseguito su di un computer in grado di comunicare con cluster multipli e computer tramite ricci. ricci è un agent eseguito su ogni computer (un membro del cluster o un computer standalone) gestito da Conga. luci è accessibile tramite un web browser e fornisce le tre funzioni più importanti accessibili attraverso le seguenti schede: homebase — Fornisce i tool usati per aggiungere e cancellare i computer, gli utenti e per la configurazione dei privilegi dell'utente. Solo un amministratore di sistema è in grado di accedere a questa scheda. cluster — Fornisce i tool usati per la creazione e la configurazione dei cluster. Ogni istanza di luci elenca i cluster impostati con quel luci. Un amministratore del sistema può gestire tutti i cluster presenti su questa scheda. Altri utenti potranno amministrare solo i cluster verso i quali l'utente avrà i permessi per la gestione (conferiti da un amministratore). storage — Fornisce i tool per l'amministrazione remota dello storage. Con i tool presenti su questa scheda, sarete in grado di gestire lo storage sui computer, senza considerare se essi appartengono o meno ad un cluster. Per amministrare un cluster o uno storage, un amministratore deve aggiungere (o registrare) un cluster o un computer su di un server luci. Quando un cluster o un computer risultano registrati con luci, l'hostname FQDN o indirizzo IP di ogni computer, viene conservato in un database luci. Potete popolare il database di una istanza luci tramite un'altra istanza luci. Questa capacità fornisce un mezzo per la replica di una istanza del server luci, e fornisce un aggiornamento efficiente insieme ad un percorso di prova. Quando installate una istanza di luci, il suo database risulta vuoto. T uttavia è possibile importare parte o tutto il database luci da un server luci esistente, quando implementate un nuovo server luci. Ogni istanza di luci presenta un utente al momento dell'installazione iniziale — admin. Solo l'utente admin è in grado di aggiungere i sistemi ad un server luci. Altresì il suddetto utente può creare account aggiuntivi e determinare quali utenti sono in grado di accedere ai cluster ed ai computer registrati nel database di luci. È possibile importare gli utenti a gruppi in un nuovo server di luci, in modo simile al processo d'importazione dei cluster e dei computer. Quando un computer viene aggiunto ad un server luci per essere amministrato, l'autenticazione viene 35 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite eseguita solo una volta. Per questo motivo non è necessario alcun processo di autenticazione supplementare (a meno che il certificato usato non venga annullato da un CA). Successivamente è possibile configurare e gestire in modo remoto i cluster e lo storage attraverso l'interfaccia utente di luci. luci e ricci comunicano tra loro attraverso XML. Le seguenti figure mostrano esempi delle tre schede più importanti di luci: homebase, cluster, e storage. Per maggiori informazioni su Conga, consultate la Configurazione e gestione di un Red Hat Cluster, e l'aiuto disponibile online con il server di luci. Figura 1.24 . Scheda homebase di luci Figura 1.25. Scheda cluster di luci 36 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.26. Scheda storage di luci 1.9.2. GUI di amministrazione del cluster T his section provides an overview of the system -config-cluster cluster administration graphical user interface (GUI) available with Red Hat Cluster Suite. T he GUI is for use with the cluster infrastructure and the high-availability service management components (refer to Sezione 1.3, «Cluster Infrastructure» and Sezione 1.4, «Gestione dei servizi High-availability»). T he GUI consists of two major functions: the Cluster Configuration T ool and the Cluster Status T ool. T he Cluster Configuration T ool provides the capability to create, edit, and propagate the cluster configuration file (/etc/cluster/cluster.conf). T he Cluster Status T ool provides the capability to manage highavailability services. T he following sections summarize those functions. Sezione 1.9.2.1, «Cluster Configuration T ool» Sezione 1.9.2.2, «Cluster Status T ool» 1.9.2.1. Cluster Configuration T ool You can access the Cluster Configuration T ool (Figura 1.27, «Cluster Configuration T ool») through the Cluster Configuration tab in the Cluster Administration GUI. 37 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Figura 1.27. Cluster Configuration T ool Il Cluster Configuration T ool rappresenta i componenti di configurazione del cluster nel file di configurazione (/etc/cluster/cluster.conf), con un display grafico gerarchico nel pannello di sinistra. Una icona triangolare a sinistra del nome del componente, indica che il componente stesso possiede uno o due componenti subordinati assegnati. Facendo clic sull'icona triangolare sarete in grado di espandere o comprimere la porzione d'albero situata sotto un componente. I componenti visualizzati nella GUI vengono riassunti nel seguente modo: Nodi del Cluster — Visualizza i nodi del cluster. I nodi vengono rappresentati per nome come elementi subordinati sotto Nodi del Cluster. Utilizzando i pulsanti per la configurazione della struttura (sotto Proprietà), sarà possibile aggiungere, cancellare i nodi e modificare le loro proprietà, configurando anche i metodi di fencing per ogni nodo. Dispositivi Fence — Mostra i dispositivi Fence. I suddetti dispositivi vengono rappresentati come elementi subordinati sotto Dispositivi Fence. Utilizzando i pulsanti di configurazione nella parte inferiore della struttura (sotto Proprietà), sarà possibile aggiungere e cancellare i dispositivi Fence, e modificarne le loro proprietà. È necessario definire questi dispositivi prima di configurare il processo di fencing (tramite il pulsante Gestisci il fencing per questo nodo) per ogni nodo. Risorse gestite — Visualizza i domini di failover, le risorse ed i servizi. Dom ini di Failover — Per la configurazione di uno o più sottoinsiemi dei nodi del cluster usati per eseguire un servizio high-availability nell'evento del fallimento di un nodo. I domini di failover sono rappresentati come elementi subordinati sotto i Dom ini di Failover. Utilizzando i pulsanti per la configurazione nella parte bassa della struttura (sotto Proprietà), 38 Capitolo 1. Panoramica su Red Hat Cluster Suite è possibile creare i domini di failover (quando viene selezionato Dom ini di Failover, oppure modificare le proprietà del dominio di failover (quando è stato selezionato un dominio di failover). Risorse — Per la configurazione delle risorse condivise utilizzate dai servizi high-availability. Le risorse condivise consistono in file system, indirizzi IP, esportazioni e montaggi NFS e script creati dall'utente disponibili per qualsiasi servizio high-availability nel cluster. Le risorse vengono rappresentate come elementi subordinati sotto Risorse. Utilizzando i pulsanti di configurazione nella parte bassa della struttura (sotto Proprietà), è possibile creare le risorse (se Risorse è stato selezionato), oppure modificare la proprietà di una risorsa (se avete selezionato una risorsa). Nota Bene Il Cluster Configuration T ool fornisce la capacità di configurare le risorse private. Una risorsa privata è una risorsa configurata per l'utilizzo con un solo servizio. È possibile configurare una risorsa privata all'interno di un componente di Service tramite la GUI. Servizi — Per la creazione e la configurazione di servizi high-availability. Un servizio viene configurato attraverso l'assegnazione delle risorse (condivise o private), assegnando un dominio di failover, e definendo una policy di ripristino per il servizio. I servizi vengono rappresentati come elementi subordinati sotto Servizi. Utilizzando i pulsanti di configurazione nella parte bassa della struttura (sotto Proprietà), è possibile creare i servizi (se Servizi è stato selezionato), oppure modificare le proprietà di un servizio (se avete selezionato un servizio). 1.9.2.2. Cluster Status T ool You can access the Cluster Status T ool (Figura 1.28, «Cluster Status T ool») through the Cluster Management tab in Cluster Administration GUI. 39 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Figura 1.28. Cluster Status T ool I nodi ed i servizi visualizzati nel Cluster Status T ool vengono determinati dal file di configurazione del cluster (/etc/cluster/cluster.conf). È possibile utilizzare il Cluster Status T ool per abilitare, disabilitare, riavviare o riposizionare un servizio high-availability. 1.9.3. Tool di amministrazione della linea di comando In addition to Conga and the system -config-cluster Cluster Administration GUI, command line tools are available for administering the cluster infrastructure and the high-availability service management components. T he command line tools are used by the Cluster Administration GUI and init scripts supplied by Red Hat. T abella 1.1, «T ool della linea di comando» summarizes the command line tools. 40 Capitolo 1. Panoramica su Red Hat Cluster Suite T abella 1.1. T ool della linea di comando T ool della linea di comando Usato con Scopo ccs_tool — T ool del sistema di configurazione del cluster Cluster Infrastructure ccs_tool è un programma usato per creare aggiornamenti online per il file di configurazione del cluster. Esso conferisce la capacità di creare e modificare i componenti dell'infrastruttura del cluster (per esempio creare un cluster, o aggiungere e rimuovere un nodo). Per maggiori informazioni su questo tool, consultate la pagina man di ccs_tool(8). cm an_tool — T ool di gestione del cluster Cluster Infrastructure cm an_tool è un programma che gestisce il CMAN cluster manager. Esso fornisce la possibilità di unirsi o abbandonare un cluster, di terminare un nodo, o di modificare i voti del quorum previsti di un nodo in un cluster. Per maggiori informazioni su questo tool, consultate la pagina man di cman_tool(8). fence_tool — T ool di Fence Cluster Infrastructure fence_tool è un programma usato per unirsi o abbandonare il dominio predefinito di fence. In modo specifico, avviare il demone di fence (fenced), unirsi al dominio, terminare fenced, e per abbandonare il dominio in questione. Per maggiori informazioni su questo tool consultate la pagina man di fence_tool(8). clustat — Utilità dello stato del cluster Componenti di gestione del servizio Highavailability Il comando clustat visualizza lo status del cluster. Esso mostra le informazioni sull'appartenenza, la vista sul quorum e lo stato di tutti i servizi utente configurati. Per maggiori informazioni su questo tool, consultate la pagina man di clustat(8). clusvcadm — Utilità di amministrazione del servizio utente del cluster Componenti di gestione del servizio Highavailability Il comando clusvcadm vi permette di abilitare, disabilitare, riposizionare e riavviare i servizi high-availability in un cluster. Per maggiori informazioni su questo tool, consultate la pagina man di clusvcadm(8). 1.10. GUI di amministrazione del server virtuale di Linux Questa sezione fornisce una panoramica del tool di configurazione LVS disponibile con il Red Hat Cluster Suite — il Piranha Configuration T ool. Il Piranha Configuration T ool è una interfaccia utente grafica GUI del web browser, in grado di fornire un approccio strutturato per la creazione del file di configurazione per LVS — /etc/sysconfig/ha/lvs.cf. Per poter accedere al Piranha Configuration T ool è necessario eseguire il servizio piranha-gui sul router LVS attivo. È possibile accedere al Piranha Configuration T ool in modo locale o remoto tramite un web browser. Per l'accesso locale è possibile utilizzare il seguente URL: http://localhost:3636. Per un accesso remoto è possibile utilizzare un hostname o l'indirizzo IP reale seguito da :3636. Se state per accedere al Piranha Configuration T ool in modo remoto, allora avrete bisogno di un collegamento ssh per il router LVS attivo come utente root. Starting the Piranha Configuration T ool causes the Piranha Configuration T ool welcome page to be displayed (refer to Figura 1.29, «T he Welcome Panel»). Logging in to the welcome page provides 41 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite access to the four main screens or panels: CONT ROL/MONIT ORING, GLOBAL SET T INGS, REDUNDANCY, and VIRT UAL SERVERS. In addition, the VIRT UAL SERVERS panel contains four subsections. T he CONT ROL/MONIT ORING panel is the first panel displayed after you log in at the welcome screen. Figura 1.29. T he Welcome Panel Le seguenti sezioni forniscono una breve descrizione sulle pagine di configurazione del Piranha Configuration T ool. 1.10.1. CONTROL/MONITORING Il pannello CONT ROLLO/MONIT ORAGGIO visualizza lo stato del runtime. Inoltre, è in grado di visualizzare lo stato del demone di pulse, la tabella d'instradamento LVS, ed i processi nanny generati da LVS. Figura 1.30. T he CONT ROL/MONIT ORING Panel 42 Capitolo 1. Panoramica su Red Hat Cluster Suite Auto update Permette l'aggiornamento automatico del display dello stato, ad un intervallo configurato dall'utente all'interno della casella Frequenza di aggiornam ento in secondi (il valore predefinito è 10 secondi). Non è consigliato impostare l'aggiornamento automatico ad un intervallo di tempo inferiore a 10 secondi, poichè così facendo sarà difficile riconfigurare l'intervallo di Aggiornam ento autom atico poichè la pagina verrà aggiornata troppo frequentemente. Se incontrate questo problema fate clic su di un altro pannello e successivamente su CONT ROLLO/MONIT ORAGGIO. Update inform ation now Fornisce l'aggiornamento manuale delle informazioni sullo stato. CHANGE PASSWORD Facendo clic su questo pulsante verrete direzionati su di una schermata d'aiuto, contenente le informazioni su come modificare la password amministrativa per il Piranha Configuration T ool. 1.10.2. GLOBAL SETTINGS T he GLOBAL SET T INGS panel is where the LVS administrator defines the networking details for the primary LVS router's public and private network interfaces. Figura 1.31. T he GLOBAL SET T INGS Panel 43 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite T he top half of this panel sets up the primary LVS router's public and private network interfaces. Prim ary server public IP Indirizzo IP reale pubblicamente instradabile per il nodo LVS primario. Prim ary server private IP L'indirizzo IP reale per una interfaccia di rete alternativa sul nodo LVS primario. Questo indirizzo viene utilizzato solo come canale heartbeat alternativo per il router di backup. Use network type Seleziona scegli NAT routing. T he next three fields are specifically for the NAT router's virtual network interface connected the private network with the real servers. NAT Router IP L'IP floating privato in questo campo di testo. Il suddetto IP floating deve essere usato come gateway per i real server. NAT Router netm ask If the NAT router's floating IP needs a particular netmask, select it from drop-down list. NAT Router device Definisce il nome del dispositivo dell'interfaccia di rete per l'indirizzo IP floating, come ad esempio eth1:1. 1.10.3. REDUNDANCY Il pannello RIDONDANZA vi permette di configurare il nodo del router LVS di backup, ed impostare le varie opzioni per il monitoraggio dell' heartbeat. 44 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.32. T he REDUNDANCY Panel Redundant server public IP Indirizzo IP reale pubblico per il router LVS di backup. Redundant server private IP T he backup router's private real IP address. Il resto del pannello viene utilizzato per la configurazione del canale heartbeat, il quale a sua volta viene usato dal nodo di backup per monitorare la presenza di errori nel nodo primario. Heartbeat Interval (seconds) Imposta il numero di secondi tra gli heartbeat — l'intervallo entro il quale il nodo di backup controllerà la funzionalità dello stato del nodo LVS primario. Assum e dead after (seconds) Se il nodo LVS primario non risponde dopo il suddetto numero di secondi, allora il nodo del router LVS di backup inizierà un processo di failover. Heartbeat runs on port Imposta la porta sulla quale l'heartbeat comunica con il nodo LVS primario. Il default viene impostato su 539 se questo campo viene lasciato vuoto. 1.10.4. VIRTUAL SERVERS 45 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Il pannello SERVER VIRT UALI visualizza le informazioni relative ad ogni server virtuale corrente definito. Ogni voce presente nella tabella mostra lo stato del server virtuale, il nome del server, l'IP virtuale assegnato al server, la maschera di rete dell'IP virtuale, il numero della porta usata dal servizio per comunicare, il protocollo usato e l'interfaccia del dispositivo virtuale. Figura 1.33. T he VIRT UAL SERVERS Panel Ogni server presente nel pannello SERVER VIRT UALI può essere configurato sulle schermate successive o sulle sottosezioni. Per aggiungere un dispositivo fate clic sul pulsante AGGIUNGI. Per rimuovere un servizio, selezionatelo tramite il pulsante situato accanto al server virtuale, e successivamente sul pulsante CANCELLA. Per abilitare o disabilitare un server virtuale nella tabella, fate clic sul pulsante corrispondente e successivamente sul pulsante (DIS.)ABILIT A. Dopo aver aggiunto un server virtuale, sarà possibile configurarlo facendo clic sul pulsante corrispondente sulla sinistra, e successivamente il pulsante MODIFICA per visualizzare la sottosezione SERVER VIRT UALE. 1.10.4 .1. Sottosezione SERVER VIRT UALE T he VIRT UAL SERVER subsection panel shown in Figura 1.34, «T he VIRT UAL SERVERS Subsection» allows you to configure an individual virtual server. Links to subsections related specifically to this virtual server are located along the top of the page. But before configuring any of the subsections related to this virtual server, complete this page and click on the ACCEPT button. 46 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.34 . T he VIRT UAL SERVERS Subsection Nam e Un nome descrittivo per identificare il server virtuale. Questo nome non è l'hostname per la macchina, quindi rendetelo descrittivo e facilmente identificabile. Potrete altresì riferirvi al protocollo usato dal server virtuale, come ad esempio HT T P. Application port Il numero della porta attraverso la quale il service application sarà in ascolto. Protocol Fornisce una scelta di UDP o T CP, in un menu a tendina. Virtual IP Address T he virtual server's floating IP address. Virtual IP Network Mask La maschera di rete per questo server virtuale nel menu a tendina. Firewall Mark Usato per inserire un valore intero di un firewall mark durante l'unione di protocolli multi-port, o per la creazione di un server virtuale multi-port per protocolli relativi ma separati. Device Il nome del dispositivo di rete al quale desiderate unire l'indirizzo IP floating definito nel campo 47 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Indirizzo IP virtuale. È consigliato l'alias dell'indirizzo IP floating pubblico sull'interfaccia Ethernet collegata alla rete pubblica. Re-entry T im e Un valore intero che definisce il numero di secondi prima che il router LVS attivo possa cercare di utilizzare un real server dopo il suo fallimento. Service T im eout Un valore intero che definisce il numero di secondi prima che un real server venga considerato morto e quindi non disponibile. Quiesce server Quando un nodo del real server è online, dopo aver selezionato il pulsante radio server Quiesce la tabella delle least-connection viene azzerata. Così facendo il router LVS attivo indirizza le richieste come se i real server fossero stati appena aggiunti al cluster. Questa opzione impedisce ad un nuovo server di saturarsi a causa di un numero elevato di collegamenti al momento dell'ingresso nel cluster. Load m onitoring tool Il router LVS è in grado di monitorare il carico sui vari real server tramite l'utilizzo sia di rup che di ruptim e. Se selezionate rup dal menu a tendina, ogni real server deve eseguire il servizio rstatd. Se invece selezionate ruptim e, ogni real server deve eseguire il servizio rwhod. Scheduling L'algoritmo preferito per la programmazione dal menu a tendina. Il default è Weighted leastconnection. Persistenza Utilizzato se avete bisogno di collegamenti persistenti per il server virtuale durante le transazioni del client. Specifica in questo campo il numero di secondi di inattività prima che un collegamento possa scadere. Persistence Network Mask Per poter limitare la persistenza di una particolare sottorete, selezionate la maschera di rete appropriata dal menu a tendina. 1.10.4 .2. Sottosezione REAL SERVER Facendo clic sul link della sottosezione REAL SERVER nella parte alta del pannello, sarete in grado di visualizzare la sottosezione MODIFICA REAL SERVER. Essa mostra lo stato degli host del server fisico per un servizio virtuale specifico. 48 Capitolo 1. Panoramica su Red Hat Cluster Suite Figura 1.35. T he REAL SERVER Subsection Click the ADD button to add a new server. T o delete an existing server, select the radio button beside it and click the DELET E button. Click the EDIT button to load the EDIT REAL SERVER panel, as seen in Figura 1.36, «T he REAL SERVER Configuration Panel». Figura 1.36. T he REAL SERVER Configuration Panel 49 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Questo pannello consiste in tre campi: Nam e Un nome descrittivo per il real server. Nota Bene Questo nome non è l'hostname per la macchina, quindi rendetelo descrittivo e facilmente identificabile. Address T he real server's IP address. Since the listening port is already specified for the associated virtual server, do not add a port number. Weight An integer value indicating this host's capacity relative to that of other hosts in the pool. T he value can be arbitrary, but treat it as a ratio in relation to other real servers. 1.10.4 .3. EDIT MONIT ORING SCRIPT S Subsection Fate clic sul link SCRIPT DI MONIT ORAGGIO nella parte alta della pagina. La sottosezione MODIFICA SCRIPT DI MONIT ORAGGIO permette all'amministratore di specificare una sequenza della stringa del tipo send/expect, per verificare che il servizio per il server virtuale funzioni correttamente su ogni real server. Esso rappresenta anche il luogo dove l'amministratore può specificare script personalizzati per il controllo dei servizi che richiedono una modifica dinamica dei dati. Figura 1.37. T he EDIT MONIT ORING SCRIPT S Subsection 50 Capitolo 1. Panoramica su Red Hat Cluster Suite Sending Program Per una verifica dei servizi molto più avanzata è possibile utilizzare questo campo per specificare il percorso per uno script di controllo del servizio. Questa funzione è particolarmente utile per servizi che richiedono una modifica dinamica dei dati, come ad esempio HT T PS o SSL. Per utilizzare questa funzione è necessario scrivere uno script il quale ritorna una risposta testuale, impostatela in modo da essere eseguibile e digitate il percorso relativo nel campo Program m a m ittente. Nota Bene Se viene inserito nel campo Program m a m ittente un programma esterno, allora il campo Invio viene ignorato. Send Una stringa per il demone nanny da inviare ad ogni real server in questo campo. Per default il campo relativo a HT T P è stato completato. È possibile alterare questo valore a seconda delle vostre esigenze. Se lasciate questo campo vuoto, il demone nanny cerca di aprire la porta, e se ha successo assume che il servizio è in esecuzione. In questo campo è permesso solo una sola sequenza d'invio, e può contenere solo caratteri ASCII stampabili insieme ai seguenti caratteri: \n per una nuova riga. \r per il ritorno a capo del cursore. \t per tab. \ escape del carattere successivo che lo segue. Expect La risposta testuale che il server dovrebbe ritornare se funziona correttamente. Se avete scritto il vostro programma mittente, inserite la risposta da inviare in caso di successo. [1] Un s erver virtuale è un s erviz io c o nfig urato in as c o lto s u d i un IP virtuale s p ec ific o . 51 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite Questo capitolo fornisce un sommario dei componenti di Red Hat Cluster Suite e consiste nelle seguenti sezioni: Sezione 2.1, «Componenti del cluster» Sezione 2.2, «Pagine man» Sezione 2.3, «Hardware compatibile» 2.1. Componenti del cluster T abella 2.1, «Componenti del sottosistema software di Red Hat Cluster Suite» summarizes Red Hat Cluster Suite components. 52 Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite T abella 2.1. Componenti del sottosistema software di Red Hat Cluster Suite Funzione Componenti Descrizione Conga luci Sistema di gestione remoto - Stazione di gestione. ricci Sistema di gestione remoto - Stazione gestita. Cluster Configuration T ool system -config-cluster Comando usato per gestire la configurazione del cluster in una impostazione grafica. Cluster Logical Volume Manager (CLVM) clvm d Il demone che distribuisce gli aggiornamenti dei metadata LVM in un cluster. Esso deve essere in esecuzione su tutti i nodi nel cluster, ed emetterà un errore se è presente un nodo in un cluster il quale non possiederà un demone in esecuzione. lvm T ool LVM2. Fornisce i tool della linea di comando per LVM2. system -config-lvm Fornisce l'interfaccia utente grafica per LVM2. lvm .conf Il file di configurazione LVM. Il percorso completo è /etc/lvm /lvm .conf. ccs_tool ccs_tool fà parte di un Cluster Configuration System (CCS). Viene utilizzato per creare aggiornamenti online dei file di configurazione CCS. È possibile usarlo anche per aggiornare i file di configurazione del cluster dagli archivi CCS creati con GFS 6.0 (e versioni precedenti) al formato della configurazione del formato XML usato con questa release di Red Hat Cluster Suite. ccs_test Comando diagnostico e di prova usato per ripristinare le informazioni dai file di configurazione attraverso ccsd. ccsd Demone CCS eseguito su tutti i nodi del cluster, che fornisce i dati del file di configurazione al software del cluster. cluster.conf Questo è il file di configurazione del cluster. Il percorso completo è /etc/cluster/cluster.conf. cm an.ko Il modulo del kernel per CMAN. cm an_tool Rappresenta il front end amministrativo per CMAN. Esso è in grado di avviare ed arrestare CMAN e modificare alcuni parametri interni come ad esempio i voti. dlm _controld Demone avviato dallo script init cm an per Cluster Configuration System (CCS) Cluster Manager (CMAN) 53 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite gestire dlm nel kernel; non usato dall'utente. Resource Group Manager (rgmanager) Fence 54 gfs_controld Demone avviato dallo script init cm an per gestire gfs nel kernel; non usato dall'utente. group_tool Usato per ottenere un elenco di gruppi relativi al fencing, DLM, GFS, e per ottenere le informazioni di debug; include ciò che viene fornito da cm an_tool services in RHEL 4. groupd Demone avviato dallo script init cm an per interfacciare openais/cm an e dlm _controld/gfs_controld/fenc ed; non usato dall'utente. libcm an.so.<version number> Librerie per programmi che devono interagire con cm an.ko. clusvcadm Comando usato per abilitare, disabilitare, riposizionare e riavviare manualmente i servizi dell'utente in un cluster. clustat Comando usato per visualizzare lo stato del cluster, inclusa l'appartenenza del nodo ed i servizi in esecuzione. clurgm grd Demone usato per gestire le richieste del servizio dell'utente incluso service start, service disable, service relocate, e service restart. clurm tabd Demone usato per gestire le tabelle NFS mount clusterizzate. fence_apc Fence agent per l'interrutore di alimentazione APC. fence_bladecenter Fence agent per IBM Bladecenters con interfacia T elnet. fence_bullpap Fence agent per l'interfaccia Bull Novascale Platform Administration Processor (PAP). fence_drac Fencing agent per la scheda d'accesso remoto Dell. fence_ipm ilan Fence agent per macchine controllate da IPMI (Intelligent Platform Management Interface) attraverso la LAN. fence_wti Fence agent per l'interruttore di alimentazione WT I. fence_brocade Fence agent per l'interruttore del Brocade Fibre Channel. fence_m cdata Fence agent per l'interruttore del McData Fibre Channel. fence_vixel Fence agent per l'interruttore del Vixel Fibre Channel. fence_sanbox2 Fence agent per l'interruttore del Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite SANBox2 Fibre Channel. fence_ilo Fence agent per le interfacce ILO di HP (chiamate precedentemente fence_rib). fence_rsa I/O Fencing agent per IBM RSA II. fence_gnbd Fence agent usato con lo storage GNBD. fence_scsi I/O fencing agent per le prenotazioni persistenti di SCSI. fence_egenera Fence agent usato con il sistema Egenera BladeFrame. fence_m anual Fence agent per una interazione manuale. NOTA BENE Questo componente non è supportato per ambienti di produzione. fence_ack_m anual Interfaccia utente per fence_m anual agent. fence_node Un programma che esegue I/O fencing su di un nodo singolo. fence_xvm I/O Fencing agent per macchine virtuali Xen. fence_xvm d I/O Fencing agent host per macchine virtuali Xen. fence_tool Un programma utilizzato per entrare ed uscire dal dominio fence. fenced Il demone Fencing I/O. DLM libdlm .so.<version number> Libreria per il supporto del Distributed Lock Manager (DLM). GFS gfs.ko Modulo del kernel che implementa il file system GFS caricato sui nodi del cluster GFS. gfs_fsck Comando che ripara un file system GFS non montato. gfs_grow Comando usato per espandere un file system GFS montato. gfs_jadd Comando che aggiunge i journal ad un file system GFS montato. gfs_m kfs Comando che crea un file system GFS su di un dispositivo di storage. gfs_quota Comando che gestisce i quota su di un file system GFS montato. gfs_tool Comando che configura o regola un file system GFS. Questo comando è in grado di raccogliere una varietà di informazioni sul file system. m ount.gfs Icona d'aiuto di mount chiamata da m ount(8); non usato dall'utente. gnbd.ko Modulo del kernel che implementa il driver del dispositivo GNBD sui client. gnbd_export Comando usato per creare, esportare e GNBD 55 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite gestire GNBD, su di un server GNBD. LVS 56 gnbd_im port Comando usato per importare e gestire GNBD su di un client GNBD. gnbd_serv Un demone del server che permette ad un nodo di esportare lo storage locale attraverso la rete. pulse T his is the controlling process which starts all other daemons related to LVS routers. At boot time, the daemon is started by the /etc/rc.d/init.d/pulse script. It then reads the configuration file /etc/sysconfig/ha/lvs.cf. On the active LVS router, pulse starts the LVS daemon. On the backup router, pulse determines the health of the active router by executing a simple heartbeat at a user-configurable interval. If the active LVS router fails to respond after a userconfigurable interval, it initiates failover. During failover, pulse on the backup LVS router instructs the pulse daemon on the active LVS router to shut down all LVS services, starts the send_arp program to reassign the floating IP addresses to the backup LVS router's MAC address, and starts the lvs daemon. lvsd Il demone lvs viene eseguito sul router LVS attivo una volta chiamato da pulse. Esso legge il file di configurazione /etc/sysconfig/ha/lvs.cf, chiama l'utilità ipvsadm per compilare e gestire la tabella di routing IPVS, e assegna un processo nanny per ogni servizio LVS configurato. Se nanny riporta la presenza di un real server inattivo, lvs indica alla utilità ipvsadm di rimuovere il real server in questione dalla tabella di routing IPVS. ipvsadm Questo servizio aggiorna la tabella del routing IPVS nel kernel. Il demone lvs imposta e gestisce LVS, chiamando ipvsadm in modo da aggiungere, modificare o cancellare le voci presenti nella tabella del routing IPVS. nanny Il demone di controllo nanny viene eseguito sul router LVS attivo. Attraverso questo demone, il router LVS attivo determina lo stato di ogni real server, e facoltativamente, controlla il carico di Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite lavoro relativo. Viene eseguito un processo separato per ogni servizio definito su ogni real server. Quorum Disk lvs.cf Questo è il file di configurazione di LVS. Il percorso completo per il file è /etc/sysconfig/ha/lvs.cf. Direttamente o indirettamente tutti i demoni ottengono le proprie informazioni sulla configurazione da questo file. Piranha Configuration T ool Questo è il tool basato sul web per il monitoraggio, configurazione e gestione di LVS. Esso rappresenta il tool predefinito per gestire il file di configurazione di LVS /etc/sysconfig/ha/lvs.cf. send_arp Questo programma invia i broadcast ARP quando l'indirizzo IP floating cambia da un nodo ad un altro durante un failover. qdisk Un demone del quorum basato sul disco per CMAN / Linux-Cluster. m kqdisk Utilità disco quorum del cluster. qdiskd Demone disco quorum del cluster. 2.2. Pagine man Questa sezione elenca le pagine man pertinenti al Red Hat Cluster Suite, come risorsa aggiuntiva. Infrastruttura del cluster ccs_tool (8) - Il tool usato per creare aggiornamenti online dei file di configurazione CCS ccs_test (8) - Il tool diagnostico per un Cluster Configuration System ccsd (8) - Il demone usato per accedere al file di configurazione del cluster di CCS ccs (7) - Cluster Configuration System cman_tool (8) - Cluster Management T ool cluster.conf [cluster] (5) - Il file di configurazione per i prodotti del cluster qdisk (5) - un demone del quorum basato sul disco per CMAN / Linux-Cluster mkqdisk (8) - Cluster Quorum Disk Utility qdiskd (8) - Cluster Quorum Disk Daemon fence_ack_manual (8) - programma eseguito da un operatore come parte di un I/O Fencing manuale fence_apc (8) - I/O Fencing agent per APC MasterSwitch fence_bladecenter (8) - I/O Fencing agent per IBM Bladecenter fence_brocade (8) - I/O Fencing agent per interruttori Brocade FC fence_bullpap (8) - I/O Fencing agent per l'architettura Bull FAME controllata da una console di gestione PAP fence_drac (8) - fencing agent per il Dell Remote Access Card fence_egenera (8) - I/O Fencing agent per Egenera BladeFrame fence_gnbd (8) - I/O Fencing agent per cluster GFS basati su GNBD 57 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite fence_ilo (8) - I/O Fencing agent per HP Integrated Lights Out card fence_ipmilan (8) - I/O Fencing agent per macchine controllate da IPMI tramite LAN fence_manual (8) - programma eseguita da fenced come parte del manuale I/O Fencing fence_mcdata (8) - I/O Fencing agent per interruttori McData FC fence_node (8) - Un programma che esegue I/O fencing su di un nodo singolo fence_rib (8) - I/O Fencing agent per Compaq Remote Insight Lights Out card fence_rsa (8) - I/O Fencing agent per IBM RSA II fence_sanbox2 (8) - I/O Fencing agent per interruttori QLogic SANBox2 FC fence_scsi (8) - I/O fencing agent per SCSI persistent reservations fence_tool (8) - Un programma utilizzato per entrare ed uscire dal dominio fence fence_vixel (8) - I/O Fencing agent per interruttori Vixel FC fence_wti (8) - I/O Fencing agent per WT I Network Power Switch fence_xvm (8) - I/O Fencing agent per macchine virtuali Xen fence_xvmd (8) - I/O Fencing agent host per macchine virtuali Xen fenced (8) - Il demone I/O Fencing High-availability Service Management clusvcadm (8) - Utilità Cluster User Service Administration clustat (8) - Utilità Cluster Status Clurgmgrd [clurgmgrd] (8) - Resource Group (Cluster Service) Manager Daemon clurmtabd (8) - Cluster NFS Remote Mount T able Daemon GFS gfs_fsck (8) - Controllore file system GFS Offline gfs_grow (8) - Espande un file system GFS gfs_jadd (8) - Aggiunge i journal ad un file system GFS gfs_mount (8) - opzioni di montaggio GFS gfs_quota (8) - Manipola i disk quotas del GFS gfs_tool (8) - interfaccia per le chiamate gfs ioctl Cluster Logical Volume Manager clvmd (8) - Demone LVM del cluster lvm (8) - T ool LVM2 lvm.conf [lvm] (5) - File di configurazione per LVM2 lvmchange (8) - modifica gli attributi del logical volume manager pvcreate (8) - inizializza un disco o una partizione per un utilizzo da parte di LVM lvs (8) - riporta informazioni sui volumi logici Global Network Block Device gnbd_export (8) - l'interfaccia per esportare GNBD gnbd_import (8) - manipola i dispositivi a blocchi GNBD su di un client gnbd_serv (8) - demone del server gnbd LVS pulse (8) - demone heartbeating per il monitoraggio della salute dei nodi del cluster lvs.cf [lvs] (5) - file di configurazione per lvs lvscan (8) - esegue la scansione (su tutti i dischi) per la presenza di volumi logici lvsd (8) - demone per controllare i Red Hat clustering service ipvsadm (8) - Amministrazione del server virtuale di Linux 58 Capitolo 2. Sommario dei componenti di Red Hat Cluster Suite ipvsadm-restore (8) - ripristina la tabella IPVS da stdin ipvsadm-save (8) - salva la tabella IPVS su stdout nanny (8) - tool per il monitoraggio dello stato dei servizi in un cluster send_arp (8) - tool usato per notificare ad una rete la presenza di una nuova mappatura dell'indirizzo IP / MAC 2.3. Hardware compatibile Per informazioni sull'hardware compatibile con i componenti Red Hat Cluster Suite (per esempio, dispositivi di fence supportati, dispositivi storage e switch del Fibre Channel), consultate le linee guida sulla configurazione hardware su http://www.redhat.com/cluster_suite/hardware/. 59 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite Cronologia della revisione Revisione 3-7.4 00 Rebuild with publican 4.0.0 2013-10-31 Rüdiger Landmann Revisione 3-7 Rebuild for Publican 3.0 2012-07-18 Anthony T owns Revisione 1.0-0 Consolidamento delle versioni T ue Jan 20 2008 Paul Kennedy Indice analitico C cluster - displaying status, Cluster Status T ool cluster administration - displaying cluster and service status, Cluster Status T ool cluster component compatible hardware, Hardware compatibile cluster component man pages, Pagine man cluster components table, Componenti del cluster Cluster Configuration T ool - accessing, Cluster Configuration T ool cluster service - displaying status, Cluster Status T ool command line tools table, T ool di amministrazione della linea di comando compatible hardware - cluster components, Hardware compatibile Conga - overview, Conga Conga overview, Conga F feedback, Commenti I 60 Cronologia della revisione introduction, Introduzione - other Red Hat Enterprise Linux documents, Introduzione L LVS - direct routing - requirements, hardware, Instradamento diretto - requirements, network, Instradamento diretto - requirements, software, Instradamento diretto - routing methods - NAT , Metodi di instradamento - three tiered - high-availability cluster, T hree-T ier LVS T opology M man pages - cluster components, Pagine man N NAT - routing methods, LVS, Metodi di instradamento network address translation (vedi NAT ) O overview - economy, Red Hat GFS - performance, Red Hat GFS - scalability, Red Hat GFS P Piranha Configuration T ool - CONT ROL/MONIT ORING, CONT ROL/MONIT ORING - EDIT MONIT ORING SCRIPT S Subsection, EDIT MONIT ORING SCRIPT S Subsection - GLOBAL SET T INGS, GLOBAL SET T INGS - login panel, GUI di amministrazione del server virtuale di Linux - necessary software, GUI di amministrazione del server virtuale di Linux - REAL SERVER subsection, Sottosezione REAL SERVER - REDUNDANCY, REDUNDANCY 61 Red Hat Enterprise Linux 5 Panoramica sul Cluster Suite - VIRT UAL SERVER subsection, VIRT UAL SERVERS - Firewall Mark , Sottosezione SERVER VIRT UALE - Persistence , Sottosezione SERVER VIRT UALE - Scheduling , Sottosezione SERVER VIRT UALE - Virtual IP Address , Sottosezione SERVER VIRT UALE - VIRT UAL SERVERS, VIRT UAL SERVERS R Red Hat Cluster Suite - components, Componenti del cluster T table - cluster components, Componenti del cluster - command line tools, T ool di amministrazione della linea di comando 62