Il termine “rete” si riferisce idealmente a una maglia di collegamenti
by user
Comments
Transcript
Il termine “rete” si riferisce idealmente a una maglia di collegamenti
LE RETI Il termine “rete” si riferisce idealmente a una maglia di collegamenti; in pratica indica un insieme di componenti collegati tra loro in qualche modo a formare un sistema. Più precisamente, con esso possiamo indicare un gruppo di due o più computer collegati tra loro. Gli elaboratori rappresentano i nodi della rete descritta e, spesso, vengono definiti “host” o stazioni; i collegamenti tra questi nodi fanno sì che la rete di svolgere la sua funzione principe, quella di consentire il passaggio di dati da un elaboratore all’altra sotto forma di pacchetti. Le reti possono essere locali o geografiche: quando si parla della rete situata in un’unica sede dell’azienda abbiamo una rete locale (LAN, Local Area Network); se due reti situate in due sedi differenti sono collegate mediante servizi offerti da un Internet Service Provider (ISP) o tramite una linea dedicata fornita da una società telefonica, abbiamo, oltre a due reti locali, una rete WAN (Wide Area Network, detta anche rete geografica). Ogni rete comprende: - almeno due computer; - una scheda di rete (un dispositivo che permette al computer di colloquiare con la rete) su ogni computer (detta anche NIC, Network Interface Card); - un mezzo di collegamento, ovvero il cavo. Oggi esiste anche la possibilità di far comunicare i computer e le periferiche collegati in rete senza cavo (“wireless”); - un software di rete, normalmente già presente nei più comuni sistemi operativi quali Windows 95/98, Windows NT/2000, Apple MacOs, Novell NetWare; - un punto di aggregazione, ovvero una speciale “scatola” per connettere tutti i cavi. In passato vi erano anche reti in cui il cavo di rete di ogni PC si collegava direttamente ad un altro PC: oggi, invece, le reti prevedono quasi sempre una struttura più efficiente, che riunisce i cavi connessi ai PC in un unico punto. Quella che abbiamo definito “scatola” cui si attaccano i cavi provenienti dai PC può essere definita hub o switch. Certo, rete locale ed Intranet sono stati a lungo una prerogativa delle sole grandi realtà aziendali con la disponibilità di grosse risorse da investire nell’infrastruttura informatica; la diminuzione dei costi dei prodotti informatici ha fatto sì che oggi, anche nelle piccole imprese, la spesa necessaria per costruire una piccola rete locale sia più che sostenibile. Ovviamente, anche la sua amministrazione è stata talmente automatizzata da divenire gestibile anche da personale non altamente specializzato. Per costruire una rete è sufficiente, come detto, che due computer siano collegati tra loro: i vantaggi di una rete sono molti e riguardano diversi aspetti dell’utilizzo dei sistemi informativi. Un primo vantaggio di collegare i computer in rete è la possibilità di condivisione e di accesso remoto delle informazioni: una cartella o un file memorizzati su un nodo della rete possono essere condivisi e ad essi possono accedere gli utenti di tutti gli altri nodi. Un altro vantaggio consiste nella possibilità di condivisione delle risorse fisiche come stampanti o connessioni ad Internet. Se si dispone di una rete locale, basta collegare la stampante ad un nodo che funge da server per tutte le operazioni di stampa originate dalle altre postazioni. Analogamente, una connessione ad Internet può essere gestita da un singolo computer e condivisa tra tutti gli utenti che possono accedere a quest’ultimo. Un terzo vantaggio della connessine in rete consiste nella facilitazione dell’implementazione di strategie di backup che prevedono la duplicazione automatica e periodica dei file su più nodi. Un ultimo vantaggio della connessione in rete consiste nella facilitazione dell’implementazione di strategie di backup che prevedono la duplicazione automatica e periodica dei file su più nodi. Un ultimo vantaggio, forse quello più importante, è che una rete locale costituisce un’ottima infrastruttura a supporto della produttività con strumenti come la posta elettronica e l’Intranet aziendale. CLIENT E SERVER Spesso, quando la rete si ingrandisce e aumenta il numero di utilizzatori connessi, si introduce un computer su cui non lavorerà nessuno: sarà, infatti, un computer dedicato ad offrire servizi agli altri PC della rete. Questo computer viene chiamato server, un punto centralizzato per archiviare (e condividere) informazioni (file) o programmi. I server si occupano anche di gestire e metter a disposizione di tutti alcune periferiche come le stampanti. In tutti quei casi in cui esiste un server in rete, tutti gli altri computer prendono il nome di client. Nelle reti di più piccole dimensioni, dove si decide di non installare un server, alcune funzioni di condivisione possono essere espletate dai singoli computer connessi, come lo scambio di file ed e-mail, la copia di file sui dischi fissi di qualcun altro. Facciamo ora una rapida carrellata dei componenti fondamentali, che si trovano in tutte le reti locali. - scheda di rete: le schede di rete sono generalmente installate all’interno del computer, dal quale “spunta” solo la parte terminale, nella quale deve essere inserito il cavo di rete. - Hub: detti anche ripetitori, gli hub sono i dispositivi che collegano fra di loro gli utenti, rappresentando il punto di aggregazione di tutti i cavi collegati ai PC. Ogni pacchetto di dati proveniente da un computer viene ricevuto dall’hub su una porta e trasmesso a tutte le altre (ovviamente, il pacchetto verrà poi ricevuto solo dal computer che risulta essere l’effettivo destinatario). Tutti gli utenti collegati a un hub si trovano nello stesso “segmento” di rete e condividono la stessa larghezza di banda (così viene chiamata la velocità della rete), per cui, nel caso della comune rete Ethernet, la banda di 10 Mbps viene condivisa in modo tale per cui se un utente ne sta utilizzando il 10%, agli altri utenti rimangono 9 Mbps. E’ facile immaginare che questa tipologia di connessione con banda condivisa esaurisca rapidamente la capacità della rete di far viaggiare rapidamente il traffico delle informazioni. - Switch: gli switch svolgono la stessa funzione degli hub, ma sono più potenti e intelligenti; innanzitutto, offrono una larghezza di banda maggiore agli utenti, perché la banda non è condivisa, ma dedicata (se è di 10 Mbps, ogni utente avrà i propri 10Mbps, da non dividere con nessun altro). Inoltre, uno switch, essendo in grado di leggere le informazioni con l’indirizzo di ogni pacchetto, invia i pacchetti di dati solo alla porta specifica del destinatario. - Router: anch’essi sono smistatori di traffico che ricevono dati e li inviano da qualche altra parte. Nelle reti solitamente si occupano del traffico verso l’esterno della rete locale, ad esempio per un collegamento ad Internet. Basandosi su una mappa di rete denominata “tabella di routine”, i router possono fare in modo che i pacchetti raggiungano le loro destinazioni attraverso i percorsi più efficaci. Se cade la connessione tra due router, per non bloccare il traffico il router sorgente può definire un percorso alternativo. Il passo successivo consiste nell’illustrare le diverse tecnologie di “networking”: - LAN Ethernet e Fast Ethernet: Ethernet è apparsa per la prima volta nel 1970 e rappresenta la tecnologia tutt’ora più diffusa per le reti locali. Sinteticamente, un computer con scheda di rete Ethernet può inviare i pacchetti di dati solo quando nessun altro pacchetto sta viaggiando sulla rete, ovverosia quando la rete è, per così dire, tranquilla. In caso contrario, aspetta a trasmettere come quando, durante una conversazione, una persona deve attendere che l’altra smetta prima di parlare a sua volta. Se più computer percepiscono contemporaneamente un momento “tranquillo” e iniziano ad inviare i dati nello stesso momento, si verifica una “collisione” dei dati sulla rete, con conseguente necessità di effettuare altri tentativi: ogni computer, infatti, attende per un certo periodo e prova a inviare nuovamente il pacchetto di dati. Se gli utenti di una rete aumentano, cresce rapidamente anche il numero di collisioni, errori e ritrasmissioni, con un effetto a valanga dannoso per le prestazioni della rete. Come già accennato in precedenza, la larghezza di banda (o capacità di trasmissione dei dati) di Ethernet è di 10 Mbps; Fast Ethernet opera nel medesimo modo, ma ad una velocità dieci volte superiore (100Mbps). Una volta compreso il modo di operare delle reti Ethernet, è facile comprendere quanto uno switch possa essere efficiente nel risolvere i problemi di traffico, fornendo più corsie ai dati che viaggiano, rispetto alle reti dove la banda è condivisa da tutti i computer. Le seguenti immagini vogliono rappresentare le diverse modalità di funzionamento delle reti Ethernet e Fast Ethernet. Come accennato all’inizio, le LAN servono gli utenti locali all’interno di un edificio; le reti WAN, invece, collegano LAN situate in luoghi diversi della stessa città, nazione o di qualsiasi altra parte del mondo. Si tratta, quindi, di un collegamento a distanza e si parla in questo caso, di connettività geografica. Internet, ovviamente, è una rete WAN, così come lo sono le reti che connettono le filiali di un’azienda sparse sul territorio. In generale, le velocità delle reti locali (LAN) sono decisamente superiori a quelle delle WAN: si pensi che se una Ethernet va a 10 o 100 Mbps, ovvero dieci/cento milioni di bit al secondo, un comune modem opera a 56 Kbps (“solo” 56 mila bit a secondo), e quindi a meno del 10% della velocità di una Ethernet. PACCHETTO E PROTOCOLLO Come detto, scopo principe della rete è il trasferimento dei dati: questi viaggiano nella rete sotto forma di pacchetti: il termine è appropriato in quanto si tratta di un vero e proprio confezionamento delle informazioni attraverso cui si definisce il mittente e il destinatario dei dati trasmessi. Il confezionamento e le dimensioni dei pacchetti dipendono, poi, dal tipo di rete fisica utilizzata. I dati, è facile immaginarlo, sono un materiale duttile,che può essere suddiviso e aggregato in vari modi. Ciò significa che, durante il loro tragitto, i dati possono essere scomposti e ricomposti più volte e in modi differenti: ad esempio, per attraversare un segmento di una rete particolare, potrebbe essere necessario suddividere dei pacchetti troppo grandi in pacchetti più piccoli, oppure potrebbe essere utile il contrario. I pacchetti di dati, poi, vengono trasmessi e ricevuti in base a delle regole definite da un “protocollo di comunicazione”. A qualunque livello della nostra esistenza è necessario un protocollo per comunicare: in un colloquio tra persone, chi parla invia un messaggio all’altra che, per riceverlo, deve ascoltare; volendo proseguire con questo esempio, si può anche considerare il problema dell’inizio e della conclusione della comunicazione: la persona con cui si vuole comunicare oralmente deve essere raggiunta e si deve ottenere la sua attenzione, per esempio con un saluto; alla fine della comunicazione, occorre un modo per definire che il contatto è terminato, con una qualche forma di commiato. Il protocollo più utilizzato per la trasmissione e la ricezione delle informazioni è il TCP/IP (Transmission Control Protocol / Internet Protocol), formato da due componenti: 1. il protocollo IP, che suddivide ogni messaggio in uscita in pacchetti di piccole dimensioni e ricompone i messaggi in arrivo, unendo i relativi pacchetti; 2. il protocollo TCP, che controlla la correttezza della trasmissione e fa sì che, se un pacchetto va perso o arriva danneggiato, esso sia inviato di nuovo. LA RETE DELLE RETI: INTERNET LA NASCITA DI INTERNET Dai più, il 1969 è ricordato come l’anno dello sbarco dell’uomo sulla Luna, evento di indiscussa importanza, che ha segnato l’alba di una nuova era; esiste, però, almeno un altro motivo perché quest’anno possa ritenersi epocale: la nascita di Internet. La comune convinzione che la cosiddetta “Rete delle Reti” sia un’invenzione degli anni ’90 può ritenersi corretta solo in piccola parte: infatti, la storia di Internet ha avuto un corpo parallelo alla Storia contemporanea ufficiale, benché inizialmente molti avvenimenti fossero conosciuti solo dagli addetti ai lavori. Quello che potremmo definire il casus belli della nostra storia è la realizzazione di un importantissimo progetto spaziale sovietico nel 1957, la messa in orbita dello Sputnik. Questo evento ebbe forti ripercussioni negli Stati Uniti, che videro minacciata la propria supremazia tecnologica e, non da ultimo, il proprio primato in campo militare. La risposta, come prevedibile, non si fece attendere: alla fine degli anni ’50, in piena guerra fredda, l’amministrazione Eisenhower diede un notevole impulso alla ricerca militare nel settore delle comunicazioni; in particolare, in seguito all’approvazione del Congresso, il Dipartimento della Difesa degli Stati Uniti nel 1958 diede vita all’ARPA (Advanced Research Project Agency), con sede all’interno del Pentagono, a Washington. Nonostante questo rinnovato impegno, i progressi sovietici in campo spaziale non si arrestarono, tutt’altro: nel 1961, il russo Yuri Gagarin divenne il primo uomo lanciato nello spazio. A fronte di ciò, gli Stati Uniti decisero di stanziare ancora maggiori finanziamenti nel campo della ricerca aerospaziale e costituirono la NASA, alla quale venne trasferita la competenza di gestire i programmi spaziali, con i relativi capitali. Dal canto suo, l’ARPA dovete cercarsi un nuovo oggetto di studio, che trovò nella scienza dell’informazione e della comunicazione; in particolare, la direzione dell’agenzia, avendo a disposizione costosi elaboratori elettronici, decise di sviluppare un progetto che conferisse a quelle macchine la capacità di comunicare e trasferire i dati. Nel 1969 vide la luce, quindi, il primo risultato concreto del progetto, chiamato ARPAnet: come viene riportato comunemente nei trattati di storia di Internet, l’obiettivo di ARPAnet era quello di garantire la sicurezza dei dati in caso di guerra nucleare. In realtà, almeno in un primo tempo, il progetto portò ala condivisione dei sistemi tra i quattro poli universitari coinvolti: UCLA (Università di Los Angeles), UCSB (Università di Santa Barbara), Università dello Utah e lo SRI (Stanford Research Institute); il primo esperimento compiuto fu il tentativo di accesso da UCLA al sistema dello SRI, seguito da due gruppi di studenti in collegamento telefonico: al secondo tentativo, sul video del computer remoto dello SRI comparve la parola “LOG”, digitata da un professore che in quel momento si trovava a Los Angeles. In progetto ARPAnet non è nato, quindi, con finalità militari, come spesso si vuol far credere, e, a dimostrazione di ciò, vi è il fatto che i dettagli tecnici che ne delineano la composizione non furono coperti da segreto, ma da sempre sono di dominio pubblico. D’altro lato, è sicuramente vero che le applicazioni militari furono una conseguenza obbligata di un progetto che poteva nascere solamente dalla sinergia delle uniche due entità che all’epoca disponevano della tecnologia informatica necessaria, il Dipartimento della Difesa e l’ambiente universitario della ricerca. Il vantaggio di uno sfruttamento del progetto ARPAnet in campo militare è legato al fatto che, se si fosse verificato un bombardamento, il rischio di perdita di dati sarebbe stato scongiurato, dal momento che comunicazioni e archivi potevano essere trasmessi tra computer dislocati in località differenti. Dopo ARPAnet, vi furono numerosi sviluppi delle comunicazioni in rete, che consentirono ad un numero sempre maggiore di utenti (per lo più università) di collegarsi tra loro. Nel 1991, iniziò la collaborazione europea alla struttura di Internet: il Cern di Ginevra sviluppò un sistema per consultare in modo intuitivo informazioni, dati e immagini che diede corpo al Word Wide Web. La consultazione fu così fluida da essere definita, in inglese, surfing (ovvero “navigazione”), grazie anche al linguaggio con cui da quel momento in avanti vennero composti i dati da consultare: l’HTML. HTML Alla base del Web risiede il fondamentale concetto di HTML. L’HTML (Hyper Text Markup Language) è un linguaggio, con le sue regole grammaticali e sintattiche, che stabilisce come devono realizzare e decifrare i documenti ipertestuali. Questi documenti possono essere collegati tra loro con opportuni riferimenti, non necessariamente reciproci, arricchiti di immagini, testi, suoni o altre risorse multimediali, creando quelle che in gergo si chiamano pagine Web. Le potenzialità esplorative di Internet offerte ad ogni singolo navigatore risiedono nella fitta ragnatela di interconnessioni che possono essere stabilite tra il materiale diffuso attraverso la Rete, organizzate secondo la logica dell’ipertesto e che divengono esse stesse ipertesto. La forza dell’ipertesto sta nel fatto di consentire la simulazione di processi associativi, simili a processi della mente umana che non pensa solo sequenzialmente, ma che procede anche per associazioni di idee; analogamente, l’ipertesto non ha un ordine di lettura fisso e prestabilito come un romanzo e, per questa sua caratteristica, non risulta mai uguale a se stesso. Le funzioni svolte da un sistema ipertestuale sono innanzitutto di consultazione: l’utente può posizionarsi sulla Rete, navigare nella base informativa seguendo i vari collegamenti che si dipartono dal nodo, visualizzare il contenuto del nodo e così via. Un ipertesto può essere letto in molteplici direzioni: dall’alto verso il basso, come un normale libro, o da fuori a dentro; ogni pagina può essere la porta di accesso ad un’altra pagina interna alla stessa opera o al sito che si sta consultando, ma anche di altri siti sparsi nella rete. URL Ogni computer connesso via internet viene identificato univocamente con un indirizzo numerico, detto indirizzo IP, che viene rappresentato mediante quattro numeri (di una, due o tre cifre ognuno), separati da un punto (ad es. 189.193.42.16). Ad ogni connessione Internet l’utente deve esplicitare l’indirizzo del sistema con il quale intende scambiare informazioni. Dal momento, però, che un nome simbolico viene ricordato più facilmente rispetto ad un indirizzo numerico, ad ogni computer viene solitamente associato anche un nome di dominio formato da tre o più parti, separate da punti: ad esempio www.unibo.it. Si parla, quindi, di URL (Uniform Resource Locator) di un sito web per indicare il nome simbolico della risorsa di rete, preceduto dal protocollo che si deve utilizzare per raggiungerla: l’URL permette così di localizzare univocamente ciascuna risorsa; il servizio che trasforma poi i nomi simbolici in numeri è chiamato DNS (Domain Name Service). Consideriamo, ad esempio, l’indirizzo http://www.cib.unibo.it/dicocco/rimini/index.html: la prima parte, fino alla doppia barra, indica il tipo di accesso al documento (protocollo); così, una URL che inizia con ftp porterà ad un server che ci permetterà di scaricare un file, mentre un indirizzo che inizia con http ci porta ad una pagina web. La parte dopo la doppia barra identifica il nome del server dove risiede la risorsa in questione: ogni indirizzo è formato da un insieme di caratteri separati da un punto, senza spazi, da un minimo di due blocchi ad un massimo di quattro. Dopo l’indirizzo vero e proprio, può essere presente una barra: da questo punto in poi ci troviamo nel percorso di cartelle e file del serve a cui siamo collegati; nel nostro esempio, “/dicocco/rimini/” rappresenta il percorso nel quale si trova il file desiderato, chiamato “index.html”, come indica l’ultima parte dell’indirizzo. I browser più recenti (il browser è il programma che, interpretandoli linguaggio HTML, ci consente di visualizzare le pagine web sul computer) ci consentono delle facilitazioni nella digitazione degli indirizzo Web: in particolare, non siamo più obbligati a scrivere il prefisso per il protocollo (http://), ma sarà il programma che, quando noi digiteremo la URL, inserirà il resto. Come anticipato, l’indirizzo vero e proprio della risorsa, o URL, è formato al massimo da quattro stringhe di caratteri, seguendo una logica gerarchica da sinistra verso destra: più precisante, troviamo un dominio di primo livello, seguito da un dominio di secondo livello ed eventuali altri sottodomini (al massimo altri due). Cosi, l’indirizzo www.cib.unibo.it si compone di un primo livello, che identifica la nazione o il tipo di servizio che l’organizzazione svolge, ed è rappresentato da una sigla (.it); continuando, il primo sottodominio (o dominio di secondo livello) identifica l’organizzazione generale Università di Bologna, mentre il secondo specifica ulteriormente il livello, indicando il Cib. La sigla www indica che ci troviamo nel Word Wide Web. LA NAVIGAZIONE Come anticipato, per iniziare a usare il World Wide Web è sufficiente potersi collegare a Internet e avere a disposizione un browser Web: il browser sappiamo essere un’applicazione che sia in grado di ricercare e riprodurre a video le pagine Web contenenti le informazioni estratte dalla rete e che consenta di procedere da una pagina all’altra servendosi di collegamenti ipertestuali inseriti nelle pagine Web stesse. I browser Web più utilizzati sono: - NETSCAPE NAVIGATOR: sviluppato da Netscape Communicator Corp, è disponibile gratuitamente per piattaforma Macintosh, Windows e Unix. Navigator fa parte di Netscape Communicator, un gruppo di programmi che include un potente editor HTML per la creazione di pagine Web, un programma di posta elettronica denominato Messenger e un lettore di news denominato Netscape Newsgroup. - MICROSOFT INTERNET EXPLORER: presente su tutti i sistemi operativi Windows, è disponibileanche per piattaforme Macintosh gratuitamente. - LYNX: si tratta di un browser per piattaforme UNIX e per accedere a Internet tramite fornitori di accesso che richiedono l’uso di sistemi UNIX. Linx visualizza solo la parte testuale dei documenti Web e, pertanto, è particolarmente adatto per coloro che utilizzano computer vecchi oppure modem che non forniscono prestazioni sufficientemente elevate per poter essere sfruttati con browser di tipo grafico. INTERNET EXPLORER: per avviare Internet Explorer è sufficiente fare clic sull’icona sulla barra delle applicazioni, oppure scegliendo Start Æ Programmi Æ Internet Explorer o, ancora, facendo doppio clic sulla “E” blu sul desktop. Quando si avvia il browser, la pagina iniziale è, in genere, la home page della Microsoft. Per visualizzare una pagina Web di cui è noto l’URL, bisogna digitare quest’ultima direttamente nella casella Indirizzo al di sotto della barra degli strumenti e premere INVIO. Internet Explorer indica, nella parte inferiore dello schermo,la progressione dell’operazione. Potrebbe essere necessario attendere alcuni istanti prima di visualizzare la pagina; se si desidera interrompere l’operazione fare clic sul tasto Termina. E’ possibile modificare il percorso della home page e della pagina di ricerca preferita scegliendo Strumenti Æ Opzioni Internet per visualizzare la finestra di dialogo Opzioni Internet. Fare clic sulla scheda Generale e digitare l’URL nella casella Indirizzo. I collegamenti ipertestuali inseriti in una pagina Web vengono contrassegnati da un colore identificativo: si tenga presente che anche le immagini o gli elementi grafici possono essere definiti come collegamenti ipertestuali e, in questo caso, vengono di solito racchiusi in una cornice. Quando si porta il puntatore del mouse su di un collegamento ipertestuale, sulla Barra di stato della finestra di Internet Explorer (in basso a sinistra) viene riportato l’URL a cui il collegamento ipertestuale fa riferimento e il puntatore assume l’aspetto di una piccola mano con dito indicante. Per accedere al documento richiamato dal collegamento ipertestuale, si faccia clic sul collegamento della pagina Web visualizzata e si attenda che Internet Explorer reperisca e carichi la nuova pagina. Per tornare all’ultima pagina visualizzata, fare clic sul pulsante Indietro, l’icona all’estrema sinistra della barra degli strumenti. Se la pagina non viene caricata in modo corretto, è possibile caricarla di nuovo facendo clic sul pulsante Aggiorna. Quando si visualizza una pagina Web particolarmente interessante e alla quale si pensi di accedere anche in futuro, la si potrà inserire nell’elenco dei preferiti. 1. Avviare il comando Preferiti Aggiungi a Preferiti, in modo da visualizzare la relativa finestra di dialogo; 2. correggere il contenuto del campo Nome con quello della pagina; 3. fare clic su OK per aggiungere il sito Web alla lista dei preferiti; 4. per richiamare uno degli indirizzi presenti nella lista dei preferiti, basta sceglierlo dal menù dei Preferiti presente sulla Barra degli strumenti e scegliendo da qui il sito desiderato. Una volta che l’elenco dei preferiti ha raggiunto dimensioni ragguardevoli, è possibile adottare una tecnica di organizzazione delle voci presenti nell’elenco. REPERIMENTO DELLE INFORMAZIONI IN INTERNET Se inizialmente esisteva una chiara distinzione tra directory Web e motori di ricerca, adesso le funzionalità dei due sono strettamente combinate, tanto da poter parlare di siti di ricerca. Le directory Web non sono altro che catalogazioni d’informazioni del World Wide Web organizzate gerarchicamente, dove dai livelli superiori si dipartono aree tematiche dalle quali, a loro volta, possono dipendere sottoaree. Molte organizzazioni, poi, si sono prese carico del compito d’indicizzare interamente il World Wide Web tramite visite periodiche dei siti Web. Vengono analizzati servendosi di parole chiave e seguendo qualsiasi percorso ipertestuale per scoprire nuove pagine Web. Le informazioni così raccolte sono reperibili in speciali siti Web denominati motori di ricerca, ovvero programmi che raccolgono le informazioni dalle pagine Web e le indicizzano per consentirne una ricerca. Per eseguire una ricerca su un motore di ricerca, è necessario scrivere una stringa di ricerca, che descrive le informazioni ricercate, nella casella di testo della pagina di ricerca. Successivamente, si fa clic sul pulsante Cerca: il motore di ricerca può visualizzare un elenco di pagine Web che, a suo giudizio, soddisfano la richiesta di informazioni. Le pagine vengono organizzate in base alla stringa di ricerca immessa e le prime sono proprio quelle che si avvicinano maggiormente al criterio di ricerca stesso. LA POSTA ELETTRONICA UN PO’ DI STORIA… Il primo programma di posta elettronica venne creato nel 1971 da un ingegnere informatico della Bbn, che l’anno successivo scelse anche il simbolo di commercial at, identificato con l’ormai mitica chiocciola “@”, per gli indirizzi di posta elettronica. Questo simbolo, scelto praticamente a caso, aveva anche il vantaggio di essere utilizzato per indicare “at” (cioè presso) in inglese, oltre a comparire come indicatore di prezzo nella contabilità anglosassone da quasi un secolo. Per molti anni, negli indirizzi di posta elettronica si sono utilizzati svariati simboli separatori, fino alla fine degli anni ’80, quando la “chiocciola” è stata eletta a standard mondiale. LA POSTA ELETTRONICA COME STRUMENTO DI COMUNICAZIONE I vantaggi della posta elettronica rispetto agli altri strumenti per comunicare deriva in gran parte dalle caratteristiche stesse di Internet. Il fax, ad esempio, è stata la modalità di comunicazione prevalentemente usata da privati ed aziende per l’invio di testi o copie di documenti. Attualmente, però, il fax mostra limiti di praticità ed economicità rispetto alla posta elettronica, venendo ad essere sostituito da quest’ultima come strumento di comunicazione preferenziale anche nelle aziende e negli enti. Nel caso in cui, ad esempio, si debbano spedire dieci fax a dieci persone, dovranno effettuarsi dieci chiamate, nella stessa città, in altre città o addirittura in altre nazioni, con ovviamente costi differenti, normalmente proporzionali alla distanza. Con la posta elettronica, tutte queste differenze vengono annullate, dal momento che basta una connessione Internet con il nostro Internet Service Provider per mandare uno o dieci o cento messaggi di poste elettronica a differenti utenti. Inoltre, il fatto che questi messaggi siano diretti ad utenti nella stessa città, in città o nazioni diverse, non farà differenza. Un altro grande vantaggio della posta elettronica rispetto al fax è che, al contrario di quest’ultimo che trasmette il testo come immagine, punto per punto, la posta elettronica trasmette solo i caratteri, necessitando quindi di una banda molto più limitata e di un tempo di collegamento molto inferiore. IL MESSAGGIO DI POSTA ELETTRONICA Un generico programma di posta elettronica presenta alcuni campi principali che devono essere riempiti: c’è uno spazio dove si scrive l’indirizzo del destinatario (A: oppure To:), uno spazio destinato al soggetto del messaggio (Oggetto:) e lo spazio per il messaggio vero e proprio. Esistono poi altri due campi, dove è possibile inserire l’indirizzo di un altro destinatario che riceverà anch’egli in copia carbone (carbon copy, cc:) il messaggio, e un ulteriore destinatario che riceverà il messaggio in copia carbone nascosta (blind carbon copy, bcc:) senza sapere dell’esistenza degli altri destinatari. E’ anche possibile inserire più indirizzi per ogni campo; molti programmi di posta consentono di associare all’indirizzo di posta un nome; anziché ricordarci l’indirizzo possiamo scrivere nel campo del destinatario questo nome, al quale possono essere, poi, associati più indirizzi di posta, in modo da creare delle liste di destinatari, senza doverli scrivere tutte le volte. Molto importante è il campo Oggetto, che deve poter ricondurre all’argomento del testo: ovviamente non è obbligatorio scriverlo, nel senso che il messaggio senza soggetto arriverà ugualmente a destinazione, ma la presenza di un soggetto è utile per chi lo riceve che ne potrà conoscere immediatamente l’argomento. Inoltre, se il messaggio non viene cancellato subito, ma viene archiviato, la specificazione di un soggetto adeguato aiuterà chi lo riceve a ricercarlo successivamente. La procedura per scrivere un messaggio tramite e-mail è abbastanza semplice: si scrive il messaggio come si potrebbe scrivere un comune testo, usando solo alcune accortezze nella scelta dei caratteri da utilizzare. A livello internazione, esistono due tabelle o set di caratteri (con set di caratteri si intendono l’insieme di caratteri che un determinato sistema può usare)con i quali è possibile produrre tutti i caratteri presenti nella tastiera. Il set di caratteri ristretto è formato da 7 bit, ovvero mette a disposizione 27 (128) caratteri: fanno parte di questo set di caratteri tutte le lettere, maiuscole e minuscole, i numeri e altri caratteri. Con il set di caratteri esteso, caratterizzato da una codifica a 8 bit, ne avremo a disposizione altri 128, per un totale di 256 caratteri. Il vantaggio di usare questo secondo set è che abbiamo a disposizione tutti i caratteri della tastiera, mentre lo svantaggio è che i 128 caratteri aggiuntivi variano da paese a paese, dal momento che lingue diverse implicano caratteri diversi (così, nel set esteso italiano ci sono le lettere accentate, che non sono presenti in quello inglese). Se, quindi, nel corpo del messaggio utilizziamo lettere accentate, senza sapere se questo potrà mantenere poi la codifica, è possibile andare incontro a problemi di visualizzazione: una lettera come la “è”, ad esempio, potrebbe essere sostituita da un insieme di caratteri come =e8. Il messaggio risulterà utilmente comprensibile, ma l’effetto non sarà dei più graditi per il lettore. Fa quindi parte delle convenzioni di buona educazione dell’uso della rete, la cosiddetta netiquette, usare sempre il set di caratteri ristretto. I messaggi risiedono fisicamente sul server presso il quale abbiamo la casella di posta e, tramite le opzioni del programma di posta questi, una volta scaricati, possono essere lasciati o rimossi dal server. Di solito si usa toglierli dal server sia per motivi di riservatezza sia per limitare l’uso dello spazio disco a nostra disposizione: infatti, lo spazio a disposizione del server di posta non è illimitato e, quindi, prima o poi è destinato a finire, con la conseguente impossibilità di ricevere e spedire messaggi e la necessità di richiedere l’intervento del gestore del sistema di posta. I messaggi che vengono spediti ovviamente non arrivano direttamente al destinatari, ma vengono inviati e memorizzati nel server dove il destinatario ha la casella di posta, in quanto questa modalità di comunicazione, al contrario del fax o del telefono, non è diretta. Ogni casella di posta è identificata da un indirizzo: l’elemento che tra le risorse Internet contraddistingue un indirizzo di posta elettronica è il carattere @, che sulle tastiere italiane si forma con l’ausilio del tasto “alt gr”. Questo carattere si trova al centro dell’indirizzo ed è preceduto e seguito da altri caratteri. I caratteri alla destra del simbolo identificano il server e il dominio del fornitore di connettività e, di solito, sono nomi o sigle separati da punti; i caratteri alla sinistra identificano, invece, l’utente della casella di posta e ci vengono assegnati. Leggendo l’indirizzo da destra a sinistra vediamo che esso specifica in maniera più dettagliata le informazioni, dalla nazione al server fino all’utente. OUTLOOK EXPRESS Per eseguire Outlook Express, fare clic sull’icona relativa sul desktop di Windows o sulla barra delle applicazioni; nella finestra di Outlook Express l’elenco delle cartelle, inclusa quella di posta in arrivo e quella di posta in uscita, viene visualizzata lungo il lato sinistro della finestra. Nella parte superiore destra viene visualizzato l’elenco di messaggi della cartella selezionata e, nella parte inferiore, viene visualizzato il messaggio selezionato. Per ricevere la propria posta, fare clic sul pulsante Invia e Ricevi presente sulla Barra degli strumenti. Se non si è connessi alla propria casella di posta Internet, lo farà Outlook Express; successivamente il programma spedisce tutti i messaggi che si sono scritti e raccoglie i nuovi messaggi. Per osservare i messaggi presenti nella casella di posta si deve fare clic su Posta in arrivo nella lista delle cartelle presente sul lato sinistro della finestra che ospita Outlook Express. Appare una lista di messaggi nella zona in altro a destra della finestra, in cui i messaggi non ancora letti sono evidenziati in grassetto. Per leggerne uno, basta farvi clic: il contenuto del messaggio appare nella zona in basso a destra della finestra mentre, per aprirlo in una propria finestra è sufficiente fare due clic. Per creare un nuovo messaggio, fare clic sul pulsante Crea messaggio sulla Barra degli strumenti; si apre una finestra per il nuovo messaggio, nella quale viene richiesto di completare i vari campi che definiscono il mittente, l’oggetto e il testo del messaggio. Per rispondere a un messaggio e spedire la risposta a chiunque avesse ricevuto il messaggio originale, si faccia clic sul pulsante Rispondi a tutti sulla Barra degli strumenti, mentre per rispondere al solo autore del messaggio originale si faccia clic sul pulsante Rispondi all’autore. Per inoltrare un messaggio ricevuto si faccia clic sul pulsante Inoltre Messaggio: viene aperta una finestra per la composizione di un messaggio in cui compare il testo del messaggio originale ed il campo Oggetto già compilato. Per spedire il messaggio così creato, è sufficiente digitare l’indirizzo o gli indirizzi di posta elettronica a cui si desidera spedire il messaggio; è anche possibile aggiungere nell’area destinata al messaggio un testo. LA SICUREZZA SU INTERNET Con l’aumento degli utenti di Internet ed il sempre maggior numero di servizi offerti attraverso la rete, è aumentata anche l’attenzione di navigatori e produttori di software verso tutti gli aspetti legati alla conservazione della privacy. Tale discorso, vero in generale, assume particolare rilevanza quando, attraverso la rete, devono viaggiare informazioni riservate come estremi di identificazione, password o numeri di carte di credito. Sorvolando, in questa sede, su tutte le fattispecie che implicano un comportamento fraudolento, esiste, comunque, la possibilità per i gestori di siti web di tracciare a differenti livelli di accuratezza ed in piena legalità, l’utilizzo del proprio sito da parte dei navigatori allo scopo di personalizzare la navigazione. Benché molti navigatori possano non porsi il problema della propria identificazione e della raccolta dei dati relativi ai propri comportamenti, dal momento che ciò potrebbe, in alcuni casi, facilitare l’interazione con la Rete, d’altro lato riteniamo sia utile sapere come la propria privacy possa essere violata, in modo tale da fornire al navigatore gli strumenti per fissare dei limiti invalicabili alla divulgazione dei propri dati. Per quanto molti utilizzatori abbiano l’impressione che l’anonimato su Internet sia sempre garantito, in realtà esiste sempre la possibilità di risalire al loro computer, a causa di un vincolo tecnico che obbliga il server su cui è caricato il sito a sapere sempre a chi inviare le pagine visualizzate. L’identificazione di un utente avviene fondamentalmente attraverso due strade, l’indirizzo IP del sistema che sta utilizzando e l’utilizzo di cookie memorizzati dal browser Web. - L’INDIRIZZO IP: Uno degli strumenti utilizzati più di frequente per tenere traccia dell’attività dei navigatori è l’indirizzo IP: come detto in precedenza, non è altro che una serie di quattro numeri che permette di identificare in modo univoco tutti i computer presenti su Internet. Gli indirizzi IP sono gestiti in modo molto rigoroso da un’entità preposta a tale scopo, che assegna singoli indirizzi o blocchi di essi ad aziende, Internet Service Provider e privati che ne richiedano la registrazione. Gli indirizzi IP possono essere statici o dinamici: di fatto, ogni sito Web è visibile in rete grazie al suo indirizzo IP statico; la URL, preceduta dal classico www, è, come sappiamo, un semplice simbolo mnemonico, utile ai navigatori per ricordare come raggiungere il sito; l’indirizzo IP con cui è identificato il computer del navigatore è, invece, generalmente un indirizzo dinamico, dal momento che gli Internet Service Provider hanno a disposizione un insieme di indirizzi che, di volta in volta, assegnano ai computer dei propri utenti che si connettono. In ogni caso, in un certo istante, esiste su Internet uno ed un solo computer associato ad un singolo indirizzo IP: per questo, è possibile risalire esattamente al computer che ha raggiunto un sito, letto una determinata pagina, compilato un modulo o acquistato un prodotto. La presenza di indirizzi IP dinamici rende solitamente imprecisa l’identificazione dello stesso utente durante differenti sessioni di collegamento ad Internet mentre permette di tracciare in modo completo una singola sessione di navigazione o di accesso ad un sito. A partire dalle informazioni così raccolte, è possibile generare una serie di profili standard di comportamento associati dinamicamente ai nuovi visitatori. - I COOKIE Quando si visita un sito, spesso si impostano delle opzioni, come ad esempio la lingua o la disposizione grafica degli oggetti, per personalizzare la propria vista. In altri casi, l’acceso a determinate sezioni di un sito può richiedere l’introduzione di username e password. Affinché tale riconoscimento possa avvenire, è necessario che sul computer del navigatore sia memorizzato un file contenente la sua identità virtuale che possa essere letto dal server del sito Web. In questo file sono memorizzati i dati relativi alle interazioni precedenti con un determinato sito ed ogni informazioni ritenuta utile dai progettisti del sito per migliorarne la fruibilità. Questi file prendono il nome di cookie: per motivi di sicurezza, i cookie non sono memorizzati direttamente dal sito sul disco fisso del navigatore, ma è necessaria l’intermediazione del browser. Se richiesto ed ammesso dalle impostazioni di sicurezza, il browser memorizzerà i cookie per conto di un sito in modo trasparente all’utente. Una volta memorizzato sul computer, esso può essere riletto senza la necessità di ulteriori permessi. Se un sito ottiene il permesso dal navigatore per memorizzare un cookie, è in grado di riconoscerlo ad ogni visita e di tenere traccia della sua attività all’interno del sito stesso, ossia è in grado di compilare un profilo dell’utente e delle sue abitudini in termini di frequenza di visita, tipo di informazioni più gradite, servizi maggiormente utilizzati. Questo tipo di cookie è detto interno e la raccolta di queste informazioni non è, di per sé, condannabile: tutto dipende dall’utilizzo che di tali informazioni viene fatto dai gestori del sito; un utilizzo utile potrebbe essere quello di un sito che, attraverso tali informazioni, tenta di offrire un servizio personalizzato ai suoi frequentatori. Un sito di informazioni turistiche, per esempio, potrebbe mettere in evidenza gli eventi relativi ad una particolare città per tutti e soli quei navigatori che in passato hanno mostrato interesse per la località. Un utilizzo più dubbio potrebbe essere, tanto per rimanere nell’esempio precedente, la vendita di tali dati adun’agenzia turistica intenzionata ad inviare all’utente spam pubblicitarie relative alla città preferita. Quando un sito memorizza un cookie, esso è l’unico a cui è consentito leggerlo. Tale limitazione permette al sito di costruire il profilo dell’attività dell’utente sul sito stesso, ma esclude le informazioni relative alla navigazione al suo esterno. In questo modo nessuno dovrebbe essere in grado di conoscere le abitudini, le preferenze di una persona ed altri dati sensibili, facilmente deducibili se si potesse controllare la navigazione di un utente nel suo complesso. Nella realtà dei fatti, però, questa limitazione è quotidianamente aggirata attraverso l’utilizzo dei cosiddetti cookie esterni. Visitando un sito, spesso, nelle sue pagine compaiono banner pubblicitari o immagini che non sono memorizzate sul server del sito che stiamo navigando, ma su un altro server, tipicamente quello di una società di gestione delle campagne pubblicitarie. La presenza di tali oggetti su una pagina Web autorizza anche il sito della società esterna a scrivere un cookie (per questo detto esterno) sul computer del navigatore. Nel caso in cui quest’ultimo raggiunga altri siti che ospitano i banner o le immagini della società esterna, questa potrà collezionare le informazioni accumulate durante la navigazione in essi. Maggiore è il numero di siti in cui la società esterna inserisce i suoi oggetti, più completo e preciso è il profilo dell’utente che può costruire poiché, integrando le informazioni sullo stesso utente provenienti da siti diversi, è in grado di ricavare molte più informazioni di quanto potrebbe fare da un normale cookie su un solo sito. L’uso dei cookie esterni potrebbe anche essere innocuo, nel caso in cui, ad esempio, consenta ad un venditore di offrire ad un prezzo più vantaggioso un prodotto simile a quello che il navigatore ha richiesto in un altro sito. In ogni caso, è importante che l’utente sappia sempre che si tratta di un’ingerenza nella propria privacy. VIRUS E SICUREZZA INFORMATICA INTRODUZIONE AI VIRUS Fino ad alcuni anni fa, nessuno si era mai preoccupato che il proprio computer potesse essere infettato da un virus. Certo, esistevano, ma nella maggior parte dei casi se ne parlava senza troppa convinzione; gli unici che facevano attenzione a questi programmi nefasti erano coloro che scambiavano software pirata o che utilizzavano i dischetti per spostare file dal computer dell’ufficio a quello di casa. Oggi la situazione è purtroppo ben diversa: grazie alle e-mail, ad Internet e soprattutto grazie alla facilità con la quale si può creare un virus, questi pericolosi parassiti sono entrati a far parte della nostra vita di tutti i giorni. I MALICIOUS CODE Solitamente si tende ad utilizzare il termine virus per indicare una generica intrusione nel computer da parte di un programma; ciò non è, però, esatto, dal momento che il termine “virus” indica solo una delle categorie di programmi che rientrano sotto il nome di “malicious code” (codice maligno): si definiscono malicious code tutti quei programmi che sono stati creati per invadere un altro computer per scopi fraudolenti. Questa denominazione raggruppa quindi non solo i virus, ma anche programmi come i trojan e i worm. I soggetti che dedicano il proprio tempo a creare questi programmi, possono essere distinti in craker e script kiddies: i primi sono persone tecnicamente competenti che cercano soprattutto il brivido della sfida, i secondi, invece, sono figure con competenze scarse, ma sufficienti per consentir loro di modificare il codice di un virus già esistente o per scaricare uno di questi programmi per la creazione di virus accessibili su Internet (così è stato, ad esempio, per il famigerato Anna Kournikova). I diversi tipi di codice si sono classificati in base a come si comportano e si diffondono. All’inizio era abbastanza semplice distinguere un virus da un worm o da un Trojan, mentre ora, l’evoluzione dei sistemi operativi e la diffusione di Internet e della posta elettronica ha favorito la nascita di programmi molto pericolosi che non possono essere classificati così facilmente. I VIRUS Un virus è un programma che, ad insaputa dell’utente, si introduce nel computer e si replica, infettando dei file. Molti virus (non tutti, per fortuna) includono anche un cosiddetto “payload”, ovvero una serie di azioni di disturbo, nocive o fastidiose, che il codice del virus esegue sui sistemi che infetta. La diffusione dei virus è legata alla copia dei file infetti. - Virus da boot sector. E’ il tipo più vecchio di virus: non infetta i singoli file, ma il settore di avvio dei dischi fissi e dei dischetti. Il settore di avvio di un disco contiene alcune procedure di sistema eseguite automaticamente ogni volta che si utilizza quel disco per avviare un computer; se il settore di avvio di un disco è infettato, il codice del virus sarà mandato in esecuzione ogni volta che si utilizza quel disco per avviare un sistema, si caricherà automaticamente nella memoria di quel sistema e si replicherà infettando tutti i dischi che saranno utilizzati su quel sistema. Se un floppy infetto è utilizzato per avviare un altro computer, anche quel computer sarà contaminato. Il primo virus che si è diffuso sui sistemi MS-DOS, nel 1986, è stato proprio un virus di boot sector, chiamato “Brain”; i suoi successori più noti furono “Stoned” (1987) e Michelangelo (1991). Stoned non eseguiva alcuna azione pericolosa e si limitava a visualizzare un fastidioso messaggio, mentre Michielangelo era distruttivo in quanto conteneva una procedura che ogni 6 marzo cercava di sovrascrivere il contenuto di tutto il disco C con dei caratteri casuali. - Virus da file. Sono anche chiamati “virus parassiti” o “da contagio”: essi, infatti, infettano e sostituiscono i file eseguibili, replicandosi ogni volta che il file infetto è mandato in esecuzione, cercando altri file da infettare e, molto spesso, eseguendo anche alcune azioni distruttive. Lo scenario più frequente di diffusione di questi virus è il seguente: un cracker crea il virus ed infetta un programma freeware o shareware che pubblica su Internet; tutti gli utenti che scaricano il programma sul proprio computer e lo mandano in esecuzione, consentono inconsapevolmente al virus di infettare alcuni dei file eseguibili e di caricarsi in memoria in modo da infettare gli altri programmi che saranno mandati in esecuzione. Ogni qual volta, poi, l’utente copia alcuni dei programmi residenti sul suo Pc (e quindi infetti) ad altri utenti, incrementa la diffusione del virus. La catena descritta va avanti almeno fino a che il virus non rilascia il proprio payload sui computer che ha infettato: solo in questo momento l’utente inizia a riscontrare tutta una serie di problemi sulla macchina. Un esempio molto noto in ambito informatico, e non solo, è Chernobil, del 1998. Oltre a diffondersi infettando gli altri file eseguibili di sistema, questo virus contiene un payload programmato per attivarsi il 26 di ogni mese, che prima sovrascrive il primo megabyte del disco fisso e poi tenta di sovrascrivere anche il BIOS del sistema: anche per i meno esperti, non è difficile comprendere come, dopo un simile trattamento, un computer sia praticamente inutilizzabile. - Virus macro. Una macro è un determinato insieme di istruzioni che permette di automatizzare l’esecuzione di una funzione di routine all’interno di un’applicazione; le macro sono componenti comuni dei modelli e dei documenti prodotti e utilizzati da alcune applicazioni di Microsoft Office, come Word ed Excel, e questo le rende un obiettivo molto allettante per gli sviluppatori di virus. Un virus macro è appunto una macro che contiene un insieme di istruzioni dannose, creata utilizzando i linguaggi di programmazione per le macro, come Visual Basic di Microsoft, e inserita all’interno di un documento o di un modello, aprendo il quale si manda in esecuzione i codice del virus macro, che per prima cosa infetta il modello di base utilizzato da tutti i documenti di quell’applicazione e quindi esegue il suo payload. La portata del payload di un virus macro non è limitata ai soli documenti dell’applicazione colpita, ma è la stessa delle azioni consentite alle funzioni di quell’applicazione; grazie alla forte integrazione che oggi esiste tra sistemi operativi e applicazioni, poi, questi virus possono fare di tutto e possono arrivare a danneggiare anche il file di sistema. I virus macro si differenziano dai virus da file perché non colpiscono i file eseguibili, ma i file di dati. Il primo virus macro per Microsoft Word, chiamato “W.M.Concept”, è stato scoperto alla fine del 1994. Entro la fine del 1995, i virus macro per Word ed Excel si erano diffusi in tutto il mondo. All’inizio del 1999, su uno dei newsgroup di Usenet un utente pubblicò un messaggio che conteneva in allegato un documento Word 97. Senza saperlo, tutti gli utenti che scaricarono e aprirono l’allegato furono infettati da un nuovo tipo di virus ibrido, diventato tristemente noto come Melissa, che iniziò rapidamente a diffondersi in tutto il mondo utilizzando come vettore i sistemi di posta elettronica. Nel giro di tre giorni, furono infettati più di 100.000 computer e da allora sono apparsi centinaia di virus che nascevano come una semplice variazione di Melissa. Melissa è un ottimo esempio di virus macro, ma implementa un meccanismo di diffusione tipico dei worm in quanto riesce ad aprire Microsoft Outlook e ad inviarsi automaticamente a tutti gli indirizzi contenuti nella rubrica. I WORM Un worm è un programma dotato di un proprio payload, che si replica e si diffonde senza infettare altri file, propagandosi attraverso le connessioni di rete, le e-mail e altri meccanismi di Internet. Molti worm si possono diffondere anche senza l’intervento dell’uomo. - Script worm Sono creati utilizzando un linguaggio di scripting, come per esempio VBScript. Il propagarsi di questo tipo di worm ha inizio, normalmente, da un allegato ricevuto per posta elettronica: aprendolo, l’utente attiva lo script ed infetta il computer. Lo script sovrascrive tutti i file con una certa estensione (ad esempio, .jpg, .vbs, .mp3) e si duplica su un file che gli permetta di essere eseguito automaticamente a ogni riavvio del sistema. Oltre ad eseguire l’eventuale payload, il worm avvia Microsoft Outlook e si trasmette automaticamente come allegato e-mail a tutti gli indirizzi contenuti nella rubrica. - Worm Internet Si diffondono attraverso i messaggi di posta elettronica, proprio come gli script worm, ma in più riescono ad autoattivarsi e a diffondersi sfruttando le falle di sicurezza dei sistemi operativi, delle reti e di Internet. In questo modo, si possono diffondere senza che nessuno li debba attivare. TROJAN In perfetta analogia con il loro precedente mitologico, i cavalli di Troia sono programmi dall’apparenza innocente, che nascondono intenzionalmente la loro natura maligna camuffandosi da giochi o da utilità. Diversamente dai virus , però, i Trojan non si copiano all’interno di altri file o del settore di avvio e non possiedono un meccanismo di replica e di diffusione. - Backdoor Trojan Sono programmi che modificano la connessione ad Internet o alla rete del computer sul quale sono installati e consentono ad un cracker di accedere al sistema per caricare altri programmi ancor più pericolosi. - RAT (Remote administration Trojan) Sono una particolare categoria di backdoor Trojan, dai quali si differenziano per la loro capacità di fornire ai cracker il completo controllo di un computer, permettendo loro di effettuare quasi tutte le operazioni possibili. Un buon esempio di questi programmi è Subseven che utilizza la posta elettronica o i canali IRC per comunicare al cracker le coordinate del computer permettendogli di accedere a più di cento funzioni amministrative. Nella maggior parte dei casi, i cracker usano le macchine infettate dai loro Trojan come trampolino di lancio per infettare o attaccare altre macchine, catturare password e altri dati e avviare attacchi DoS (Denial of Service), che tentano di soprafare un particolare server attraverso il ripetuto invio di una gran quantità di richieste errate da parte di più sistemi. HOAX: BUFALE METROPOLITANE Con “hoax” si fa riferimento a messaggi di posta elettronica che annunciano la scoperta di virus letali che riescono ad azzerare il contenuto dei dischi fissi o che possono fare cose ancora peggiori. In realtà, questi virus non esistono e i messaggi sono solo delle catene di S. Antonio digitali che puntano a intasare i sistemi di posta elettronica e a scatenare il panico tra gli utenti. Per evitare l’imbarazzo di scoprire in un secondo momento di aver partecipato alla diffusione di un hoax, rigirando l’allarmistico messaggio appena arrivato sulla presenza di un nuovo virus dalle capacità a dir poco apocalittiche, è buona norma controllare i siti specializzati nella pubblicazione di informazioni sugli hoax, che circolano sulla rete PREVENIRE È MEGLIO CHE CURARE Così recitava una nota pubblicità televisiva di alcuni anni fa, ed il celebre motto è applicabile in tutto e per tutto anche allo scenario che stiamo cercando di illustrare. Di seguito vengono descritti alcuni modi semplici e veloci (ma non per questo meno efficaci) di proteggere il computer e i dati dai virus, senza obbligare l’utente a eccessivi sacrifici o a modificare in modo troppo radicale le abitudini nell’uso del Pc. Certo, la garanzia di una completa immunità non si avrà mai (si suol dire che “l’unico computer sicuro è quello spento e con la spina staccata”), ma seguendo questi accorgimenti è possibile ridurre il rischio di essere infettati dai virus più comuni e pericolosi in circolazione. Non solo in campo informatico, conoscere il proprio nemico è il primo passo di ogni buona strategia di protezione. Come detto, i virus sono piccoli programmi che cercano di essere eseguiti dal computer all’insaputa dell’utente e che hanno lo scopo di sfruttare o danneggiare in qualche modo il sistema. Queste sono le caratteristiche che differenziano i virus dalle normali applicazioni che vengono utilizzate quotidianamente. I creatori di virus cercano di trovare modi sempre nuovi per raggirare persone e macchine, obbligandole a eseguire in modo del tutto inconsapevole i loro programmi; questi sotterfugi sono necessari perché la maggior parte dei virus ha bisogno di un utente, ignaro della loro presenza, che avvii la loro esecuzione. E’ per questa ragione che alcuni virus utilizzano nome ed estensioni che invogliano l’utente ad aprirli (è il caso del già citato AnnaKournikova.jpg.vbs). E’ possibile bloccare la maggior parte dei virus semplicemente non aprendo i file infetti: a tal fine, è necessario prestare molta attenzione, in particolare non aprire o mandare in esecuzione file e applicazioni sconosciute o che abbiano anche solo un’apparenza sospetta. Il primo metodo per evitare di esporsi inutilmente è quello di non aprire gli allegati dei messaggi di poste elettronica che non siano stati espressamente richiesti o dei quali non si è assolutamente sicuri. Per propagarsi, infatti, i virus approfittano spesso degli errori umani e della scarsa attenzione degli utenti. - Protezione dei dischetti Abbiamo già parlato dei virus da boot sector ed abbiamo evidenziato la loro pericolosità, legata soprattutto al fatto che spesso l’unico modo per eliminarli consiste in una formattazione completa del disco, con tutti i disagi che essa porta con se. Come detto, questi virus si propagano attraverso i floppy: perché un sistema s’infetti basta che un utente provi accidentalmente a riavviarlo utilizzando un dischetto già contaminato. Per proteggersi da questi virus, è sufficiente non riavviare il pc con un dischetto estraneo all’interno del drive A; il modo più sicuro per ottenere questo risultato consiste nel modificare la sequenza di avvio del sistema, facendolo partire sempre e direttamente dal disco fisso, senza considerare gli eventuali dischetti presenti nel suo drive. Inoltre, se si utilizzano i dischetti per spostare file da un computer all’altro, è buona norma proteggere questi dischetti dalla scrittura, in modo da non permettere il salvataggio di file su di esso in qualsiasi momento. - Proteggere la posta elettronica Oggi la posta elettronica è uno dei veicoli di diffusione preferiti dagli sviluppatori di virus. Le semplici e comode funzioni degli attuali client di posta elettronica (la rubrica, la possibilità di accedere in modo immediato agli allegati, l’anteprima dei messaggi) sono la strada più probabile dalla quale arriverà il prossimo virus. Non solo: queste funzioni fanno dell’utente un complice involontario che contribuisce alla loro diffusione. Molti virus, infatti, aprono automaticamente la rubrica e si inviano da soli a tutti gli indirizzi che trovano, utilizzando un innocuo messaggio e aggiungendo un file infetto come allegato. Chi riceve il messaggio conosce e si fida del mittente, apre l’allegato e inizia a sua volta a diffondere il virus. La prima protezione della posta elettronica è il semplice buon senso: è necessario, come detto in precedenza, prestare molta attenzione ai messaggi troppo generici che trasportano un allegato, anche se vi arrivano da amici e conoscenti. Inoltre, gli allegati con una doppia estensione dovrebbero far squillare immediatamente tutti i campanelli d’allarme dell’utente; ad esempio, il file Sample.jpg.vbs potrebbe sembrare un’innocua immagine mentre, in realtà, è uno script potenzialmente pericoloso. Come regola generale si ricordi che non esiste alcuna buona ragione per dare due estensioni al nome di un file. La miglior contromossa che si può attuare nel momento in cui si riceve un file del genere è anche la più semplice: cancellare il file scaricato, assicurandosi che di esso non ne rimanga traccia neppure nel cestino. Oltre ad una corretta configurazione del client di posta elettronica, l’utente ha la possibilità di aumentare ulteriormente la sicurezza del proprio sistema evitando di aprire gli allegati all’interno del client stesso (è preferibile, infatti, salvare l’allegato sul disco fisso e aprirlo dopo aver chiuso il client, così da evitare, in caso di esecuzione di uno script dannoso, che il virus venga diffuso a tutti i contatti della rubrica), disattivando la funzione di anteprima dei messaggi arrivati (la sola anteprima, infatti, potrebbe aprire alcuni tipi di allegati) e rifiutando i messaggi in formato .rtf e .html. - Sicurezza in rete Molti virus si propagano attraverso le connessioni di rete, sfruttando non solo Internet, ma anche le semplici Lan presenti in molti uffici e in alcune abitazioni private. Una possibilità che si presenta a tutti gli utenti della rete per contribuire alla protezione delle altre macchine collegate è quella di evitare di assegnare il nome di un’unità logica locale (D:, E:, F: …) alle risorse condivise dalle altre macchine della rete: alcuni virus, infatti, cancellano o alterano i file presenti su tutte le unità logiche del computer infetto e, quindi, anche sulle condivisioni di rete esportate da sistemi remoti non infetti, che sono visti dal vostro Pc come unità logiche locali. Ovviamente, anche un regolare backup dei file e dei documenti più importanti è un’operazione di primaria importanza: certo non aumenterà la sicurezza del sistema in cui opera l’utente, ma sicuramente diminuisce i danni arrecabili dai virus. IL DATA SNOOPING (…ovvero le spie informatiche) Probabilmente in pochi si saranno mai soffermati a pensare quante informazioni la gente che ci sta intorno conosce su di noi: alcune di queste informazioni vengono condivise in modo consapevole abbastanza liberamente, mentre altre, di carattere più personale, vengono carpite senza che il diretto interessato ne sia a conoscenza e, poi, vengono utilizzate da persone e istituzioni di cui non ci si può fidare. A questo proposito si parla di “data snooping”, intendendo con esso il tentativo di accedere ai dati di qualcun altro; questa attività può assumere forme molto diverse, alcune delle quali sono perfettamente legali. Il solo modo per proteggere se stessi e le proprie informazioni personali dal data snooping è di sapere chi altri le sta cercando e come potrebbe venirne in possesso. Il fatto è che, normalmente, ogni utente conserva sul proprio computer tutta una serie di informazioni personali che non desidera vengano viste da altri. Tuttavia, vi sono sempre alcuni individui che, per le più svariate ragioni, possono essere interessati ad accedere a queste informazioni e, purtroppo, hanno a disposizione diverse possibilità per ottenere quello che desiderano. Mentre le questioni sulla sicurezza informatica, in particolare legate alla protezione delle informazioni rilevanti, si aprono verso temi di crescente complessità, un elemento continua ad avere un’importanza primaria: la password. Si utilizzano, infatti, ancora codici segreti per accedere al proprio computer, ai programmi o ai documenti; come altri aspetti che riguardano la sicurezza dei computer, le password diventano sicure secondo lo sforzo fatto per crearle. Nell’utente medio è piuttosto diffusa l’opinione che i cracker non prendono come obiettivi i nostri computer: sebbene tale percezione stia lentamente cambiando man mano che i produttori di software per la sicurezza pongano l’accento sui pericoli esistenti, resta il fatto che, nell’uso quotidiano del pc, in molti non si curano dei problemi di sicurezza, e nulla è più pericoloso di creare password troppo facili. Sembra incredibile ma, nonostante tutti gli avvertimenti, ancora gli utenti continuano a creare password banali come “password”, “aaa”, “abc”… Quando un sistema per il codice di accesso è operativo, per accedere alle risorse bisogna digitare un ID e una password validi: per ragioni di sicurezza, la password non viene mostrata sullo schermo dell’utente; al suo posto appaiono punti o asterischi. A questo punto, normalmente, va in esecuzione un algoritmo segreto che genera un “hash”, ovvero una stringa di caratteri generata da un testo, calcolata casualmente e impossibile da riprodurre; nonostante le piccole dimensioni, le possibilità che una serie di caratteri, anche molto simili, possano generare lo stesso hash, sono infinitamente remote. Sfortunatamente, per ogni minuto speso per rendere sicuri i codici di accesso, molti di più ne sono impiegati per escogitare i modi per aggirarli. Come per qualsiasi dispositivo di sicurezza, è probabile che le password subiscano diversi attacchi e che, qualche volta, possano anche perdere. Nel corso degli anni sono stati sviluppati diversi metodi per individuare i codici di accesso. Uno dei più vecchi è la manipolazione: un cracker, in questa ipotesi, potrebbe deviare i navigatori di un sito di e-commerce verso una falsa home page che, nell’aspetto e nel funzionamento, sembri identica a quella originale. L’obiettivo in questo caso è quello di ottenere i codici di accesso dell’utente e, ultimamente, anche i suoi dati finanziari, come il numero di carta di credito. Gli utenti che si collegano al sito con il loro username e password ricevono un messaggio di errore e nella maggior parte dei casi credono che non sia niente di grave. Ovviamente non tutti i furti di password avvengono via computer. I cracker sono in grado di assumere l’identità di un’autorità (ad esempio l’amministratore della propria rete o l’ISP) e di chiamare direttamente gli utenti per ottenere i codici d’accesso. Questo è il metodo soprannominato “social engineering”. Un altro metodo, tanto banale quanto diffuso ed efficace, è il cosiddetto shoulder surfing: una persona guarda “da sopra la spalla” l’utente mentre digita la password; con un po’ di pratica, non è difficile decifrare questi codici d’accesso dalla tastiera, anche se si battono velocemente. Uno dei metodi più comuni per scoprire le password è quello di provare a indovinarle: da cosa si dovrebbe partire se si volesse indovinare la password del sistema operativo di qualcuno? Probabilmente dalla parola “password”: ebbene, sembra incredibile, ma questa è realmente la password più diffusa, specialmente nelle reti aziendali. Se questa parola non funziona, allora i principali indiziati diventano parenti e animali domestici; al terzo posto, la data di nascita, la targa o la marca della propria auto. Qualunque lettore si sentisse chiamato in causa della poche righe di cui sopra è esortato da chi scrive a modificare la propria password, dando libero spazio alla propria fantasia. Qualora un cracker non riesca a indovinare una password che abbia oche parole ovvie, come nomi o date, normalmente ricorre all’utilizzo di software creati appositamente per scoprire la password. Come spiegato in precedenza, l’hash a senso unico contenuto in un file di password non può essere decodificato, ma i cracker possono utilizzare programmi, noti appunto come “password cracker”, per decifrare gli eventuali codici d’accesso e confrontarli con gli hash a senso unico fino a quando non viene trovata una coincidenza con il codice d’accesso originale. Uno di questi programmi è basato sul dizionario: questo software utilizza una lista di parole da un dizionario e le codifica una alla volta, finché un hash non coincide con la password che il cracker sta cercando; una volta trovata la coincidenza, il software mostra la parola e il cracker può avere l’accesso. I cracker più accorti applicano anche “filtri di mutazione” per esaminare parole modificate, come ad esempio “r0551” invece di “rossi”. Alcune compagnie chiedono poi che i codici di accesso siano cambiati ogni mese: gli utenti, nella maggior parte dei casi, aggiungono semplicemente un numero alla loro password per ricordarla facilmente. Utilizzando un filtro incrementale, un password cracker basato su dizionario può aggiungere dei numeri a tutte le sue parole. Il processo di cracking necessita comunque di tempo: per trovare una password di otto caratteri minuscoli, il programma ha bisogno di vagliare 208 miliardi di possibilità; eseguendo 100.000 ipotesi al secondo, si potrebbe scoprire la password in circa tre settimane. Se, però, gli otto caratteri includono anche numeri e simboli, il tempo aumenta clamorosamente: potrebbero essere necessari due anni per vagliare tutte le possibilità. E’ evidente, però, che non tutte le attività di password – cracking sono illegali: per esempio, qualora un utente abbia perso la propria password di Outlook, non sarà un reato utilizzare un password cracker per ritrovarla; ancora, di frequente acceda nelle piccole aziende che un impiegato se ne sia andato senza “sbloccare” i file della compagnia: anche in questo caso, è possibile raccare i codici di accesso per riottenere le informazioni necessarie. Infine, a volte, le compagnie utilizzano password cracker per testare la resistenza dei propri sistemi di rete. Una volta compreso come funzionano le password e come possono diventare facile preda dei cracker, un modo per rendere sicuro il proprio lavoro è quello di modificare di frequente le abitudini che riguardano il proprio codice d’accesso. Il primo aspetto da considerare è la lunghezza: una password breve (tre o quattro caratteri) è sempre più facile da craccare di una più lunga; il consiglio è di mantenere una password con almeno otto caratteri, inserendo anche numeri e simboli, preferibilmente non all’inizio né alla fine. Ancora, un’ottima abitudine è quella di mescolare lettere maiuscole e minuscole. E’ meglio, poi, avere una password diversa per ogni computer, per ogni account on line e per i programmi. Anche se si possiede una password sicura, non durerà a lungo se questa viene utilizzata ovunque. HACKER E CRACKER Fino ad ora si è sempre parlato di queste fantomatiche figure che rispondono al nome di “cracker”. I lettori più attenti, comprendendo il ruolo che questi soggetti svolgono nel campo della sicurezza informatica, si saranno chiesti sicuramente dove sono finiti i ben più famosi “hacker” di cui tante, troppe volte si sente parlare sui giornali o in televisione (spesso, purtroppo, a sproposito…). Molti stenteranno a credere che anche personaggi come Bill Gates e Steve Jobs (fondatori, per chi non lo sapesse, rispettivamente di Microsoft e Apple) in principio erano hacker. A differenza di quanto si possa pensare comunemente, infatti, hacker non è sinonimo di pirata informatico: chi usa le sue conoscenze tecnologiche per carpire informazioni e danneggiare strutture, pubbliche e private, è infatti definito, con un termine inventato dagli stessi hacker nel 1985, un “cracker”, in quanto cracca, incrina, colpisce, decifra un sistema. Il cracker, come visto a più riprese, si applica a progettare “programmi-danno”, sparge virus più o meno distruttivi che si diffondono in tutto il mondo (si vedano I Love You, Nimda o Sircam). A seconda del limite cui si spinge, può diventare o meno un criminale e, con le sue azioni, finisce con il gettare discredito sulla comunità hacker. L’hacker, invece, almeno nelle intenzioni, è colui che usa le sue cognizioni informatiche con finalità di ricerca e conoscenza, senza danneggiare i sistemi: benché venga definito sul dizionario come uno “scassinatore di codici computerizzati”, in realtà se penetra un sistema lo dovrebbe fare solo per comprendere come funziona e verificarne le vulnerabilità. L’hacker, in questo contesto, vorrebbe essere considerato come una figura positiva in quanto convinto che la conoscenza sia di tutti. Per questo, spesso, gli hacker (e, a dire il vero, anche i cracker, dopo il loro arresto) vengono ingaggiati dalle aziende più importanti come esperti di sicurezza informatica. IL DISASTER RECOVERY I concetti di backup e restore sono noti a tutti gli amministratori dei sistemi informativi, così come le numerose utility disponibili sul mercato per la messa in atto delle procedure relative alle copie di riserva degli archivi aziendali e al ripristino delle stesse. I metodi e i tempi di attuazione dei backup stabiliti dal management variano in considerazione delle specifiche esigenze aziendali e della quantità, nonché della tipologia dei dati da salvaguardare. Anche i supporti utilizzati per la memorizzazione delle copie di riserva dipendono dalle scelte, completamente soggettive, dei responsabili dei sistemi informativi. In reltà l’IT Manager per poter pianificare un corretto piano di backup, deve valutare diversi fattori che, una volta individuati, suggeriranno una soluzione attuabile solamente in quel determinato contesto. Le procedure di backup saranno attuate con periodicità giornaliera, settimanale, oppure mensile in base all’importanza e alla movimentazione dei dati, oppure, più semplicemente, si potrebbe provvedere alla realizzazione delle copie di riserva in tempi scelti in maniera puramente casuale a discrezione dell’amministratore di sistema. La cosa certa è che ogni azienda, qualsiasi siano la sua natura e dimensione, deve possedere, in un luogo sicuro, le copie degli archivi in modo da poterle ripristinare in caso di necessità. Ma quante e quali sono le probabili cause da combattere, o da prevenire, che potrebbero causare la perdita dei dati e di conseguenza notevoli danni economici alle aziende? Sulla quantità, purtroppo, la casistica è abbastanza ampia, mentre per quel che riguarda la tipologia possiamo considerare tre macro aree: i problemi hardware, gli errori degli utenti e i disastri naturali. Da un’attenta lettura di queste tipologie si comprende il motivo per cui il numero degli eventi dannosi alla salvaguardia dei dati sia imprecisabile: non è possibile, infatti, quantificare i problemi di natura meccanica o elettrica che potrebbero danneggiare gli hard disk oppure le cause dei probabili allagamenti o degli incendi che, per pura casualità, potrebbero accadere in prossimità dei sistemi informativi. D’altronde, non è possibile nemmeno quantificare gli errori come le cancellazioni o le formattazioni accidentali causate dagli utenti. Ecco che, a fronte di uno scenario così pessimistico, le aziende devono cominciare a parlare di disaster recovery. La prima impressione che suscita l’espressione disaster recovery è quella della catastrofe, mentre in realtà essa non è associabile solamente ai danni causati alle apparecchiature informatiche dai terremoti, dalle alluvioni o dagli attacchi terroristici ma anche ai danni causati da situazioni più umane. Il motivo per cui tale espressione evoca scenari apocalittici è dato dal fatto che la maggior parte delle aziende nostrane, non essendo esse dotate di veri e propri piani di disaster recovery, non hanno una piena consapevolezza né dell’argomento né della sua importanza. In effetti, non sono necessari soltanto degli eventi così imprevisti e catastrofici per mettere fuori gioco le aziende informatizzate, quando sarebbe sufficiente anche una semplice interruzione delle linee elettriche o telefoniche oppure il guasto di un server dovuto magari a un banale errore dell’utente. E’ ovvio che un eventuale disservizio del sistema informativo potrebbe non causare molti problemi alle aziende che non sfruttano a fondo le risorse della rete o che non condividono gli archivi fra i propri dipendenti ma, in quelle realtà per le quali Internet e il lavoro di gruppo sono di vitale importanza, un eventuale blocco del sistema informativo diventerebbe un grosso problema. Basti pensare alle imprese che necessitano di essere costantemente on line per poter realizzare il proprio business (broker, agenzie di viaggio di tipo last minute…) oppure alle aziende che hanno bisogno della disponibilità 24 ore su 24 dei propri archivi (ospedali, banche…) per capire l’importanza dell’esistenza di un piano di emergenza. Ma anche le aziende più piccole (come, per esempio, gli studi dei commercialisti) non possono evincersi dal programmare una qualche maniera per cercare di tamponare, almeno temporaneamente i malfunzionamenti del sistema informativo. Gli IT Manager devono convincersi (e coinvolgere in questo convincimento anche il management aziendale) che la protezione dei sistemi informativi non è da considerarsi come un costo ma come un ricavo, per cui il mettere le loro organizzazioni al riparo dal rischio della perdita dei dati e delle applicazioni vitali per il business dell’impresa deve diventare un investimento. Per attuare questa filosofia bisogna adottare, fra le soluzioni disponibili, quella che offre il miglior rapporto costi / benefici. Non solo, ma l’azienda che vuol dotarsi di un Disaster Recovery Plan deve prima, comunque, provvedere alla corretta analisi del fabbisogno e alla progettazione delle soluzioni tecnologiche e delle procedure da eseguire, dopodiché deve implementare e testare il sistema e, infine, deve preoccuparsi della gestione del sistema. Come è possibile notare, l’adozione di un piano di disaster recovery richiede notevoli investimenti, sia in termini economici, che in termini di risorse. Il tutto, purtroppo, sarà ripagato nel momento in cui il Disaster Recovery Plan verrà messo in atto. L’alternativa, ossia il rimanere inattivi, è sicuramente una condizione più sfavorevole e, pertanto, da evitare. In questo modo, all’avvenuta implementazione del piano, in caso di blocco l’azienda sarà in grado di assicurare la ripresa dei processi chiave per il proprio business prima che esso possa subire impatti finanziari dannosi. Il core dei piani di disaster recovery, per essere veramente efficace, deve essere inquadrato nel discorso più ampio della continuità del business aziendale. Infatti, potrebbe essere abbastanza inutile prevedere il ripristino delle attività informatiche dopo un blocco del sistema informativo, visto che è il blocco stesso il problema da evitare. In pratica, bisognerebbe mettere l’azienda in condizione di poter continuare le proprie attività anche in caso di blocco dei computer, dotando l’azienda stessa di procedure di ripristino efficaci, immediate e affidabili. Le strategie attuabili in questa direzione sono diverse, ma quasi tutte consistono nella predisposizione di un sito alternativo (non solo software, ma anche hardware) in maniera tale che gli utenti possano disporre di una struttura di riserva. Queste strutture potranno essere composte da sistemi server parcheggiati in un luogo sicuro collocato nello stesso edificio e mantenuti sempre aggiornati oppure potranno essere costituiti da veri e propri spazi fisici presi in affitto presso società di servizi specializzate. Quest’ultima soluzione è ovviamente la più avveniristica, oltre che la più costosa, ma è anche quella che più delle altre può garantire la continuità del lavoro e che può offrire tutte le migliori condizioni ambientali ai dipendenti dell’azienda. In maniera più semplice, invece, le aziende potrebbero cautelarsi dai disastri replicando sui server delle aziende specializzate i propri dati e le proprie applicazioni. In pratica, un Disaster Recovery Plan dovrà prevedere le unità fisiche da utilizzare per la replicazione dei dati aziendali, la loro collocazione e le procedure da attuare per garantirne l’immediato utilizzo e la loro sicurezza. Inoltre, il piano dovrà indicare i tempi e le modalità relativi alle procedure di backup. Quando si parla di disaster recovery, come già anticipato, normalmente si fa riferimento ad eventi più o meno gravi di natura imprevista, come allagamenti, incendi, terremoti, che causano le cosiddette situazioni di fermo macchina, mentre, in realtà, si è appurato che la percentuale maggiore dei fermi di sistema (85%) è dovuta alle attività pianificate o pianificabili (backup, aggiornamenti di sistema, installazione di nuove applicazioni). Del rimanente 15% di cause impreviste, il 70% è legato a problemi di natura software e hardware mentre soltanto il 5% è collegabile alle calamità naturali e agli attacchi informatici. In realtà, le attività di fermo macchina pianificate vengono sottostimate e sottovalutate perché ritenute di routine, mentre invece esse dovrebbero assumere un peso evidente nella redazione di un Disaster Recovery Plan. Infatti, la maggior parte delle aziende, pur di non bloccare il sistema informativo, tendono a ritardare e a diradare le operazioni di backup, sottoponendo a grossi rischi le attività aziendali. La sempre maggiore dipendenza da parte delle aziende verso i sistemi informativi pone l’accento sulle problematiche connesse con lo storage management, altrimenti noto come backup. E’ pur vero che la più elevata disponibilità in termini di Gigabyte e il minor costo dei supporti di massa mettono l’utente in una situazione abbastanza tranquilla, visto che ormai l’acquisto di un hard disk secondario o di un masterizzatore non è più una cosa tanto proibitiva. Una volta, però, scelto il tipo di supporto da utilizzare rimane il solito problema della pianificazione, in quanto anche le procedure di backup non sono delle operazioni da eseguire senza prima aver definito dei criteri relativi alla scelta del tipo di copia da effettuare e alla definizione dei dati da salvaguardare. Eseguire un backup consiste, sostanzialmente, nel fare una copia di un insieme di archivi su un altro supporto, possibilmente indipendente rispetto al computer dal quale si effettua la copia. La procedura di backup deve, inoltre, conoscere i dati da copiare e sapere se devono essere copiati tutti i file, soltanto quelli che hanno subito una modifica rispetto all’ultima copia di riserva oppure se copiare solamente le variazioni degli archivi. Esiste, quindi, una forte distinzione tra la “semplice” copia dei file e il backup. Quest’ultimo, infatti, a prescindere dalla quantità di file interessati e dalla loro tipologia, può essere completo, parziale, incrementale, e differenziale. Il backup completo è da considerare buono soltanto la prima volta in quanto è da ritenere dispersivo il fatto di copiare continuamente (su supporti di volta in volta diversi), oltre che i programmi e il sistema operativo anche gli archivi che non hanno subito modifiche. Inoltre, il salvataggio completo dei file richiede molto tempo obbligando l’utente a un fermo macchina sicuramente evitabile. Il lato positivo del backup completo è, però, dato dall’immediatezza che esso offre in caso di ripristino completo del sistema a seguito di un disastro; il salvataggio integrale dei dischi dovrà comunque essere effettuato nella fase di start up, qualunque metodologia si sia scelta per l’attuazione del backup, e solo successivamente a intervalli regolari, magari con una frequenza non troppo ravvicinata. Per ridurre i tempi di blocco del sistema dovuti alle operazioni di copia si potrebbe procedere con dei backup parziali, che, a loro volta, possono essere incrementali oppure differenziali. Con queste metodologie diminuisce sensibilmente anche l’impiego dei supporti di massa utilizzati per le copie di riserva, riducendo pertanto i costi per l’acquisto degli stessi. Il backup incrementale copia soltanto i file che hanno subito una modifica rispetto all’ultimo backup completo o incrementale, mentre il backup differenziale copia tutti i file che sono stati modificati rispetto all’ultimo backup completo senza tenere conto dei salvataggi intermedi avvenuti con la metodologia incrementale. Tra le due tipologie di backup, la prima richiede meno tempo per la sua esecuzione e minore spazio mentre la seconda è un po’ più costosa in quanto richiede più tempo per completare il salvataggio e maggiore spazio sui supporti. In caso di ripristino dei dati, però, nel caso del backup incrementale dovranno essere disponibili sia il backup completo sia tutti i salvataggi intermedi mentre nel caso del backup differenziale basterà avere a disposizione soltanto il backup iniziale e l’ultimo salvataggio differenziale. Una volta stabilita la strategia da attuare (e la frequenza) per l’espletamento dei backup bisogna scegliere anche il supporto da utilizzare, in quanto avere un backup su un dispositivo incompatibile o inutilizzabile su un altro computer non è che serva poi a molto; in pratica, nel caso in cui si decida di utilizzare un hard disk esterno bisognerebbe fare in modo che lo stesso sia dotato di una interfaccia collegabile anche sugli altri computer.