...

Il termine “rete” si riferisce idealmente a una maglia di collegamenti

by user

on
Category: Documents
19

views

Report

Comments

Transcript

Il termine “rete” si riferisce idealmente a una maglia di collegamenti
LE RETI
Il termine “rete” si riferisce idealmente a una maglia di collegamenti; in pratica indica un
insieme di componenti collegati tra loro in qualche modo a formare un sistema. Più
precisamente, con esso possiamo indicare un gruppo di due o più computer collegati tra loro.
Gli elaboratori rappresentano i nodi della rete descritta e, spesso, vengono definiti “host” o
stazioni; i collegamenti tra questi nodi fanno sì che la rete di svolgere la sua funzione principe,
quella di consentire il passaggio di dati da un elaboratore all’altra sotto forma di pacchetti.
Le reti possono essere locali o geografiche: quando si parla della rete situata in un’unica sede
dell’azienda abbiamo una rete locale (LAN, Local Area Network); se due reti situate in due sedi
differenti sono collegate mediante servizi offerti da un Internet Service Provider (ISP) o tramite
una linea dedicata fornita da una società telefonica, abbiamo, oltre a due reti locali, una rete
WAN (Wide Area Network, detta anche rete geografica).
Ogni rete comprende:
-
almeno due computer;
-
una scheda di rete (un dispositivo che permette al computer di colloquiare con la rete)
su ogni computer (detta anche NIC, Network Interface Card);
-
un mezzo di collegamento, ovvero il cavo. Oggi esiste anche la possibilità di far
comunicare i computer e le periferiche collegati in rete senza cavo (“wireless”);
-
un software di rete, normalmente già presente nei più comuni sistemi operativi quali
Windows 95/98, Windows NT/2000, Apple MacOs, Novell NetWare;
-
un punto di aggregazione, ovvero una speciale “scatola” per connettere tutti i cavi. In
passato vi erano anche reti in cui il cavo di rete di ogni PC si collegava direttamente ad
un altro PC: oggi, invece, le reti prevedono quasi sempre una struttura più efficiente,
che riunisce i cavi connessi ai PC in un unico punto. Quella che abbiamo definito
“scatola” cui si attaccano i cavi provenienti dai PC può essere definita hub o switch.
Certo, rete locale ed Intranet sono stati a lungo una prerogativa delle sole grandi realtà
aziendali con la disponibilità di grosse risorse da investire nell’infrastruttura informatica; la
diminuzione dei costi dei prodotti informatici ha fatto sì che oggi, anche nelle piccole imprese,
la spesa necessaria per costruire una piccola rete locale sia più che sostenibile.
Ovviamente, anche la sua amministrazione è stata talmente automatizzata da divenire
gestibile anche da personale non altamente specializzato.
Per costruire una rete è sufficiente, come detto, che due computer siano collegati tra loro: i
vantaggi di una rete sono molti e riguardano diversi aspetti dell’utilizzo dei sistemi informativi.
Un primo vantaggio di collegare i computer in rete è la possibilità di condivisione e di accesso
remoto delle informazioni: una cartella o un file memorizzati su un nodo della rete possono
essere condivisi e ad essi possono accedere gli utenti di tutti gli altri nodi. Un altro vantaggio
consiste nella possibilità di condivisione delle risorse fisiche come stampanti o connessioni ad
Internet. Se si dispone di una rete locale, basta collegare la stampante ad un nodo che funge
da server per tutte le operazioni di stampa originate dalle altre postazioni. Analogamente, una
connessione ad Internet può essere gestita da un singolo computer e condivisa tra tutti gli
utenti che possono accedere a quest’ultimo.
Un terzo vantaggio della connessine in rete consiste nella facilitazione dell’implementazione di
strategie di backup che prevedono la duplicazione automatica e periodica dei file su più nodi.
Un ultimo vantaggio della connessione in rete consiste nella facilitazione dell’implementazione
di strategie di backup che prevedono la duplicazione automatica e periodica dei file su più nodi.
Un ultimo vantaggio, forse quello più importante, è che una rete locale costituisce un’ottima
infrastruttura a supporto della produttività con strumenti come la posta elettronica e l’Intranet
aziendale.
CLIENT E SERVER
Spesso, quando la rete si ingrandisce e aumenta il numero di utilizzatori connessi, si introduce
un computer su cui non lavorerà nessuno: sarà, infatti, un computer dedicato ad offrire servizi
agli altri PC della rete. Questo computer viene chiamato server, un punto centralizzato per
archiviare (e condividere) informazioni (file) o programmi. I server si occupano anche di
gestire e metter a disposizione di tutti alcune periferiche come le stampanti.
In tutti quei casi in cui esiste un server in rete, tutti gli altri computer prendono il nome di
client.
Nelle reti di più piccole dimensioni, dove si decide di non installare un server, alcune funzioni di
condivisione possono essere espletate dai singoli computer connessi, come lo scambio di file ed
e-mail, la copia di file sui dischi fissi di qualcun altro.
Facciamo ora una rapida carrellata dei componenti fondamentali, che si trovano in tutte le reti
locali.
-
scheda di rete: le schede di rete sono generalmente installate all’interno del computer,
dal quale “spunta” solo la parte terminale, nella quale deve essere inserito il cavo di
rete.
-
Hub: detti anche ripetitori, gli hub sono i dispositivi che collegano fra di loro gli utenti,
rappresentando il punto di aggregazione di tutti i cavi collegati ai PC. Ogni pacchetto di
dati proveniente da un computer viene ricevuto dall’hub su una porta e trasmesso a
tutte le altre (ovviamente, il pacchetto verrà poi ricevuto solo dal computer che risulta
essere l’effettivo destinatario). Tutti gli utenti collegati a un hub si trovano nello stesso
“segmento” di rete e condividono la stessa larghezza di banda (così viene chiamata la
velocità della rete), per cui, nel caso della comune rete Ethernet, la banda di 10 Mbps
viene condivisa in modo tale per cui se un utente ne sta utilizzando il 10%, agli altri
utenti rimangono 9 Mbps. E’ facile immaginare che questa tipologia di connessione con
banda condivisa esaurisca rapidamente la capacità della rete di far viaggiare
rapidamente il traffico delle informazioni.
-
Switch: gli switch svolgono la stessa funzione degli hub, ma sono più potenti e
intelligenti; innanzitutto, offrono una larghezza di banda maggiore agli utenti, perché la
banda non è condivisa, ma dedicata (se è di 10 Mbps, ogni utente avrà i propri 10Mbps,
da non dividere con nessun altro). Inoltre, uno switch, essendo in grado di leggere le
informazioni con l’indirizzo di ogni pacchetto, invia i pacchetti di dati solo alla porta
specifica del destinatario.
-
Router: anch’essi sono smistatori di traffico che ricevono dati e li inviano da qualche
altra parte. Nelle reti solitamente si occupano del traffico verso l’esterno della rete
locale, ad esempio per un collegamento ad Internet. Basandosi su una mappa di rete
denominata “tabella di routine”, i router possono fare in modo che i pacchetti
raggiungano le loro destinazioni attraverso i percorsi più efficaci. Se cade la
connessione tra due router, per non bloccare il traffico il router sorgente può definire un
percorso alternativo.
Il passo successivo consiste nell’illustrare le diverse tecnologie di “networking”:
-
LAN Ethernet e Fast Ethernet: Ethernet è apparsa per la prima volta nel 1970 e
rappresenta la tecnologia tutt’ora più diffusa per le reti locali. Sinteticamente, un
computer con scheda di rete Ethernet può inviare i pacchetti di dati solo quando nessun
altro pacchetto sta viaggiando sulla rete, ovverosia quando la rete è, per così dire,
tranquilla. In caso contrario, aspetta a trasmettere come quando, durante una
conversazione, una persona deve attendere che l’altra smetta prima di parlare a sua
volta.
Se più computer percepiscono contemporaneamente un momento “tranquillo” e iniziano
ad inviare i dati nello stesso momento, si verifica una “collisione” dei dati sulla rete, con
conseguente necessità di effettuare altri tentativi: ogni computer, infatti, attende per un
certo periodo e prova a inviare nuovamente il pacchetto di dati. Se gli utenti di una rete
aumentano, cresce rapidamente anche il numero di collisioni, errori e ritrasmissioni, con
un effetto a valanga dannoso per le prestazioni della rete.
Come già accennato in precedenza, la larghezza di banda (o capacità di trasmissione dei
dati) di Ethernet è di 10 Mbps; Fast Ethernet opera nel medesimo modo, ma ad una
velocità dieci volte superiore (100Mbps).
Una volta compreso il modo di operare delle reti Ethernet, è facile comprendere quanto
uno switch possa essere efficiente nel risolvere i problemi di traffico, fornendo più corsie
ai dati che viaggiano, rispetto alle reti dove la banda è condivisa da tutti i computer.
Le seguenti immagini vogliono rappresentare le diverse modalità di funzionamento delle
reti Ethernet e Fast Ethernet.
Come accennato all’inizio, le LAN servono gli utenti locali all’interno di un edificio; le reti WAN,
invece, collegano LAN situate in luoghi diversi della stessa città, nazione o di qualsiasi altra
parte del mondo. Si tratta, quindi, di un collegamento a distanza e si parla in questo caso, di
connettività geografica. Internet, ovviamente, è una rete WAN, così come lo sono le reti che
connettono le filiali di un’azienda sparse sul territorio.
In generale, le velocità delle reti locali (LAN) sono decisamente superiori a quelle delle WAN: si
pensi che se una Ethernet va a 10 o 100 Mbps, ovvero dieci/cento milioni di bit al secondo, un
comune modem opera a 56 Kbps (“solo” 56 mila bit a secondo), e quindi a meno del 10% della
velocità di una Ethernet.
PACCHETTO E PROTOCOLLO
Come detto, scopo principe della rete è il trasferimento dei dati: questi viaggiano nella rete
sotto forma di pacchetti: il termine è appropriato in quanto si tratta di un vero e proprio
confezionamento delle informazioni attraverso cui si definisce il mittente e il destinatario dei
dati trasmessi.
Il confezionamento e le dimensioni dei pacchetti dipendono, poi, dal tipo di rete fisica
utilizzata. I dati, è facile immaginarlo, sono un materiale duttile,che può essere suddiviso e
aggregato in vari modi. Ciò significa che, durante il loro tragitto, i dati possono essere
scomposti e ricomposti più volte e in modi differenti: ad esempio, per attraversare un
segmento di una rete particolare, potrebbe essere necessario suddividere dei pacchetti troppo
grandi in pacchetti più piccoli, oppure potrebbe essere utile il contrario.
I pacchetti di dati, poi, vengono trasmessi e ricevuti in base a delle regole definite da un
“protocollo di comunicazione”. A qualunque livello della nostra esistenza è necessario un
protocollo per comunicare: in un colloquio tra persone, chi parla invia un messaggio all’altra
che, per riceverlo, deve ascoltare; volendo proseguire con questo esempio, si può anche
considerare il problema dell’inizio e della conclusione della comunicazione: la persona con cui si
vuole comunicare oralmente deve essere raggiunta e si deve ottenere la sua attenzione, per
esempio con un saluto; alla fine della comunicazione, occorre un modo per definire che il
contatto è terminato, con una qualche forma di commiato.
Il protocollo più utilizzato per la trasmissione e la ricezione delle informazioni è il TCP/IP
(Transmission Control Protocol / Internet Protocol), formato da due componenti:
1. il protocollo IP, che suddivide ogni messaggio in uscita in pacchetti di piccole dimensioni
e ricompone i messaggi in arrivo, unendo i relativi pacchetti;
2. il protocollo TCP, che controlla la correttezza della trasmissione e fa sì che, se un
pacchetto va perso o arriva danneggiato, esso sia inviato di nuovo.
LA RETE DELLE RETI: INTERNET
LA NASCITA DI INTERNET
Dai più, il 1969 è ricordato come l’anno dello sbarco dell’uomo sulla Luna, evento di indiscussa
importanza, che ha segnato l’alba di una nuova era; esiste, però, almeno un altro motivo
perché quest’anno possa ritenersi epocale: la nascita di Internet.
La comune convinzione che la cosiddetta “Rete delle Reti” sia un’invenzione degli anni ’90 può
ritenersi corretta solo in piccola parte: infatti, la storia di Internet ha avuto un corpo parallelo
alla Storia contemporanea ufficiale, benché inizialmente molti avvenimenti fossero conosciuti
solo dagli addetti ai lavori.
Quello che potremmo definire il casus belli della nostra storia è la realizzazione di un
importantissimo progetto spaziale sovietico nel 1957, la messa in orbita dello Sputnik. Questo
evento ebbe forti ripercussioni negli Stati Uniti, che videro minacciata la propria supremazia
tecnologica e, non da ultimo, il proprio primato in campo militare. La risposta, come
prevedibile, non si fece attendere: alla fine degli anni ’50, in piena guerra fredda,
l’amministrazione Eisenhower diede un notevole impulso alla ricerca militare nel settore delle
comunicazioni; in particolare, in seguito all’approvazione del Congresso, il Dipartimento della
Difesa degli Stati Uniti nel 1958 diede vita all’ARPA (Advanced Research Project Agency), con
sede all’interno del Pentagono, a Washington.
Nonostante questo rinnovato impegno, i progressi sovietici in campo spaziale non si
arrestarono, tutt’altro: nel 1961, il russo Yuri Gagarin divenne il primo uomo lanciato nello
spazio. A fronte di ciò, gli Stati Uniti decisero di stanziare ancora maggiori finanziamenti nel
campo della ricerca aerospaziale e costituirono la NASA, alla quale venne trasferita la
competenza di gestire i programmi spaziali, con i relativi capitali. Dal canto suo, l’ARPA dovete
cercarsi un nuovo oggetto di studio, che trovò nella scienza dell’informazione e della
comunicazione; in particolare, la direzione dell’agenzia, avendo a disposizione costosi
elaboratori elettronici, decise di sviluppare un progetto che conferisse a quelle macchine la
capacità di comunicare e trasferire i dati.
Nel 1969 vide la luce, quindi, il primo risultato concreto del progetto, chiamato ARPAnet: come
viene riportato comunemente nei trattati di storia di Internet, l’obiettivo di ARPAnet era quello
di garantire la sicurezza dei dati in caso di guerra nucleare. In realtà, almeno in un primo
tempo, il progetto portò ala condivisione dei sistemi tra i quattro poli universitari coinvolti:
UCLA (Università di Los Angeles), UCSB (Università di Santa Barbara), Università dello Utah e
lo SRI (Stanford Research Institute); il primo esperimento compiuto fu il tentativo di accesso
da UCLA al sistema dello SRI, seguito da due gruppi di studenti in collegamento telefonico: al
secondo tentativo, sul video del computer remoto dello SRI comparve la parola “LOG”, digitata
da un professore che in quel momento si trovava a Los Angeles.
In progetto ARPAnet non è nato, quindi, con finalità militari, come spesso si vuol far credere,
e, a dimostrazione di ciò, vi è il fatto che i dettagli tecnici che ne delineano la composizione
non furono coperti da segreto, ma da sempre sono di dominio pubblico.
D’altro lato, è sicuramente vero che le applicazioni militari furono una conseguenza obbligata
di un progetto che poteva nascere solamente dalla sinergia delle uniche due entità che
all’epoca disponevano della tecnologia informatica necessaria, il Dipartimento della Difesa e
l’ambiente universitario della ricerca. Il vantaggio di uno sfruttamento del progetto ARPAnet in
campo militare è legato al fatto che, se si fosse verificato un bombardamento, il rischio di
perdita di dati sarebbe stato scongiurato, dal momento che comunicazioni e archivi potevano
essere trasmessi tra computer dislocati in località differenti.
Dopo ARPAnet, vi furono numerosi sviluppi delle comunicazioni in rete, che consentirono ad un
numero sempre maggiore di utenti (per lo più università) di collegarsi tra loro.
Nel 1991, iniziò la collaborazione europea alla struttura di Internet: il Cern di Ginevra sviluppò
un sistema per consultare in modo intuitivo informazioni, dati e immagini che diede corpo al
Word Wide Web. La consultazione fu così fluida da essere definita, in inglese, surfing (ovvero
“navigazione”), grazie anche al linguaggio con cui da quel momento in avanti vennero
composti i dati da consultare: l’HTML.
HTML
Alla base del Web risiede il fondamentale concetto di HTML. L’HTML (Hyper Text Markup
Language) è un linguaggio, con le sue regole grammaticali e sintattiche, che stabilisce come
devono realizzare e decifrare i documenti ipertestuali. Questi documenti possono essere
collegati tra loro con opportuni riferimenti, non necessariamente reciproci, arricchiti di
immagini, testi, suoni o altre risorse multimediali, creando quelle che in gergo si chiamano
pagine Web.
Le potenzialità esplorative di Internet offerte ad ogni singolo navigatore risiedono nella fitta
ragnatela di interconnessioni che possono essere stabilite tra il materiale diffuso attraverso la
Rete, organizzate secondo la logica dell’ipertesto e che divengono esse stesse ipertesto.
La forza dell’ipertesto sta nel fatto di consentire la simulazione di processi associativi, simili a
processi della mente umana che non pensa solo sequenzialmente, ma che procede anche per
associazioni di idee; analogamente, l’ipertesto non ha un ordine di lettura fisso e prestabilito
come un romanzo e, per questa sua caratteristica, non risulta mai uguale a se stesso.
Le funzioni svolte da un sistema ipertestuale sono innanzitutto di consultazione: l’utente può
posizionarsi sulla Rete, navigare nella base informativa seguendo i vari collegamenti che si
dipartono dal nodo, visualizzare il contenuto del nodo e così via.
Un ipertesto può essere letto in molteplici direzioni: dall’alto verso il basso, come un normale
libro, o da fuori a dentro; ogni pagina può essere la porta di accesso ad un’altra pagina interna
alla stessa opera o al sito che si sta consultando, ma anche di altri siti sparsi nella rete.
URL
Ogni computer connesso via internet viene identificato univocamente con un indirizzo
numerico, detto indirizzo IP, che viene rappresentato mediante quattro numeri (di una, due o
tre cifre ognuno), separati da un punto (ad es. 189.193.42.16).
Ad ogni connessione Internet l’utente deve esplicitare l’indirizzo del sistema con il quale
intende scambiare informazioni. Dal momento, però, che un nome simbolico viene ricordato
più facilmente rispetto ad un indirizzo numerico, ad ogni computer viene solitamente associato
anche un nome di dominio formato da tre o più parti, separate da punti: ad esempio
www.unibo.it.
Si parla, quindi, di URL (Uniform Resource Locator) di un sito web per indicare il nome
simbolico della risorsa di rete, preceduto dal protocollo che si deve utilizzare per raggiungerla:
l’URL permette così di localizzare univocamente ciascuna risorsa; il servizio che trasforma poi i
nomi simbolici in numeri è chiamato DNS (Domain Name Service).
Consideriamo, ad esempio, l’indirizzo http://www.cib.unibo.it/dicocco/rimini/index.html: la
prima parte, fino alla doppia barra, indica il tipo di accesso al documento (protocollo); così,
una URL che inizia con ftp porterà ad un server che ci permetterà di scaricare un file, mentre
un indirizzo che inizia con http ci porta ad una pagina web. La parte dopo la doppia barra
identifica il nome del server dove risiede la risorsa in questione: ogni indirizzo è formato da un
insieme di caratteri separati da un punto, senza spazi, da un minimo di due blocchi ad un
massimo di quattro. Dopo l’indirizzo vero e proprio, può essere presente una barra: da questo
punto in poi ci troviamo nel percorso di cartelle e file del serve a cui siamo collegati; nel nostro
esempio, “/dicocco/rimini/” rappresenta il percorso nel quale si trova il file desiderato,
chiamato “index.html”, come indica l’ultima parte dell’indirizzo.
I browser più recenti (il browser è il programma che, interpretandoli linguaggio HTML, ci
consente di visualizzare le pagine web sul computer) ci consentono delle facilitazioni nella
digitazione degli indirizzo Web: in particolare, non siamo più obbligati a scrivere il prefisso per
il protocollo (http://), ma sarà il programma che, quando noi digiteremo la URL, inserirà il
resto.
Come anticipato, l’indirizzo vero e proprio della risorsa, o URL, è formato al massimo da
quattro stringhe di caratteri, seguendo una logica gerarchica da sinistra verso destra: più
precisante, troviamo un dominio di primo livello, seguito da un dominio di secondo livello ed
eventuali altri sottodomini (al massimo altri due). Cosi, l’indirizzo www.cib.unibo.it si compone
di un primo livello, che identifica la nazione o il tipo di servizio che l’organizzazione svolge, ed
è rappresentato da una sigla (.it); continuando, il primo sottodominio (o dominio di secondo
livello) identifica l’organizzazione generale Università di Bologna, mentre il secondo specifica
ulteriormente il livello, indicando il Cib. La sigla www indica che ci troviamo nel Word Wide
Web.
LA NAVIGAZIONE
Come anticipato, per iniziare a usare il World Wide Web è sufficiente potersi collegare a
Internet e avere a disposizione un browser Web: il browser sappiamo essere un’applicazione
che sia in grado di ricercare e riprodurre a video le pagine Web contenenti le informazioni
estratte dalla rete e che consenta di procedere da una pagina all’altra servendosi di
collegamenti ipertestuali inseriti nelle pagine Web stesse.
I browser Web più utilizzati sono:
- NETSCAPE NAVIGATOR: sviluppato da Netscape Communicator Corp, è disponibile
gratuitamente per piattaforma Macintosh, Windows e Unix. Navigator fa parte di Netscape
Communicator, un gruppo di programmi che include un potente editor HTML per la creazione di
pagine Web, un programma di posta elettronica denominato Messenger e un lettore di news
denominato Netscape Newsgroup.
- MICROSOFT INTERNET EXPLORER: presente su tutti i sistemi operativi Windows, è
disponibileanche per piattaforme Macintosh gratuitamente.
- LYNX: si tratta di un browser per piattaforme UNIX e per accedere a Internet tramite fornitori
di accesso che richiedono l’uso di sistemi UNIX. Linx visualizza solo la parte testuale dei
documenti Web e, pertanto, è particolarmente adatto per coloro che utilizzano computer vecchi
oppure modem che non forniscono prestazioni sufficientemente elevate per poter essere
sfruttati con browser di tipo grafico.
INTERNET EXPLORER: per avviare Internet Explorer è sufficiente fare clic sull’icona sulla barra
delle applicazioni, oppure scegliendo Start Æ Programmi Æ Internet Explorer o, ancora,
facendo doppio clic sulla “E” blu sul desktop.
Quando si avvia il browser, la pagina iniziale è, in genere, la home page della Microsoft. Per
visualizzare una pagina Web di cui è noto l’URL, bisogna digitare quest’ultima direttamente
nella casella Indirizzo al di sotto della barra degli strumenti e premere INVIO.
Internet Explorer indica, nella parte inferiore dello schermo,la progressione dell’operazione.
Potrebbe essere necessario attendere alcuni istanti prima di visualizzare la pagina; se si
desidera interrompere l’operazione fare clic sul tasto Termina.
E’ possibile modificare il percorso della home page e della pagina di ricerca preferita scegliendo
Strumenti Æ Opzioni Internet per visualizzare la finestra di dialogo Opzioni Internet. Fare clic
sulla scheda Generale e digitare l’URL nella casella Indirizzo.
I collegamenti ipertestuali inseriti in una pagina Web vengono contrassegnati da un colore
identificativo: si tenga presente che anche le immagini o gli elementi grafici possono essere
definiti come collegamenti ipertestuali e, in questo caso, vengono di solito racchiusi in una
cornice. Quando si porta il puntatore del mouse su di un collegamento ipertestuale, sulla Barra
di stato della finestra di Internet Explorer (in basso a sinistra) viene riportato l’URL a cui il
collegamento ipertestuale fa riferimento e il puntatore assume l’aspetto di una piccola mano
con dito indicante. Per accedere al documento richiamato dal collegamento ipertestuale, si
faccia clic sul collegamento della pagina Web visualizzata e si attenda che Internet Explorer
reperisca e carichi la nuova pagina.
Per tornare all’ultima pagina visualizzata, fare clic sul pulsante Indietro, l’icona all’estrema
sinistra della barra degli strumenti. Se la pagina non viene caricata in modo corretto, è
possibile caricarla di nuovo facendo clic sul pulsante Aggiorna.
Quando si visualizza una pagina Web particolarmente interessante e alla quale si pensi di
accedere anche in futuro, la si potrà inserire nell’elenco dei preferiti.
1. Avviare il comando Preferiti
Aggiungi a Preferiti, in modo da visualizzare la relativa finestra
di dialogo;
2. correggere il contenuto del campo Nome con quello della pagina;
3. fare clic su OK per aggiungere il sito Web alla lista dei preferiti;
4. per richiamare uno degli indirizzi presenti nella lista dei preferiti, basta sceglierlo dal menù
dei Preferiti presente sulla Barra degli strumenti e scegliendo da qui il sito desiderato.
Una volta che l’elenco dei preferiti ha raggiunto dimensioni ragguardevoli, è possibile adottare
una tecnica di organizzazione delle voci presenti nell’elenco.
REPERIMENTO DELLE INFORMAZIONI IN INTERNET
Se inizialmente esisteva una chiara distinzione tra directory Web e motori di ricerca, adesso le
funzionalità dei due sono strettamente combinate, tanto da poter parlare di siti di ricerca.
Le directory Web non sono altro che catalogazioni d’informazioni del World Wide Web
organizzate gerarchicamente, dove dai livelli superiori si dipartono aree tematiche dalle quali, a
loro volta, possono dipendere sottoaree.
Molte organizzazioni, poi, si sono prese carico del compito d’indicizzare interamente il World
Wide Web tramite visite periodiche dei siti Web. Vengono analizzati servendosi di parole chiave
e seguendo qualsiasi percorso ipertestuale per scoprire nuove pagine Web. Le informazioni così
raccolte sono reperibili in speciali siti Web denominati motori di ricerca, ovvero programmi che
raccolgono le informazioni dalle pagine Web e le indicizzano per consentirne una ricerca.
Per eseguire una ricerca su un motore di ricerca, è necessario scrivere una stringa di ricerca,
che descrive le informazioni ricercate, nella casella di testo della pagina di ricerca.
Successivamente, si fa clic sul pulsante Cerca: il motore di ricerca può visualizzare un elenco di
pagine Web che, a suo giudizio, soddisfano la richiesta di informazioni. Le pagine vengono
organizzate in base alla stringa di ricerca immessa e le prime sono proprio quelle che si
avvicinano maggiormente al criterio di ricerca stesso.
LA POSTA ELETTRONICA
UN PO’ DI STORIA…
Il primo programma di posta elettronica venne creato nel 1971 da un ingegnere informatico
della Bbn, che l’anno successivo scelse anche il simbolo di commercial at, identificato con
l’ormai mitica chiocciola “@”, per gli indirizzi di posta elettronica. Questo simbolo, scelto
praticamente a caso, aveva anche il vantaggio di essere utilizzato per indicare “at” (cioè
presso) in inglese, oltre a comparire come indicatore di prezzo nella contabilità anglosassone
da quasi un secolo. Per molti anni, negli indirizzi di posta elettronica si sono utilizzati svariati
simboli separatori, fino alla fine degli anni ’80, quando la “chiocciola” è stata eletta a standard
mondiale.
LA POSTA ELETTRONICA COME STRUMENTO DI COMUNICAZIONE
I vantaggi della posta elettronica rispetto agli altri strumenti per comunicare deriva in gran
parte dalle caratteristiche stesse di Internet. Il fax, ad esempio, è stata la modalità di
comunicazione prevalentemente usata da privati ed aziende per l’invio di testi o copie di
documenti. Attualmente, però, il fax mostra limiti di praticità ed economicità rispetto alla posta
elettronica, venendo ad essere sostituito da quest’ultima come strumento di comunicazione
preferenziale anche nelle aziende e negli enti.
Nel caso in cui, ad esempio, si debbano spedire dieci fax a dieci persone, dovranno effettuarsi
dieci chiamate, nella stessa città, in altre città o addirittura in altre nazioni, con ovviamente
costi differenti, normalmente proporzionali alla distanza.
Con la posta elettronica, tutte queste differenze vengono annullate, dal momento che basta
una connessione Internet con il nostro Internet Service Provider per mandare uno o dieci o
cento messaggi di poste elettronica a differenti utenti. Inoltre, il fatto che questi messaggi
siano diretti ad utenti nella stessa città, in città o nazioni diverse, non farà differenza.
Un altro grande vantaggio della posta elettronica rispetto al fax è che, al contrario di
quest’ultimo che trasmette il testo come immagine, punto per punto, la posta elettronica
trasmette solo i caratteri, necessitando quindi di una banda molto più limitata e di un tempo di
collegamento molto inferiore.
IL MESSAGGIO DI POSTA ELETTRONICA
Un generico programma di posta elettronica presenta alcuni campi principali che devono essere
riempiti: c’è uno spazio dove si scrive l’indirizzo del destinatario (A: oppure To:), uno spazio
destinato al soggetto del messaggio (Oggetto:) e lo spazio per il messaggio vero e proprio.
Esistono poi altri due campi, dove è possibile inserire l’indirizzo di un altro destinatario che
riceverà anch’egli in copia carbone (carbon copy, cc:) il messaggio, e un ulteriore destinatario
che riceverà il messaggio in copia carbone nascosta (blind carbon copy, bcc:) senza sapere
dell’esistenza degli altri destinatari.
E’ anche possibile inserire più indirizzi per ogni campo; molti programmi di posta consentono di
associare all’indirizzo di posta un nome; anziché ricordarci l’indirizzo possiamo scrivere nel
campo del destinatario questo nome, al quale possono essere, poi, associati più indirizzi di
posta, in modo da creare delle liste di destinatari, senza doverli scrivere tutte le volte.
Molto importante è il campo Oggetto, che deve poter ricondurre all’argomento del testo:
ovviamente non è obbligatorio scriverlo, nel senso che il messaggio senza soggetto arriverà
ugualmente a destinazione, ma la presenza di un soggetto è utile per chi lo riceve che ne potrà
conoscere immediatamente l’argomento. Inoltre, se il messaggio non viene cancellato subito,
ma viene archiviato, la specificazione di un soggetto adeguato aiuterà chi lo riceve a ricercarlo
successivamente.
La procedura per scrivere un messaggio tramite e-mail è abbastanza semplice: si scrive il
messaggio come si potrebbe scrivere un comune testo, usando solo alcune accortezze nella
scelta dei caratteri da utilizzare.
A livello internazione, esistono due tabelle o set di caratteri (con set di caratteri si intendono
l’insieme di caratteri che un determinato sistema può usare)con i quali è possibile produrre
tutti i caratteri presenti nella tastiera. Il set di caratteri ristretto è formato da 7 bit, ovvero
mette a disposizione 27 (128) caratteri: fanno parte di questo set di caratteri tutte le lettere,
maiuscole e minuscole, i numeri e altri caratteri.
Con il set di caratteri esteso, caratterizzato da una codifica a 8 bit, ne avremo a disposizione
altri 128, per un totale di 256 caratteri. Il vantaggio di usare questo secondo set è che
abbiamo a disposizione tutti i caratteri della tastiera, mentre lo svantaggio è che i 128 caratteri
aggiuntivi variano da paese a paese, dal momento che lingue diverse implicano caratteri
diversi (così, nel set esteso italiano ci sono le lettere accentate, che non sono presenti in quello
inglese).
Se, quindi, nel corpo del messaggio utilizziamo lettere accentate, senza sapere se questo potrà
mantenere poi la codifica, è possibile andare incontro a problemi di visualizzazione: una lettera
come la “è”, ad esempio, potrebbe essere sostituita da un insieme di caratteri come =e8. Il
messaggio risulterà utilmente comprensibile, ma l’effetto non sarà dei più graditi per il lettore.
Fa quindi parte delle convenzioni di buona educazione dell’uso della rete, la cosiddetta
netiquette, usare sempre il set di caratteri ristretto.
I messaggi risiedono fisicamente sul server presso il quale abbiamo la casella di posta e,
tramite le opzioni del programma di posta questi, una volta scaricati, possono essere lasciati o
rimossi dal server. Di solito si usa toglierli dal server sia per motivi di riservatezza sia per
limitare l’uso dello spazio disco a nostra disposizione: infatti, lo spazio a disposizione del server
di posta non è illimitato e, quindi, prima o poi è destinato a finire, con la conseguente
impossibilità di ricevere e spedire messaggi e la necessità di richiedere l’intervento del gestore
del sistema di posta.
I messaggi che vengono spediti ovviamente non arrivano direttamente al destinatari, ma
vengono inviati e memorizzati nel server dove il destinatario ha la casella di posta, in quanto
questa modalità di comunicazione, al contrario del fax o del telefono, non è diretta.
Ogni casella di posta è identificata da un indirizzo: l’elemento che tra le risorse Internet
contraddistingue un indirizzo di posta elettronica è il carattere @, che sulle tastiere italiane si
forma con l’ausilio del tasto “alt gr”. Questo carattere si trova al centro dell’indirizzo ed è
preceduto e seguito da altri caratteri.
I caratteri alla destra del simbolo identificano il server e il dominio del fornitore di connettività
e, di solito, sono nomi o sigle separati da punti; i caratteri alla sinistra identificano, invece,
l’utente della casella di posta e ci vengono assegnati.
Leggendo l’indirizzo da destra a sinistra vediamo che esso specifica in maniera più dettagliata
le informazioni, dalla nazione al server fino all’utente.
OUTLOOK EXPRESS
Per eseguire Outlook Express, fare clic sull’icona relativa sul desktop di Windows o sulla barra
delle applicazioni; nella finestra di Outlook Express l’elenco delle cartelle, inclusa quella di
posta in arrivo e quella di posta in uscita, viene visualizzata lungo il lato sinistro della finestra.
Nella parte superiore destra viene visualizzato l’elenco di messaggi della cartella selezionata e,
nella parte inferiore, viene visualizzato il messaggio selezionato.
Per ricevere la propria posta, fare clic sul pulsante Invia e Ricevi presente sulla Barra degli
strumenti. Se non si è connessi alla propria casella di posta Internet, lo farà Outlook Express;
successivamente il programma spedisce tutti i messaggi che si sono scritti e raccoglie i nuovi
messaggi.
Per osservare i messaggi presenti nella casella di posta si deve fare clic su Posta in arrivo nella
lista delle cartelle presente sul lato sinistro della finestra che ospita Outlook Express.
Appare una lista di messaggi nella zona in altro a destra della finestra, in cui i messaggi non
ancora letti sono evidenziati in grassetto. Per leggerne uno, basta farvi clic: il contenuto del
messaggio appare nella zona in basso a destra della finestra mentre, per aprirlo in una propria
finestra è sufficiente fare due clic.
Per creare un nuovo messaggio, fare clic sul pulsante Crea messaggio sulla Barra degli
strumenti; si apre una finestra per il nuovo messaggio, nella quale viene richiesto di
completare i vari campi che definiscono il mittente, l’oggetto e il testo del messaggio.
Per rispondere a un messaggio e spedire la risposta a chiunque avesse ricevuto il messaggio
originale, si faccia clic sul pulsante Rispondi a tutti sulla Barra degli strumenti, mentre per
rispondere al solo autore del messaggio originale si faccia clic sul pulsante Rispondi all’autore.
Per inoltrare un messaggio ricevuto si faccia clic sul pulsante Inoltre Messaggio: viene aperta
una finestra per la composizione di un messaggio in cui compare il testo del messaggio
originale ed il campo Oggetto già compilato.
Per spedire il messaggio così creato, è sufficiente digitare l’indirizzo o gli indirizzi di posta
elettronica a cui si desidera spedire il messaggio; è anche possibile aggiungere nell’area
destinata al messaggio un testo.
LA SICUREZZA SU INTERNET
Con l’aumento degli utenti di Internet ed il sempre maggior numero di servizi offerti attraverso
la rete, è aumentata anche l’attenzione di navigatori e produttori di software verso tutti gli
aspetti legati alla conservazione della privacy. Tale discorso, vero in generale, assume
particolare rilevanza quando, attraverso la rete, devono viaggiare informazioni riservate come
estremi di identificazione, password o numeri di carte di credito. Sorvolando, in questa sede,
su tutte le fattispecie che implicano un comportamento fraudolento, esiste, comunque, la
possibilità per i gestori di siti web di tracciare a differenti livelli di accuratezza ed in piena
legalità, l’utilizzo del proprio sito da parte dei navigatori allo scopo di personalizzare la
navigazione.
Benché
molti
navigatori
possano
non
porsi
il
problema
della
propria
identificazione e della raccolta dei dati relativi ai propri comportamenti, dal momento che ciò
potrebbe, in alcuni casi, facilitare l’interazione con la Rete, d’altro lato riteniamo sia utile
sapere come la propria privacy possa essere violata, in modo tale da fornire al navigatore gli
strumenti per fissare dei limiti invalicabili alla divulgazione dei propri dati.
Per quanto molti utilizzatori abbiano l’impressione che l’anonimato su Internet sia sempre
garantito, in realtà esiste sempre la possibilità di risalire al loro computer, a causa di un
vincolo tecnico che obbliga il server su cui è caricato il sito a sapere sempre a chi inviare le
pagine visualizzate. L’identificazione di un utente avviene fondamentalmente attraverso due
strade, l’indirizzo IP del sistema che sta utilizzando e l’utilizzo di cookie memorizzati dal
browser Web.
-
L’INDIRIZZO IP:
Uno degli strumenti utilizzati più di frequente per tenere traccia dell’attività dei navigatori è
l’indirizzo IP: come detto in precedenza, non è altro che una serie di quattro numeri che
permette di identificare in modo univoco tutti i computer presenti su Internet. Gli indirizzi IP
sono gestiti in modo molto rigoroso da un’entità preposta a tale scopo, che assegna singoli
indirizzi o blocchi di essi ad aziende, Internet Service Provider e privati che ne richiedano la
registrazione.
Gli indirizzi IP possono essere statici o dinamici: di fatto, ogni sito Web è visibile in rete grazie
al suo indirizzo IP statico; la URL, preceduta dal classico www, è, come sappiamo, un semplice
simbolo mnemonico, utile ai navigatori per ricordare come raggiungere il sito; l’indirizzo IP con
cui è identificato il computer del navigatore è, invece, generalmente un indirizzo dinamico, dal
momento che gli Internet Service Provider hanno a disposizione un insieme di indirizzi che, di
volta in volta, assegnano ai computer dei propri utenti che si connettono.
In ogni caso, in un certo istante, esiste su Internet uno ed un solo computer associato ad un
singolo indirizzo IP: per questo, è possibile risalire esattamente al computer che ha raggiunto
un sito, letto una determinata pagina, compilato un modulo o acquistato un prodotto.
La presenza di indirizzi IP dinamici rende solitamente imprecisa l’identificazione dello stesso
utente durante differenti sessioni di collegamento ad Internet mentre permette di tracciare in
modo completo una singola sessione di navigazione o di accesso ad un sito. A partire dalle
informazioni così raccolte, è possibile generare una serie di profili standard di comportamento
associati dinamicamente ai nuovi visitatori.
-
I COOKIE
Quando si visita un sito, spesso si impostano delle opzioni, come ad esempio la lingua o la
disposizione grafica degli oggetti, per personalizzare la propria vista. In altri casi, l’acceso a
determinate sezioni di un sito può richiedere l’introduzione di username e password. Affinché
tale riconoscimento possa avvenire, è necessario che sul computer del navigatore sia
memorizzato un file contenente la sua identità virtuale che possa essere letto dal server del
sito Web. In questo file sono memorizzati i dati relativi alle interazioni precedenti con un
determinato sito ed ogni informazioni ritenuta utile dai progettisti del sito per migliorarne la
fruibilità.
Questi file prendono il nome di cookie: per motivi di sicurezza, i cookie non sono memorizzati
direttamente dal sito sul disco fisso del navigatore, ma è necessaria l’intermediazione del
browser. Se richiesto ed ammesso dalle impostazioni di sicurezza, il browser memorizzerà i
cookie per conto di un sito in modo trasparente all’utente. Una volta memorizzato sul
computer, esso può essere riletto senza la necessità di ulteriori permessi.
Se un sito ottiene il permesso dal navigatore per memorizzare un cookie, è in grado di
riconoscerlo ad ogni visita e di tenere traccia della sua attività all’interno del sito stesso, ossia
è in grado di compilare un profilo dell’utente e delle sue abitudini in termini di frequenza di
visita, tipo di informazioni più gradite, servizi maggiormente utilizzati.
Questo tipo di cookie è detto interno e la raccolta di queste informazioni non è, di per sé,
condannabile: tutto dipende dall’utilizzo che di tali informazioni viene fatto dai gestori del sito;
un utilizzo utile potrebbe essere quello di un sito che, attraverso tali informazioni, tenta di
offrire un servizio personalizzato ai suoi frequentatori. Un sito di informazioni turistiche, per
esempio, potrebbe mettere in evidenza gli eventi relativi ad una particolare città per tutti e soli
quei navigatori che in passato hanno mostrato interesse per la località. Un utilizzo più dubbio
potrebbe essere, tanto per rimanere nell’esempio precedente, la vendita di tali dati
adun’agenzia turistica intenzionata ad inviare all’utente spam pubblicitarie relative alla città
preferita.
Quando un sito memorizza un cookie, esso è l’unico a cui è consentito leggerlo. Tale
limitazione permette al sito di costruire il profilo dell’attività dell’utente sul sito stesso, ma
esclude le informazioni relative alla navigazione al suo esterno. In questo modo nessuno
dovrebbe essere in grado di conoscere le abitudini, le preferenze di una persona ed altri dati
sensibili, facilmente deducibili se si potesse controllare la navigazione di un utente nel suo
complesso.
Nella realtà dei fatti, però, questa limitazione è quotidianamente aggirata attraverso l’utilizzo
dei cosiddetti cookie esterni. Visitando un sito, spesso, nelle sue pagine compaiono banner
pubblicitari o immagini che non sono memorizzate sul server del sito che stiamo navigando,
ma su un altro server, tipicamente quello di una società di gestione delle campagne
pubblicitarie.
La presenza di tali oggetti su una pagina Web autorizza anche il sito della società esterna a
scrivere un cookie (per questo detto esterno) sul computer del navigatore. Nel caso in cui
quest’ultimo raggiunga altri siti che ospitano i banner o le immagini della società esterna,
questa potrà collezionare le informazioni accumulate durante la navigazione in essi. Maggiore è
il numero di siti in cui la società esterna inserisce i suoi oggetti, più completo e preciso è il
profilo dell’utente che può costruire poiché, integrando le informazioni sullo stesso utente
provenienti da siti diversi, è in grado di ricavare molte più informazioni di quanto potrebbe fare
da un normale cookie su un solo sito. L’uso dei cookie esterni potrebbe anche essere innocuo,
nel caso in cui, ad esempio, consenta ad un venditore di offrire ad un prezzo più vantaggioso
un prodotto simile a quello che il navigatore ha richiesto in un altro sito. In ogni caso, è
importante che l’utente sappia sempre che si tratta di un’ingerenza nella propria privacy.
VIRUS E SICUREZZA INFORMATICA
INTRODUZIONE AI VIRUS
Fino ad alcuni anni fa, nessuno si era mai preoccupato che il proprio computer potesse essere
infettato da un virus. Certo, esistevano, ma nella maggior parte dei casi se ne parlava senza
troppa convinzione; gli unici che facevano attenzione a questi programmi nefasti erano coloro
che scambiavano software pirata o che utilizzavano i dischetti per spostare file dal computer
dell’ufficio a quello di casa.
Oggi la situazione è purtroppo ben diversa: grazie alle e-mail, ad Internet e soprattutto grazie
alla facilità con la quale si può creare un virus, questi pericolosi parassiti sono entrati a far
parte della nostra vita di tutti i giorni.
I MALICIOUS CODE
Solitamente si tende ad utilizzare il termine virus per indicare una generica intrusione nel
computer da parte di un programma; ciò non è, però, esatto, dal momento che il termine
“virus” indica solo una delle categorie di programmi che rientrano sotto il nome di “malicious
code” (codice maligno): si definiscono malicious code tutti quei programmi che sono stati creati
per invadere un altro computer per scopi fraudolenti. Questa denominazione raggruppa quindi
non solo i virus, ma anche programmi come i trojan e i worm.
I soggetti che dedicano il proprio tempo a creare questi programmi, possono essere distinti in
craker e script kiddies: i primi sono persone tecnicamente competenti che cercano soprattutto
il brivido della sfida, i secondi, invece, sono figure con competenze scarse, ma sufficienti per
consentir loro di modificare il codice di un virus già esistente o per scaricare uno di questi
programmi per la creazione di virus accessibili su Internet (così è stato, ad esempio, per il
famigerato Anna Kournikova).
I diversi tipi di codice si sono classificati in base a come si comportano e si diffondono. All’inizio
era abbastanza semplice distinguere un virus da un worm o da un Trojan, mentre ora,
l’evoluzione dei sistemi operativi e la diffusione di Internet e della posta elettronica ha favorito
la nascita di programmi molto pericolosi che non possono essere classificati così facilmente.
I VIRUS
Un virus è un programma che, ad insaputa dell’utente, si introduce nel computer e si replica,
infettando dei file. Molti virus (non tutti, per fortuna) includono anche un cosiddetto “payload”,
ovvero una serie di azioni di disturbo, nocive o fastidiose, che il codice del virus esegue sui
sistemi che infetta.
La diffusione dei virus è legata alla copia dei file infetti.
-
Virus da boot sector.
E’ il tipo più vecchio di virus: non infetta i singoli file, ma il settore di avvio dei dischi fissi e dei
dischetti. Il settore di avvio di un disco contiene alcune procedure di sistema eseguite
automaticamente ogni volta che si utilizza quel disco per avviare un computer; se il settore di
avvio di un disco è infettato, il codice del virus sarà mandato in esecuzione ogni volta che si
utilizza quel disco per avviare un sistema, si caricherà automaticamente nella memoria di quel
sistema e si replicherà infettando tutti i dischi che saranno utilizzati su quel sistema. Se un
floppy infetto è utilizzato per avviare un altro computer, anche quel computer sarà
contaminato.
Il primo virus che si è diffuso sui sistemi MS-DOS, nel 1986, è stato proprio un virus di boot
sector, chiamato “Brain”; i suoi successori più noti furono “Stoned” (1987) e Michelangelo
(1991). Stoned non eseguiva alcuna azione pericolosa e si limitava a visualizzare un fastidioso
messaggio, mentre Michielangelo era distruttivo in quanto conteneva una procedura che ogni 6
marzo cercava di sovrascrivere il contenuto di tutto il disco C con dei caratteri casuali.
-
Virus da file.
Sono anche chiamati “virus parassiti” o “da contagio”: essi, infatti, infettano e sostituiscono i
file eseguibili, replicandosi ogni volta che il file infetto è mandato in esecuzione, cercando altri
file da infettare e, molto spesso, eseguendo anche alcune azioni distruttive.
Lo scenario più frequente di diffusione di questi virus è il seguente: un cracker crea il virus ed
infetta un programma freeware o shareware che pubblica su Internet; tutti gli utenti che
scaricano il programma sul proprio computer e lo mandano in esecuzione, consentono
inconsapevolmente al virus di infettare alcuni dei file eseguibili e di caricarsi in memoria in
modo da infettare gli altri programmi che saranno mandati in esecuzione. Ogni qual volta, poi,
l’utente copia alcuni dei programmi residenti sul suo Pc (e quindi infetti) ad altri utenti,
incrementa la diffusione del virus. La catena descritta va avanti almeno fino a che il virus non
rilascia il proprio payload sui computer che ha infettato: solo in questo momento l’utente inizia
a riscontrare tutta una serie di problemi sulla macchina.
Un esempio molto noto in ambito informatico, e non solo, è Chernobil, del 1998. Oltre a
diffondersi infettando gli altri file eseguibili di sistema, questo virus contiene un payload
programmato per attivarsi il 26 di ogni mese, che prima sovrascrive il primo megabyte del
disco fisso e poi tenta di sovrascrivere anche il BIOS del sistema: anche per i meno esperti,
non è difficile comprendere come, dopo un simile trattamento, un computer sia praticamente
inutilizzabile.
-
Virus macro.
Una macro è un determinato insieme di istruzioni che permette di automatizzare l’esecuzione
di una funzione di routine all’interno di un’applicazione; le macro sono componenti comuni dei
modelli e dei documenti prodotti e utilizzati da alcune applicazioni di Microsoft Office, come
Word ed Excel, e questo le rende un obiettivo molto allettante per gli sviluppatori di virus.
Un virus macro è appunto una macro che contiene un insieme di istruzioni dannose, creata
utilizzando i linguaggi di programmazione per le macro, come Visual Basic di Microsoft, e
inserita all’interno di un documento o di un modello, aprendo il quale si manda in esecuzione i
codice del virus macro, che per prima cosa infetta il modello di base utilizzato da tutti i
documenti di quell’applicazione e quindi esegue il suo payload.
La portata del payload di un virus macro non è limitata ai soli documenti dell’applicazione
colpita, ma è la stessa delle azioni consentite alle funzioni di quell’applicazione; grazie alla
forte integrazione che oggi esiste tra sistemi operativi e applicazioni, poi, questi virus possono
fare di tutto e possono arrivare a danneggiare anche il file di sistema.
I virus macro si differenziano dai virus da file perché non colpiscono i file eseguibili, ma i file di
dati.
Il primo virus macro per Microsoft Word, chiamato “W.M.Concept”, è stato scoperto alla fine
del 1994. Entro la fine del 1995, i virus macro per Word ed Excel si erano diffusi in tutto il
mondo. All’inizio del 1999, su uno dei newsgroup di Usenet un utente pubblicò un messaggio
che conteneva in allegato un documento Word 97. Senza saperlo, tutti gli utenti che
scaricarono e aprirono l’allegato furono infettati da un nuovo tipo di virus ibrido, diventato
tristemente noto come Melissa, che iniziò rapidamente a diffondersi in tutto il mondo
utilizzando come vettore i sistemi di posta elettronica. Nel giro di tre giorni, furono infettati più
di 100.000 computer e da allora sono apparsi centinaia di virus che nascevano come una
semplice variazione di Melissa. Melissa è un ottimo esempio di virus macro, ma implementa un
meccanismo di diffusione tipico dei worm in quanto riesce ad aprire Microsoft Outlook e ad
inviarsi automaticamente a tutti gli indirizzi contenuti nella rubrica.
I WORM
Un worm è un programma dotato di un proprio payload, che si replica e si diffonde senza
infettare altri file, propagandosi attraverso le connessioni di rete, le e-mail e altri meccanismi
di Internet. Molti worm si possono diffondere anche senza l’intervento dell’uomo.
-
Script worm
Sono creati utilizzando un linguaggio di scripting, come per esempio VBScript. Il propagarsi di
questo tipo di worm ha inizio, normalmente, da un allegato ricevuto per posta elettronica:
aprendolo, l’utente attiva lo script ed infetta il computer. Lo script sovrascrive tutti i file con
una certa estensione (ad esempio, .jpg, .vbs, .mp3) e si duplica su un file che gli permetta di
essere eseguito automaticamente a ogni riavvio del sistema.
Oltre ad eseguire l’eventuale payload, il worm avvia Microsoft Outlook e si trasmette
automaticamente come allegato e-mail a tutti gli indirizzi contenuti nella rubrica.
-
Worm Internet
Si diffondono attraverso i messaggi di posta elettronica, proprio come gli script worm, ma in
più riescono ad autoattivarsi e a diffondersi sfruttando le falle di sicurezza dei sistemi operativi,
delle reti e di Internet. In questo modo, si possono diffondere senza che nessuno li debba
attivare.
TROJAN
In perfetta analogia con il loro precedente mitologico, i cavalli di Troia sono programmi
dall’apparenza
innocente,
che
nascondono
intenzionalmente
la
loro
natura
maligna
camuffandosi da giochi o da utilità. Diversamente dai virus , però, i Trojan non si copiano
all’interno di altri file o del settore di avvio e non possiedono un meccanismo di replica e di
diffusione.
-
Backdoor Trojan
Sono programmi che modificano la connessione ad Internet o alla rete del computer sul quale
sono installati e consentono ad un cracker di accedere al sistema per caricare altri programmi
ancor più pericolosi.
-
RAT (Remote administration Trojan)
Sono una particolare categoria di backdoor Trojan, dai quali si differenziano per la loro capacità
di fornire ai cracker il completo controllo di un computer, permettendo loro di effettuare quasi
tutte le operazioni possibili. Un buon esempio di questi programmi è Subseven che utilizza la
posta elettronica o i canali IRC per comunicare al cracker le coordinate del computer
permettendogli di accedere a più di cento funzioni amministrative.
Nella maggior parte dei casi, i cracker usano le macchine infettate dai loro Trojan come
trampolino di lancio per infettare o attaccare altre macchine, catturare password e altri dati e
avviare attacchi DoS (Denial of Service), che tentano di soprafare un particolare server
attraverso il ripetuto invio di una gran quantità di richieste errate da parte di più sistemi.
HOAX: BUFALE METROPOLITANE
Con “hoax” si fa riferimento a messaggi di posta elettronica che annunciano la scoperta di virus
letali che riescono ad azzerare il contenuto dei dischi fissi o che possono fare cose ancora
peggiori. In realtà, questi virus non esistono e i messaggi sono solo delle catene di S. Antonio
digitali che puntano a intasare i sistemi di posta elettronica e a scatenare il panico tra gli
utenti. Per evitare l’imbarazzo di scoprire in un secondo momento di aver partecipato alla
diffusione di un hoax, rigirando l’allarmistico messaggio appena arrivato sulla presenza di un
nuovo virus dalle capacità a dir poco apocalittiche, è buona norma controllare i siti specializzati
nella pubblicazione di informazioni sugli hoax, che circolano sulla rete
PREVENIRE È MEGLIO CHE CURARE
Così recitava una nota pubblicità televisiva di alcuni anni fa, ed il celebre motto è applicabile in
tutto e per tutto anche allo scenario che stiamo cercando di illustrare. Di seguito vengono
descritti alcuni modi semplici e veloci (ma non per questo meno efficaci) di proteggere il
computer e i dati dai virus, senza obbligare l’utente a eccessivi sacrifici o a modificare in modo
troppo radicale le abitudini nell’uso del Pc. Certo, la garanzia di una completa immunità non si
avrà mai (si suol dire che “l’unico computer sicuro è quello spento e con la spina staccata”),
ma seguendo questi accorgimenti è possibile ridurre il rischio di essere infettati dai virus più
comuni e pericolosi in circolazione.
Non solo in campo informatico, conoscere il proprio nemico è il primo passo di ogni buona
strategia di protezione. Come detto, i virus sono piccoli programmi che cercano di essere
eseguiti dal computer all’insaputa dell’utente e che hanno lo scopo di sfruttare o danneggiare
in qualche modo il sistema. Queste sono le caratteristiche che differenziano i virus dalle
normali applicazioni che vengono utilizzate quotidianamente. I creatori di virus cercano di
trovare modi sempre nuovi per raggirare persone e macchine, obbligandole a eseguire in modo
del tutto inconsapevole i loro programmi; questi sotterfugi sono necessari perché la maggior
parte dei virus ha bisogno di un utente, ignaro della loro presenza, che avvii la loro esecuzione.
E’ per questa ragione che alcuni virus utilizzano nome ed estensioni che invogliano l’utente ad
aprirli (è il caso del già citato AnnaKournikova.jpg.vbs).
E’ possibile bloccare la maggior parte dei virus semplicemente non aprendo i file infetti: a tal
fine, è necessario prestare molta attenzione, in particolare non aprire o mandare in esecuzione
file e applicazioni sconosciute o che abbiano anche solo un’apparenza sospetta. Il primo
metodo per evitare di esporsi inutilmente è quello di non aprire gli allegati dei messaggi di
poste elettronica che non siano stati espressamente richiesti o dei quali non si è assolutamente
sicuri. Per propagarsi, infatti, i virus approfittano spesso degli errori umani e della scarsa
attenzione degli utenti.
-
Protezione dei dischetti
Abbiamo già parlato dei virus da boot sector ed abbiamo evidenziato la loro pericolosità, legata
soprattutto al fatto che spesso l’unico modo per eliminarli consiste in una formattazione
completa del disco, con tutti i disagi che essa porta con se. Come detto, questi virus si
propagano attraverso i floppy: perché un sistema s’infetti basta che un utente provi
accidentalmente a riavviarlo utilizzando un dischetto già contaminato.
Per proteggersi da questi virus, è sufficiente non riavviare il pc con un dischetto estraneo
all’interno del drive A; il modo più sicuro per ottenere questo risultato consiste nel modificare
la sequenza di avvio del sistema, facendolo partire sempre e direttamente dal disco fisso,
senza considerare gli eventuali dischetti presenti nel suo drive.
Inoltre, se si utilizzano i dischetti per spostare file da un computer all’altro, è buona norma
proteggere questi dischetti dalla scrittura, in modo da non permettere il salvataggio di file su di
esso in qualsiasi momento.
-
Proteggere la posta elettronica
Oggi la posta elettronica è uno dei veicoli di diffusione preferiti dagli sviluppatori di virus. Le
semplici e comode funzioni degli attuali client di posta elettronica (la rubrica, la possibilità di
accedere in modo immediato agli allegati, l’anteprima dei messaggi) sono la strada più
probabile dalla quale arriverà il prossimo virus. Non solo: queste funzioni fanno dell’utente un
complice involontario che contribuisce alla loro diffusione.
Molti virus, infatti, aprono automaticamente la rubrica e si inviano da soli a tutti gli indirizzi che
trovano, utilizzando un innocuo messaggio e aggiungendo un file infetto come allegato. Chi
riceve il messaggio conosce e si fida del mittente, apre l’allegato e inizia a sua volta a
diffondere il virus.
La prima protezione della posta elettronica è il semplice buon senso: è necessario, come detto
in precedenza, prestare molta attenzione ai messaggi troppo generici che trasportano un
allegato, anche se vi arrivano da amici e conoscenti. Inoltre, gli allegati con una doppia
estensione dovrebbero far squillare immediatamente tutti i campanelli d’allarme dell’utente; ad
esempio, il file Sample.jpg.vbs potrebbe sembrare un’innocua immagine mentre, in realtà, è
uno script potenzialmente pericoloso. Come regola generale si ricordi che non esiste alcuna
buona ragione per dare due estensioni al nome di un file. La miglior contromossa che si può
attuare nel momento in cui si riceve un file del genere è anche la più semplice: cancellare il file
scaricato, assicurandosi che di esso non ne rimanga traccia neppure nel cestino.
Oltre ad una corretta configurazione del client di posta elettronica, l’utente ha la possibilità di
aumentare ulteriormente la sicurezza del proprio sistema evitando di aprire gli allegati
all’interno del client stesso (è preferibile, infatti, salvare l’allegato sul disco fisso e aprirlo dopo
aver chiuso il client, così da evitare, in caso di esecuzione di uno script dannoso, che il virus
venga diffuso a tutti i contatti della rubrica), disattivando la funzione di anteprima dei
messaggi arrivati (la sola anteprima, infatti, potrebbe aprire alcuni tipi di allegati) e rifiutando i
messaggi in formato .rtf e .html.
-
Sicurezza in rete
Molti virus si propagano attraverso le connessioni di rete, sfruttando non solo Internet, ma
anche le semplici Lan presenti in molti uffici e in alcune abitazioni private. Una possibilità che si
presenta a tutti gli utenti della rete per contribuire alla protezione delle altre macchine
collegate è quella di evitare di assegnare il nome di un’unità logica locale (D:, E:, F: …) alle
risorse condivise dalle altre macchine della rete: alcuni virus, infatti, cancellano o alterano i file
presenti su tutte le unità logiche del computer infetto e, quindi, anche sulle condivisioni di rete
esportate da sistemi remoti non infetti, che sono visti dal vostro Pc come unità logiche locali.
Ovviamente, anche un regolare backup dei file e dei documenti più importanti è un’operazione
di primaria importanza: certo non aumenterà la sicurezza del sistema in cui opera l’utente, ma
sicuramente diminuisce i danni arrecabili dai virus.
IL DATA SNOOPING (…ovvero le spie informatiche)
Probabilmente in pochi si saranno mai soffermati a pensare quante informazioni la gente che ci
sta intorno conosce su di noi: alcune di queste informazioni vengono condivise in modo
consapevole abbastanza liberamente, mentre altre, di carattere più personale, vengono carpite
senza che il diretto interessato ne sia a conoscenza e, poi, vengono utilizzate da persone e
istituzioni di cui non ci si può fidare.
A questo proposito si parla di “data snooping”, intendendo con esso il tentativo di accedere ai
dati di qualcun altro; questa attività può assumere forme molto diverse, alcune delle quali
sono perfettamente legali. Il solo modo per proteggere se stessi e le proprie informazioni
personali dal data snooping è di sapere chi altri le sta cercando e come potrebbe venirne in
possesso.
Il fatto è che, normalmente, ogni utente conserva sul proprio computer tutta una serie di
informazioni personali che non desidera vengano viste da altri. Tuttavia, vi sono sempre alcuni
individui che, per le più svariate ragioni, possono essere interessati ad accedere a queste
informazioni e, purtroppo, hanno a disposizione diverse possibilità per ottenere quello che
desiderano.
Mentre le questioni sulla sicurezza informatica, in particolare legate alla protezione delle
informazioni rilevanti, si aprono verso temi di crescente complessità, un elemento continua ad
avere un’importanza primaria: la password. Si utilizzano, infatti, ancora codici segreti per
accedere al proprio computer, ai programmi o ai documenti; come altri aspetti che riguardano
la sicurezza dei computer, le password diventano sicure secondo lo sforzo fatto per crearle.
Nell’utente medio è piuttosto diffusa l’opinione che i cracker non prendono come obiettivi i
nostri computer: sebbene tale percezione stia lentamente cambiando man mano che i
produttori di software per la sicurezza pongano l’accento sui pericoli esistenti, resta il fatto che,
nell’uso quotidiano del pc, in molti non si curano dei problemi di sicurezza, e nulla è più
pericoloso di creare password troppo facili.
Sembra incredibile ma, nonostante tutti gli avvertimenti, ancora gli utenti continuano a creare
password banali come “password”, “aaa”, “abc”…
Quando un sistema per il codice di accesso è operativo, per accedere alle risorse bisogna
digitare un ID e una password validi: per ragioni di sicurezza, la password non viene mostrata
sullo schermo dell’utente; al suo posto appaiono punti o asterischi.
A questo punto, normalmente, va in esecuzione un algoritmo segreto che genera un “hash”,
ovvero una stringa di caratteri generata da un testo, calcolata casualmente e impossibile da
riprodurre; nonostante le piccole dimensioni, le possibilità che una serie di caratteri, anche
molto simili, possano generare lo stesso hash, sono infinitamente remote.
Sfortunatamente, per ogni minuto speso per rendere sicuri i codici di accesso, molti di più ne
sono impiegati per escogitare i modi per aggirarli.
Come per qualsiasi dispositivo di sicurezza, è probabile che le password subiscano diversi
attacchi e che, qualche volta, possano anche perdere.
Nel corso degli anni sono stati sviluppati diversi metodi per individuare i codici di accesso. Uno
dei più vecchi è la manipolazione: un cracker, in questa ipotesi, potrebbe deviare i navigatori
di un sito di e-commerce verso una falsa home page che, nell’aspetto e nel funzionamento,
sembri identica a quella originale. L’obiettivo in questo caso è quello di ottenere i codici di
accesso dell’utente e, ultimamente, anche i suoi dati finanziari, come il numero di carta di
credito. Gli utenti che si collegano al sito con il loro username e password ricevono un
messaggio di errore e nella maggior parte dei casi credono che non sia niente di grave.
Ovviamente non tutti i furti di password avvengono via computer. I cracker sono in grado di
assumere l’identità di un’autorità (ad esempio l’amministratore della propria rete o l’ISP) e di
chiamare direttamente gli utenti per ottenere i codici d’accesso. Questo è il metodo
soprannominato “social engineering”.
Un altro metodo, tanto banale quanto diffuso ed efficace, è il cosiddetto shoulder surfing: una
persona guarda “da sopra la spalla” l’utente mentre digita la password; con un po’ di pratica,
non è difficile decifrare questi codici d’accesso dalla tastiera, anche se si battono velocemente.
Uno dei metodi più comuni per scoprire le password è quello di provare a indovinarle: da cosa
si dovrebbe partire se si volesse indovinare la password del sistema operativo di qualcuno?
Probabilmente dalla parola “password”: ebbene, sembra incredibile, ma questa è realmente la
password più diffusa, specialmente nelle reti aziendali. Se questa parola non funziona, allora i
principali indiziati diventano parenti e animali domestici; al terzo posto, la data di nascita, la
targa o la marca della propria auto.
Qualunque lettore si sentisse chiamato in causa della poche righe di cui sopra è esortato da chi
scrive a modificare la propria password, dando libero spazio alla propria fantasia.
Qualora un cracker non riesca a indovinare una password che abbia oche parole ovvie, come
nomi o date, normalmente ricorre all’utilizzo di software creati appositamente per scoprire la
password.
Come spiegato in precedenza, l’hash a senso unico contenuto in un file di password non può
essere decodificato, ma i cracker possono utilizzare programmi, noti appunto come “password
cracker”, per decifrare gli eventuali codici d’accesso e confrontarli con gli hash a senso unico
fino a quando non viene trovata una coincidenza con il codice d’accesso originale.
Uno di questi programmi è basato sul dizionario: questo software utilizza una lista di parole da
un dizionario e le codifica una alla volta, finché un hash non coincide con la password che il
cracker sta cercando; una volta trovata la coincidenza, il software mostra la parola e il cracker
può avere l’accesso.
I cracker più accorti applicano anche “filtri di mutazione” per esaminare parole modificate,
come ad esempio “r0551” invece di “rossi”. Alcune compagnie chiedono poi che i codici di
accesso siano cambiati ogni mese: gli utenti, nella maggior parte dei casi, aggiungono
semplicemente un numero alla loro password per ricordarla facilmente. Utilizzando un filtro
incrementale, un password cracker basato su dizionario può aggiungere dei numeri a tutte le
sue parole.
Il processo di cracking necessita comunque di tempo: per trovare una password di otto
caratteri minuscoli, il programma ha bisogno di vagliare 208 miliardi di possibilità; eseguendo
100.000 ipotesi al secondo, si potrebbe scoprire la password in circa tre settimane. Se, però,
gli otto caratteri includono anche numeri e simboli, il tempo aumenta clamorosamente:
potrebbero essere necessari due anni per vagliare tutte le possibilità.
E’ evidente, però, che non tutte le attività di password – cracking sono illegali: per esempio,
qualora un utente abbia perso la propria password di Outlook, non sarà un reato utilizzare un
password cracker per ritrovarla; ancora, di frequente acceda nelle piccole aziende che un
impiegato se ne sia andato senza “sbloccare” i file della compagnia: anche in questo caso, è
possibile raccare i codici di accesso per riottenere le informazioni necessarie.
Infine, a volte, le compagnie utilizzano password cracker per testare la resistenza dei propri
sistemi di rete.
Una volta compreso come funzionano le password e come possono diventare facile preda dei
cracker, un modo per rendere sicuro il proprio lavoro è quello di modificare di frequente le
abitudini che riguardano il proprio codice d’accesso.
Il primo aspetto da considerare è la lunghezza: una password breve (tre o quattro caratteri) è
sempre più facile da craccare di una più lunga; il consiglio è di mantenere una password con
almeno otto caratteri, inserendo anche numeri e simboli, preferibilmente non all’inizio né alla
fine. Ancora, un’ottima abitudine è quella di mescolare lettere maiuscole e minuscole.
E’ meglio, poi, avere una password diversa per ogni computer, per ogni account on line e per i
programmi. Anche se si possiede una password sicura, non durerà a lungo se questa viene
utilizzata ovunque.
HACKER E CRACKER
Fino ad ora si è sempre parlato di queste fantomatiche figure che rispondono al nome di
“cracker”. I lettori più attenti, comprendendo il ruolo che questi soggetti svolgono nel campo
della sicurezza informatica, si saranno chiesti sicuramente dove sono finiti i ben più famosi
“hacker” di cui tante, troppe volte si sente parlare sui giornali o in televisione (spesso,
purtroppo, a sproposito…).
Molti stenteranno a credere che anche personaggi come Bill Gates e Steve Jobs (fondatori, per
chi non lo sapesse, rispettivamente di Microsoft e Apple) in principio erano hacker. A differenza
di quanto si possa pensare comunemente, infatti, hacker non è sinonimo di pirata informatico:
chi usa le sue conoscenze tecnologiche per carpire informazioni e danneggiare strutture,
pubbliche e private, è infatti definito, con un termine inventato dagli stessi hacker nel 1985, un
“cracker”, in quanto cracca, incrina, colpisce, decifra un sistema. Il cracker, come visto a più
riprese, si applica a progettare “programmi-danno”, sparge virus più o meno distruttivi che si
diffondono in tutto il mondo (si vedano I Love You, Nimda o Sircam). A seconda del limite cui
si spinge, può diventare o meno un criminale e, con le sue azioni, finisce con il gettare
discredito sulla comunità hacker.
L’hacker, invece, almeno nelle intenzioni, è colui che usa le sue cognizioni informatiche con
finalità di ricerca e conoscenza, senza danneggiare i sistemi: benché venga definito sul
dizionario come uno “scassinatore di codici computerizzati”, in realtà se penetra un sistema lo
dovrebbe fare solo per comprendere come funziona e verificarne le vulnerabilità. L’hacker, in
questo contesto, vorrebbe essere considerato come una figura positiva in quanto convinto che
la conoscenza sia di tutti. Per questo, spesso, gli hacker (e, a dire il vero, anche i cracker,
dopo il loro arresto) vengono ingaggiati dalle aziende più importanti come esperti di sicurezza
informatica.
IL DISASTER RECOVERY
I concetti di backup e restore sono noti a tutti gli amministratori dei sistemi informativi, così
come le numerose utility disponibili sul mercato per la messa in atto delle procedure relative
alle copie di riserva degli archivi aziendali e al ripristino delle stesse.
I metodi e i tempi di attuazione dei backup stabiliti dal management variano in considerazione
delle specifiche esigenze aziendali e della quantità, nonché della tipologia dei dati da
salvaguardare. Anche i supporti utilizzati per la memorizzazione delle copie di riserva
dipendono dalle scelte, completamente soggettive, dei responsabili dei sistemi informativi.
In reltà l’IT Manager per poter pianificare un corretto piano di backup, deve valutare diversi
fattori che, una volta individuati, suggeriranno una soluzione attuabile solamente in quel
determinato contesto. Le procedure di backup saranno attuate con periodicità giornaliera,
settimanale, oppure mensile in base all’importanza e alla movimentazione dei dati, oppure, più
semplicemente, si potrebbe provvedere alla realizzazione delle copie di riserva in tempi scelti
in maniera puramente casuale a discrezione dell’amministratore di sistema. La cosa certa è che
ogni azienda, qualsiasi siano la sua natura e dimensione, deve possedere, in un luogo sicuro,
le copie degli archivi in modo da poterle ripristinare in caso di necessità.
Ma quante e quali sono le probabili cause da combattere, o da prevenire, che potrebbero
causare la perdita dei dati e di conseguenza notevoli danni economici alle aziende?
Sulla quantità, purtroppo, la casistica è abbastanza ampia, mentre per quel che riguarda la
tipologia possiamo considerare tre macro aree: i problemi hardware, gli errori degli utenti e i
disastri naturali.
Da un’attenta lettura di queste tipologie si comprende il motivo per cui il numero degli eventi
dannosi alla salvaguardia dei dati sia imprecisabile: non è possibile, infatti, quantificare i
problemi di natura meccanica o elettrica che potrebbero danneggiare gli hard disk oppure le
cause dei probabili allagamenti o degli incendi che, per pura casualità, potrebbero accadere in
prossimità dei sistemi informativi. D’altronde, non è possibile nemmeno quantificare gli errori
come le cancellazioni o le formattazioni accidentali causate dagli utenti. Ecco che, a fronte di
uno scenario così pessimistico, le aziende devono cominciare a parlare di disaster recovery.
La prima impressione che suscita l’espressione disaster recovery è quella della catastrofe,
mentre in realtà essa non è associabile solamente ai danni causati alle apparecchiature
informatiche dai terremoti, dalle alluvioni o dagli attacchi terroristici ma anche ai danni causati
da situazioni più umane. Il motivo per cui tale espressione evoca scenari apocalittici è dato dal
fatto che la maggior parte delle aziende nostrane, non essendo esse dotate di veri e propri
piani di disaster recovery, non hanno una piena consapevolezza né dell’argomento né della sua
importanza. In effetti, non sono necessari soltanto degli eventi così imprevisti e catastrofici per
mettere fuori gioco le aziende informatizzate, quando sarebbe sufficiente anche una semplice
interruzione delle linee elettriche o telefoniche oppure il guasto di un server dovuto magari a
un banale errore dell’utente. E’ ovvio che un eventuale disservizio del sistema informativo
potrebbe non causare molti problemi alle aziende che non sfruttano a fondo le risorse della
rete o che non condividono gli archivi fra i propri dipendenti ma, in quelle realtà per le quali
Internet e il lavoro di gruppo sono di vitale importanza, un eventuale blocco del sistema
informativo diventerebbe un grosso problema. Basti pensare alle imprese che necessitano di
essere costantemente on line per poter realizzare il proprio business (broker, agenzie di
viaggio di tipo last minute…) oppure alle aziende che hanno bisogno della disponibilità 24 ore
su 24 dei propri archivi (ospedali, banche…) per capire l’importanza dell’esistenza di un piano
di emergenza.
Ma anche le aziende più piccole (come, per esempio, gli studi dei commercialisti) non possono
evincersi dal programmare una qualche maniera per cercare di tamponare, almeno
temporaneamente i malfunzionamenti del sistema informativo.
Gli IT Manager devono convincersi (e coinvolgere in questo convincimento anche il
management aziendale) che la protezione dei sistemi informativi non è da considerarsi come
un costo ma come un ricavo, per cui il mettere le loro organizzazioni al riparo dal rischio della
perdita dei dati e delle applicazioni vitali per il business dell’impresa deve diventare un
investimento. Per attuare questa filosofia bisogna adottare, fra le soluzioni disponibili, quella
che offre il miglior rapporto costi / benefici. Non solo, ma l’azienda che vuol dotarsi di un
Disaster Recovery Plan deve prima, comunque, provvedere alla corretta analisi del fabbisogno
e alla progettazione delle soluzioni tecnologiche e delle procedure da eseguire, dopodiché deve
implementare e testare il sistema e, infine, deve preoccuparsi della gestione del sistema.
Come è possibile notare, l’adozione di un piano di disaster recovery richiede notevoli
investimenti, sia in termini economici, che in termini di risorse. Il tutto, purtroppo, sarà
ripagato nel momento in cui il Disaster Recovery Plan verrà messo in atto. L’alternativa, ossia
il rimanere inattivi, è sicuramente una condizione più sfavorevole e, pertanto, da evitare. In
questo modo, all’avvenuta implementazione del piano, in caso di blocco l’azienda sarà in grado
di assicurare la ripresa dei processi chiave per il proprio business prima che esso possa subire
impatti finanziari dannosi.
Il core dei piani di disaster recovery, per essere veramente efficace, deve essere inquadrato
nel discorso più ampio della continuità del business aziendale. Infatti, potrebbe essere
abbastanza inutile prevedere il ripristino delle attività informatiche dopo un blocco del sistema
informativo, visto che è il blocco stesso il problema da evitare. In pratica, bisognerebbe
mettere l’azienda in condizione di poter continuare le proprie attività anche in caso di blocco
dei computer, dotando l’azienda stessa di procedure di ripristino efficaci, immediate e affidabili.
Le strategie attuabili in questa direzione sono diverse, ma quasi tutte consistono nella
predisposizione di un sito alternativo (non solo software, ma anche hardware) in maniera tale
che gli utenti possano disporre di una struttura di riserva. Queste strutture potranno essere
composte da sistemi server parcheggiati in un luogo sicuro collocato nello stesso edificio e
mantenuti sempre aggiornati oppure potranno essere costituiti da veri e propri spazi fisici presi
in affitto presso società di servizi specializzate.
Quest’ultima soluzione è ovviamente la più avveniristica, oltre che la più costosa, ma è anche
quella che più delle altre può garantire la continuità del lavoro e che può offrire tutte le migliori
condizioni ambientali ai dipendenti dell’azienda. In maniera più semplice, invece, le aziende
potrebbero cautelarsi dai disastri replicando sui server delle aziende specializzate i propri dati e
le proprie applicazioni. In pratica, un Disaster Recovery Plan dovrà prevedere le unità fisiche
da utilizzare per la replicazione dei dati aziendali, la loro collocazione e le procedure da attuare
per garantirne l’immediato utilizzo e la loro sicurezza. Inoltre, il piano dovrà indicare i tempi e
le modalità relativi alle procedure di backup.
Quando si parla di disaster recovery, come già anticipato, normalmente si fa riferimento ad
eventi più o meno gravi di natura imprevista, come allagamenti, incendi, terremoti, che
causano le cosiddette situazioni di fermo macchina, mentre, in realtà, si è appurato che la
percentuale maggiore dei fermi di sistema (85%) è dovuta alle attività pianificate o pianificabili
(backup, aggiornamenti di sistema, installazione di nuove applicazioni). Del rimanente 15% di
cause impreviste, il 70% è legato a problemi di natura software e hardware mentre soltanto il
5% è collegabile alle calamità naturali e agli attacchi informatici. In realtà, le attività di fermo
macchina pianificate vengono sottostimate e sottovalutate perché ritenute di routine, mentre
invece esse dovrebbero assumere un peso evidente nella redazione di un Disaster Recovery
Plan. Infatti, la maggior parte delle aziende, pur di non bloccare il sistema informativo,
tendono a ritardare e a diradare le operazioni di backup, sottoponendo a grossi rischi le attività
aziendali.
La sempre maggiore dipendenza da parte delle aziende verso i sistemi informativi pone
l’accento sulle problematiche connesse con lo storage management, altrimenti noto come
backup. E’ pur vero che la più elevata disponibilità in termini di Gigabyte e il minor costo dei
supporti di massa mettono l’utente in una situazione abbastanza tranquilla, visto che ormai
l’acquisto di un hard disk secondario o di un masterizzatore non è più una cosa tanto
proibitiva. Una volta, però, scelto il tipo di supporto da utilizzare rimane il solito problema della
pianificazione, in quanto anche le procedure di backup non sono delle operazioni da eseguire
senza prima aver definito dei criteri relativi alla scelta del tipo di copia da effettuare e alla
definizione dei dati da salvaguardare. Eseguire un backup consiste, sostanzialmente, nel fare
una copia di un insieme di archivi su un altro supporto, possibilmente indipendente rispetto al
computer dal quale si effettua la copia. La procedura di backup deve, inoltre, conoscere i dati
da copiare e sapere se devono essere copiati tutti i file, soltanto quelli che hanno subito una
modifica rispetto all’ultima copia di riserva oppure se copiare solamente le variazioni degli
archivi. Esiste, quindi, una forte distinzione tra la “semplice” copia dei file e il backup.
Quest’ultimo, infatti, a prescindere dalla quantità di file interessati e dalla loro tipologia, può
essere completo, parziale, incrementale, e differenziale.
Il backup completo è da considerare buono soltanto la prima volta in quanto è da ritenere
dispersivo il fatto di copiare continuamente (su supporti di volta in volta diversi), oltre che i
programmi e il sistema operativo anche gli archivi che non hanno subito modifiche. Inoltre, il
salvataggio completo dei file richiede molto tempo obbligando l’utente a un fermo macchina
sicuramente evitabile. Il lato positivo del backup completo è, però, dato dall’immediatezza che
esso offre in caso di ripristino completo del sistema a seguito di un disastro; il salvataggio
integrale dei dischi dovrà comunque essere effettuato nella fase di start up, qualunque
metodologia si sia scelta per l’attuazione del backup, e solo successivamente a intervalli
regolari, magari con una frequenza non troppo ravvicinata. Per ridurre i tempi di blocco del
sistema dovuti alle operazioni di copia si potrebbe procedere con dei backup parziali, che, a
loro volta, possono essere incrementali oppure differenziali. Con queste metodologie
diminuisce sensibilmente anche l’impiego dei supporti di massa utilizzati per le copie di riserva,
riducendo pertanto i costi per l’acquisto degli stessi. Il backup incrementale copia soltanto i file
che hanno subito una modifica rispetto all’ultimo backup completo o incrementale, mentre il
backup differenziale copia tutti i file che sono stati modificati rispetto all’ultimo backup
completo
senza
tenere
conto
dei
salvataggi
intermedi
avvenuti
con
la
metodologia
incrementale.
Tra le due tipologie di backup, la prima richiede meno tempo per la sua esecuzione e minore
spazio mentre la seconda è un po’ più costosa in quanto richiede più tempo per completare il
salvataggio e maggiore spazio sui supporti.
In caso di ripristino dei dati, però, nel caso del backup incrementale dovranno essere
disponibili sia il backup completo sia tutti i salvataggi intermedi mentre nel caso del backup
differenziale basterà avere a disposizione soltanto il backup iniziale e l’ultimo salvataggio
differenziale.
Una volta stabilita la strategia da attuare (e la frequenza) per l’espletamento dei backup
bisogna scegliere anche il supporto da utilizzare, in quanto avere un backup su un dispositivo
incompatibile o inutilizzabile su un altro computer non è che serva poi a molto; in pratica, nel
caso in cui si decida di utilizzare un hard disk esterno bisognerebbe fare in modo che lo stesso
sia dotato di una interfaccia collegabile anche sugli altri computer.
Fly UP