Comments
Description
Transcript
Mondovisione – il villaggio globale
ANDREA MACCARINI V c LST TESINA DI MATURITA’ Mondovisione – il villaggio globale INDICE: Introduzione: il villaggio globale e la globalizzazione Storia: la nascita del villaggio globale (Pagine 2-3) Italiano: Pasolini e Sartori (Pagine: 4-7) Informatica: l’avvento di internet (Pagine: 8-12) Biologia: il protocollo di Kyoto (Pagine: 13-16) Chimica: il metano (Pagine: 17-18) Fisica: la fibra ottica (Pagine:19-22) Il concetto di villaggio globale è un termine contraddittorio. Se con villaggio si intende un luogo in cui le persone vivono circoscritte in un area piccola, il termine globale conferisce al concetto uno spazio incredibilmente più vasto, venutosi a formare in seguito alla globalizzazione. Il villaggio globale è un termine che viene utilizzato a partire dagli anni ’70 del ‘900 quando la globalizzazione entra a far parte della vita di tutti gli esseri umani. Nel villaggio globale infatti, mercati, produzioni, consumi e anche modi di vivere e di pensare divengono connessi su scala mondiale, grazie ad un continuo flusso multidirezionale di scambi che li rende interdipendenti e tende a unificarli secondo modelli comuni. Il villaggio globale ha portato dunque, una crescente omologazione nella vita sul pianeta. Questo concerne una lampante eliminazione dei piccoli particolari che differenziano varie culture. Al giorno d’oggi è normalissimo che un modo di vestito possa essere diffuso in Italia come in un qualsiasi altro paese del mondo. Un discorso analogo può essere fatto per il cibo. Le diete locali e regionali hanno subito un'involuzione, schiacciate dal peso delle proposte dell'industria alimentare e dei supermercati. Questa omologazione ha alle spalle l’omologazione imposta dai mezzi di comunicazione. La televisione impone a tutti gli abitanti di uno stesso Paese lo stesso flusso di informazioni appiattendo le differenze tra le idee di più persone. Queste informazioni viaggiano sempre a velocità più alte e con maggiore sicurezza grazie al miglioramento delle tecnologie. La rete di internet permette a tutto il mondo di connettere le proprie idee. Ognuno può esprimere su internet una propria idea su qualsiasi argomento. Chiunque altro, in qualsiasi altra posizione del globo, può informarsi grazie al file del primo soggetto. Questo scambio continuo di idee non porta direttamente ad appiattire l’opinione pubblica. Ha come conseguenza principale una confusione che spesso ci spinge, in un secondo momento, ad accontentarci delle idee seguite dai più, generalmente le idee propinate dalla televisione stessa. Queste sono le conseguenze negative del fenomeno ma è anche grazie a un continuo fluire di informazioni e al progresso tecnologico se al giorno d’oggi sono di estrema attualità le tematiche della salvaguardia ambientale. È grazie alla globalizzazione se siamo consapevoli di fenomeni come: la desertificazione, lo scioglimento delle calotte polari e più in generale del concetto di inquinamento e di ciò che ognuno di noi può fare per limitarne gli effetti. È difficile esprimere un giudizio di valore riguardo la globalizzazione: come ogni cosa ha i suoi vantaggi e i suoi svantaggi. Sicuramente la globalizzazione responsabilizza ogni soggetto e in quest’ottica diventa fondamentale principalmente scegliere autonomamente come informarsi e come agire nel contesto internazionale. 1 Dall’ Europa al mondo: le cause storiche della globalizzazione La globalizzazione insedia le sue radici storiche nella crisi petrolifera del 1973. 1970: il prezzo del petrolio è fermo da dieci anni a 1,80 dollari al barile. I Paesi industrializzati ne sfruttano la convenienza come se il petrolio fosse una risorsa illimitata. Iniziano le trattative per aumentare il prezzo del petrolio e, contemporaneamente, i Paesi produttori dell’OEPEC( prevalentemente arabi ) avanzano le richieste di acquisire quote delle compagnie straniere che estraevano il petrolio dai loro territori. 1973/Ottobre: guerra del Kippur( gli israeliani respingono l’invasione egiziana e mantengono le aree occupate nel precedente conflitto del 1967). In seguito alla guerra del Kippur i prezzi del petrolio vengono elevati bruscamente fino ad arrivare a 11,51 dollari al barile( 1975).Questi aumenti hanno un fortissimo impatto sui rapporti politici ed economici internazionali, incrinando per la prima volta il potere illimitato delle multinazionali in campo petrolifero. Inoltre, i conti dei paesi industrializzati andarono tutti in passivo. 1974: nasce il concetto di “petrodollari”( redditi petroliferi ) e anche il problema dell’inedito decollo economico per i Paesi OEPEC che investono nei mercati monetari internazionali e nei Paesi del capitalismo maturo. Vengono acquistati pacchetti azionari di grandi gruppi industriali ( 10% Fiat al Libano) . In seguito a questo scenario, cambiano i rapporti di forza tra gli Stati produttori di materie prime e quelli acquirenti con un notevole vantaggio per i primi. Nell’Occidente industrializzato si presenta la recessione economica. Per i Paesi in via di sviluppo aumentano i ricavi delle esportazioni. Si stima che in pochi mesi 50 miliardi di dollari passano dai Paesi ricchi a quelli poveri. La fiammata è effimera e in breve tempo il prezzo del petrolio scende vertiginosamente. Nonostante ciò, i Paesi dell’ OEPEC si sono resi conto dell’importanza del petrolio. La seconda e più importante conseguenza della crisi del ’73 è l’impennata improvvisa dei prezzi che porto i livelli di inflazione al 13 %-14% l’anno. L’inflazione rende allora vantaggioso indebitarsi perché con l’aumento dei tassi di interesse che regolarmente vengono superati dall’aumento del costo della vita, alla fine il denaro restituito vale molto meno di quello preso a prestito inizialmente. Inoltre, il denaro proveniente dalle banche aumenta di prezzo. Questa scelta di diminuire quindi la circolazione del denaro è interpretata come una politica deflattiva. Più che la produzione, si genera una speculazione borsistica con conseguenti stagnazione e stagflazione per cui le ricchezze create non coincidono con un aumento dell’occupazione. Il denaro che le banche prestano alle aziende o alle famiglie resta in azioni in attesa di aumenti di valore e questo genera la caduta in termini di occupazione. l circolo incontrollabile di moneta in tutto il mondo generatosi in seguito alle rivoluzioni scientifiche, ha indotto gli Stati Uniti a stampare carta moneta (dollaro) senza che ci sia più una corrispondenza in oro. 2 Saltano così gli accordi di Bretton Woods. L’economia occidentale non è più un grado di crescere secondo le modalità dello Stato assistenziale. Si assiste al crollo del Welfare State con un conseguente scollamento tra il territorio di produzione e quello della proprietà. Allo stato viene chiesto inoltre di avviare una liberalizzazione economica che comporti la riduzione delle imposte, la vendita ai privati dei settori bancari e industriali di proprietà statale e più in generale lo smantellamento dello stato assistenziale. Si entra nella fase neoliberista della politica economica mondiale che viene sanzionata dalle scelte operate dal Fondo monetario internazionale che inizia a concedere prestiti ai Paesi in via di sviluppo, a patto che questi riducano la presenza dello Stato nelle attività economiche. La rivoluzione telematica permette l’esperienza della simultaneità della comunicazione in tempo reale garantita dal telefono, dal fax e da internet. La ricerca e lo sviluppo di nuove tecnologie diventano il fulcro della crescita economica, un indicatore importante per stabilire le gerarchie tra Paesi. Proprio grazie alle nuove tecnologie dell’informatica e della telematica causano il declino delle lavorazioni basate su grandi concentrazioni di manodopera. La presenza umana diviene meno importante sia nel produrre che nell’erogare servizi. Dagli inizi degli anni Settanta, partendo dagli Stati Uniti d’America, prende piede il nuovo sistema di fabbrica del toyotismo, caratterizzato da una miriade di nuove aziende di dimensioni ridotte. Si forma una rete di punti produttivi diffusi su territori molto vasti. Cambiano anche i grandi stabilimenti industriali grazie all’AUTOMATIZZAZIONE che porta la modifica delle lavorazioni a catena. La nuova fabbrica si sviluppa secondo le regole del downsizing(riduzione di stabilimenti e di forza lavoro) e dell’outsourcing(spostamento all’esterno di intere fasi produttive) con conseguente diminuzione del numero degli operai. Ad esempio, la FIAT portò numerosi stabilimenti in Paesi come Brasile, Argentina e Polonia in cui la manodopera è un costo inferiore. Lo sviluppo tecnologico ha portato anche un circolo di persone da una parte all’altra del globo. I fenomeni migratori sono dovuti principalmente al fatto che i Paesi ricchi non azzerano il credito che possiedono nei confronti dei Paesi in via di Sviluppo. I Paesi in via di sviluppo producono una ricchezza sufficiente per coprire soltanto gli interessi del debito e ciò non permette loro uno sviluppo effettivo. L’azzeramento del debito dei Paesi del Sud del mondo, o comunque dei Paesi poveri, è una delle richieste che nasce dai gruppi No Global. 3 Omologazione culturale Pier Paolo Pasolini: il teorico dell’ omologazione Pier Paolo Pasolini è stato per il nostro Paese il teorico dell’omologazione. L’omologazione è un processo che prende piede di pari passo con la globalizzazione. Pasolini riesce, con grande spirito critico, ad anticipare e ad analizzare i caratteri dell’omologazione all’interno della società italiana e non solo. Si scontra così con quel mondo di perbenismo e conformismo che è responsabile del degrado culturale della società. Scritti corsari è una raccolta di articoli che Pier Paolo Pasolini pubblicò sulle colonne del quotidiano Corriere della Sera, Tempo illustrato, Il Mondo, Nuova generazione e Paese Sera, tra il 1973 ed il 1975. Il “discorso” dei capelli Pubblicato il 7 gennaio del 1973. Pasolini prende in considerazione il linguaggio dei capelli lunghi. Non è il linguaggio logico delle parole e per questo motivo Pasolini, sostenitore di un mondo organizzato su basi razionali, nutre antipatia nei confronti dei giovani capelloni. I capelli lunghi simboleggiano una protesta radicale nei confronti della società borghese e consumistica. La critica che i giovani muovono verso la società è una critica nettamente di sinistra e dichiaratamente intransigente. Per il primo motivo in particolare, i capelloni vengono spesso attaccati dalla polizia e dai provocatori fascisti. Pasolini per via del suo spirito democratico non può far altro che difendere i capelloni che si contraddistinguevano per la non violenza. Negli anni tra il ’68 e il ’70 i capelli lunghi vengono declassati a una funzione distintiva. I capelloni tornano ad esprimersi tramite l’ars retorica della comunicazione verbale che diventa fuorviante il messaggio di sinistra. Vi sono due conseguenze che inevitabilmente allontanano Pasolini dai capelloni. 1) I capelloni attribuiscono all’azione una superiorità di carattere sottoculturale. Elemento tipico della destra. 2) I capelli lunghi vengono adottati anche dai fascisti e dai provocatori mescolati ai rivoluzionari proprio per il linguaggio che porta a un’ azione mitizzata proprio dal linguaggio stesso. Si crea così una maschera che omologa tutte le facce mischiando la destra e la sinistra. Poco tempo dopo Pasolini si reca in viaggio ad Isfahan, una città della Persia. Il paese è sottosviluppato ma il progresso sta per arrivare anche li. Pasolini incontra due giovani con i capelli tagliati all’europea, lunghi dietro e corti sulla fronte e appiccicati di lato. I due ragazzi affermano che loro non sono rimasti all’età delle barbarie ma, essendo dei borghesi si sono sviluppati, hanno letto e dunque conoscono l’Europa. Affermano di essere dei privilegiati che a differenza degli altri persiani vivono in una condizione di internazionalità. Si tratta di affermazioni di destra e così il ciclo si è chiuso. La sottocultura al potere è riuscita ad assorbire la sottocultura all’opposizione facendone una moda, un fascismo. Le conclusioni di Pasolini sono amare. I giovani hanno bloccato il rapporto dialettico con i loro padri e si sono chiusi in un ghetto riservato alla gioventù. Questo ha portato un enorme regresso nella loro condizione sociale. La loro condizione è caratterizzata da terrore e conformismo, da convenzioni che parevano essere state superate per sempre. Si sono adattati alle acconciature che la televisione ha previsto 4 per loro privandosi di una libertà. Pasolini associa dunque il linguaggio dei capelli lunghi a una dialettica volgare e servile, un male che gli stessi giovani devono estirpare dalla società. Acculturazione e acculturazione Pubblicato il 9 dicembre 1973. In questo testo Pasolini analizza l’acculturazione imposta dal centralismo della civiltà dei consumi ai modelli culturali pre-esistenti delle periferie. Gli agenti che hanno reso possibile in cambiamento culturale preso in considerazione da Pasolini sono: la televisione, il potere politico e la costruzione di infrastrutture che collegano il centro alle periferie. E’ un fenomeno che ha riguardato tutto l’occidente. La prima cosa che salta all’occhio di Pasolini è il fatto che nemmeno il fascismo era riuscito ad omologare la popolazione italiana come è successo nel dopo guerra. Le strade e la motorizzazione hanno annullato le distanze tra le periferie ed il centro ma il fattore determinante la nuova acculturazione è stata la rivoluzione delle informazioni dettata dalla televisione. Con l’avvento della programmazione televisiva non c’è più , da parte dei singoli individui, la rivendicazione di uno spazio tutto proprio. La programmazione televisiva scandisce i tempi della vita di casa. L’uomo acculturato dalla televisione ha come unico scopo il consumismo e questo edonismo neo-laico senza alcun valore umanistico diventa l’unica fede della società. Gli italiani hanno accettato i modelli imposti dalla televisione perché quest’ultima propina un messaggio di salvezza dalla miseria. Ma gli italiani non sono in grado di realizzare questo modello di benessere: frustrazione e ansia nevrotica diventano così dei comportamenti collettivi. Pasolini prende come esempio i figli della classe proletaria che è passata dalla fierezza delle proprie origini alla abiura di queste stesse. Sono passati dall’esaltare il proprio modello culturale a cercare di imitare il modello borghese fino ad arrivare a sostituire il proprio mestiere con quello dello studente. Contemporaneamente hanno cominciato a disprezzare la cultura, come hanno fatto i ragazzi borghesi che sono diventati individui rozzi e infelici. “Se i sottoproletari si sono imborghesiti, i borghesi si sono sottoproletarizzati. La cultura che essi producono, essendo di carattere tecnologico e strettamente pragmatico, impedisce al vecchio "uomo" che è ancora in loro di svilupparsi. Da ciò deriva in essi una specie di rattrappimento delle facoltà intellettuali e morali.” [cit.] La responsabilità va attribuita alla televisione ma, soprattutto al potere che se ne serve per contestualizzare un modello di vita che altrimenti non troverebbe un’altra collocazione. La televisione è riuscita a omologare alla cultura precedente buttando via per sempre l’animo del popolo italiano, come neanche il fascismo era riuscito a fare. 5 Giovanni Sartori: videocrazia, la televisione come strumento “antropogenico” “Non pretendo di fermare la tecnologia ma non credo nemmeno che debba essere mitizzata in modo acritico" "In Francia e Inghilterra ci sono ancora notiziari seri. Noi abbiamo un personale più scadente" "Ora spero in una scuola capace di salvare la lettura e in giornali migliori”. *cit.+ Sartori analizza con una critica feroce il mondo dominato dalla Tv. L’analisi è basata sulla politica ridotta a puro spettacolo. La causa di questo fenomeno culturale è da ricercarsi in chi gestisce e manipola i media. Sartori parla di una generazione priva di cultura, molto deviata rispetto agli ideali del ’68. Il risultato di ciò sono un opinione pubblica standardizzata, appiattita, facilmente impressionabile dalle stesse notizie che poi vengono troppo facilmente dimenticate. Di quest’ultimo dato di fatto non si può però incolpare chi gestisce i media prima ancora di essersi resi conto di quanto lo strumento televisione sia sfuggito di mano. L’homo videns è la generazione cresciuta davanti al teleschermo, limitando le sue facoltà al vedere. Una generazione la cui capacità di pensiero critico è stata annullata dall’immagine scelta con il telecomando. Per Sartori ormai la televisione è diventata una divinità cattiva che plasma individui a propria immagine e somiglianza. Non ci troviamo di fronte a uno strumento di comunicazione ma, a uno strumento antropogenico in grado di cambiare la natura dell’uomo. Il bambino che riceve lo stampo formativo dalla televisione atrofizza la capacità di capire e lo rammollisce in modo che il bambino si limiti a vedere. L’uomo perde così la sua capacità di astrazione e dunque la capacità di plasmare un linguaggio che esprime concetti non tangibili ( nazione, stato, popolo, burocrazia).La televisione riporta tutto al puro e semplice vedere. "La Tv può mentire come qualsiasi altro strumento di comunicazione. Ma la forza dell'immagine rende la menzogna più efficace e quindi più pericolosa". Ciò non giova alla democrazia. Le opinioni vengono omologate dalla televisione. La televisioni rende più importante il volto di un politico che il suo programma, attribuisce un peso esagerato alle testimonianze di attori e soubrette, privilegia le emozioni rispetto ai ragionamenti e utilizza i sondaggi per influenzare l’opinione. Lo ammette lo stesso Sartori: "In Francia, in Inghilterra e altrove continuano a esistere notiziari seri che scelgono le notizie serie... Il livello al quale è scaduta la nostra televisione è soprattutto dovuto a un personale scadente, di bassissimo livello". Il dramma dell'Italia, secondo il politologo, è stata l'ascesa al potere della generazione del Sessantotto. "Prima abbiamo fabbricato, con il diplomificio educativo un proletariato intellettuale di nessuna consistenza intellettuale. Questo proletariato... ha penetrato a mano a mano la scuola, ha rotto tutti gli argini con la "rivoluzione culturale" del 1968 (la nostra, non quella di Mao) e ha trovato il suo terreno di cultura ideale nella rivoluzione mass - mediale... I media, e soprattutto la televisione, sono oramai gestiti dalla sottocultura, da persone senza cultura". Discorso simile per internet: "Ingorga, ci ammazza di messaggi. Insomma, una gran perdita di tempo". 6 Sartori si augura però un cambiamento a partire dai genitori delle nuove generazioni. Questi dovranno essere in grado di non sostituire la balia col televisore. Non per questo Sartori pretende di fermare la tecnologia, esprime il suo dissenso verso la mitizzazione acritica che ne è stata fatta. Anche la scuola ha il compito di salvare la lettura, evitando l’uso sfrenato dei filmati nell’insegnamento. Per proseguire la sua critica verso uno strumento in grado di plasmare un nuovo tipo di essere umano Sartori non si limita a mettere in violenza la brutalità e la violenza che la tv mostra abitualmente come uno spettacolo. La tv è in grado di portare in casa il mondo, di divertire, di informare ma il sapere che ci giunge a domicilio è il frutto della cultura televisiva destinata ai più. La cultura televisiva è regolata proprio dalla legge dello spettacolo. Dunque, i fatti su cui è chiamata a esprimersi l’opinione pubblica devono basarsi sul principio dell’anormalità: in video finiscono persone che danno spettacolo. Niente di grave, se non fosse che ormai questo principio regolatore ha finito per contaminare anche la politica. In quest’ottica ci si rende conto di come i media non siano più i semplici canali di veicolo per le notizie ma sono diventati essi stessi i produttori di notizie sempre meno razionali e sempre più legate alla sfera emotiva. Sartori evidenzia che questo fenomeno di trasformazione delle ideologie è in atto ormai su scala planetaria. La trasformazione sta portando al tramonto delle ideologie e secondo qualcuno al tramonto della storia. L’amara conclusione di Sartori è la seguente: “Mentre la realtà si complica e le complessità aumentano vertiginosamente, le menti si semplicizzano e noi stiamo allevando un video - bambino che non cresce, un adulto che si configura per tutta la vita come un ritornante bambino. E questo è il malpasso,il malissimo passo, nel quale ci stiamo attorcigliando”. 7 L’avvento di Internet : l’esperienza della simultaneità Date principali della storia di Internet 1960: Avvio delle ricerche di ARPA, progetto del Ministero della Difesa degli Stati Uniti 1971: La rete ARPANET connette tra loro 23 computer 1972: Nascita dell'InterNetworking Working Group, organismo incaricato della gestione di Internet. Ray Tomlinson propone l'utilizzo del segno @ per separare il nome utente da quello della macchina. 1982: Definizione del protocollo TCP/IP e della parola "Internet" 1983: Appaiono i primi server con i nomi per indirizzarsi ai siti 1984: La rete conta ormai mille computer collegati 1985: Sono assegnati i domini nazionali: .it per l'Italia, .de per la Germania, .fr per la Francia, ecc. 1987: Sono connessi 10 000 computer. Il 23 dicembre viene registrato “cnr.it”, il primo dominio con la denominazione geografica dell'Italia; è il sito del Consiglio Nazionale delle Ricerche. 1989: Sono connessi centomila computer 1990: Scomparsa di ARPANET; apparizione del linguaggio HTML 1991: Il CERN (Centro Europeo di Ricerca Nucleare) annuncia la nascita del World Wide Web; il Crs4 (Centro di ricerca, sviluppo e studi superiori in Sardegna) crea il primo sito web italiano, secondo in Europa.[2] [3] 1993: Apparizione del primo browser pensato per il web, Mosaic 1995: al CRS4 (Centro di ricerca, sviluppo e studi superiori in Sardegna) viene sviluppato il primo servizio di webmail 1996: Sono connessi 10 milioni di computer 1999: Viene pubblicato Napster, il primo sistema di file sharing di massa. Gli utenti di Internet sono 200 milioni in tutto il mondo. 2008: Gli utenti di Internet sono circa 600 milioni in tutto il mondo. 2009: Gli utenti di Internet sono circa 1 miliardo in tutto il mondo. 2011: Gli utenti di Internet sono circa 2 miliardi in tutto il mondo 8 La rete di internet è un insieme di risorse che risiedono su computer chiamati server, i quali forniscono queste stesse risorse ad altri computer che vengono utilizzati per navigare in internet e prendono il nome di client. Possiamo immaginarci Internet come una ragnatela grazie alla quale viaggiano le risorse che molto spesso sono di tipo software ed in particolare sono siti web. MOTORI DI RICERCA: Un motore di ricerca è un programma (un software) che è in continuo contatto con i server di tutta la rete e aggiorna continuamente gli indirizzi e i contenuti e contemporaneamente, ha un'interfaccia con la quale interagisce con l'utente, chiedendo le chiavi della ricerca, effettuando la ricerca nel database e presentando i risultati in una lista di link. WWW( World Wide Web) è l’insieme di pagine ipermediali di internet. In queste pagine esistono risorse come pagine multimediali, documenti testuali, audio e video, collegati tra di loro. Le pagine Web sono scritte con un linguaggio convenzionale di contrassegni chiamato HTML. I documenti html contengono le informazioni e collegandosi a loro volta ad altre risorse costituiscono l’ossatura degli ipertesti. La comunicazione del WWW è dettata da un client che fornisce a un server le richieste per un determinato oggetto. Di conseguenza, il server risponde alla richiesta inviando i dati in formato html. Per la comunicazione via internet è fondamentale il ruolo svolto dal browser: si tratta del programma usato dal client per effettuare richieste, attraverso il protocollo http, ad un server web. Più precisamente il browser è in grado di individuare la posizione di una pagina internet nella rete e di interpretarne le righe di codice sorgente (scritte in html ). Le ultime versioni interpretano anche gli script di Visual basic e Java. browser più conosciuti sono: Internet Explorer, Firefox, Chrome e Opera. Il browser ha anche il compito di salvare le pagine visitate dal client in una memoria temporanea dell’ hard disk detta CACHE. Questa memoria migliora le prestazioni del computer velocizzandone gli accessi ai siti frequentati più spesso dal computer. I SEGNALIBRI o preferiti salvano invece gli url dei siti di interesse in vista di future consultazioni. I nodi della rete possono essere divisi in tre principali categorie : ROUTER, ISP, HOST. 1) ROUTER: sono gli instradatori della rete che permettono ai pacchetti di dati di essere rimbalzati da una sottorete all’altra fino a raggiungere la destinazione mediante particolare algoritmi detti di routing. 2) ISP: Internet Service Provider cioè un server in grado di distribuire connessione ai clienti che ne fanno richiesta. Ciò è possibili grazie ai POP( Point Of Preference ) 3) HOST: sono i computer che ospitano le risorse software della rete e che quindi contengono le informazioni memorizzate su internet. I dispositivi delle diverse reti per comunicare tra loro utilizzano regole comuni e convenzionali chiamate STANDARD DI INTERNET: 1) Si tratta di documenti pubblici numerati e chiamati RFC( Request For Comments) 2) L’organismo che coordina la stesura degli RFC è IETF ( Internet Engineering Task Force) HTTP (Hyper Text Transfer Protocol) definito negli RFC 1945 (versione 1.0) e RFC 2068 (versione 1.1). 9 Sviluppato a livello applicativo è un protocollo per definire la struttura e lo scambio all’interno di un meccanismo richiesta-risposta tra client e server web. Il client richiede una pagina web attraverso l’URL ( Uniform Resource Locator definito da RFC 2396 per stabilire il formato utilizzato per identificare le risorse) esempio di URL: (http://www.nomeserver.it/paginarichiesta.html). Si è stabilito il contatto tra le due parti, http attiva una connessione col server di tipo TCP sulla porta 80( il messaggio passa dal livello applicativo al livello di trasporto) Il protocollo http garantisce l’assenza di errori in comunicazione. E’ un processo stateless per cui ad ogni richiesta viene riattivato il processo di risposta. I messaggi http sono strutturati da un header( intestazione) e da un body message( corpo del messaggio, opzionale), separati tra loro da una linea vuota. Qualora si desiderasse che il server sia in grado di identificare gli utenti il protocollo http prevede l’utilizzo dei COOKIE che permettono di mantenere la traccia del client. I cookie sono file di testo che il server inserisce nella risposta in una posizione strategica predefinita e che il browser aggiunge come riga di codice in un file. Nella riga troviamo: -nome del cookie (obbligatorio), - nome del dominio del server che ha inviato il cookie, -percorso (non obbligatorio), -scadenza cioè quando il cookie sarà cancellato, può anche essere mai, -sicuro, indica se il cookie va criptato con http, -modalità di accesso (non obbligatorio) e rende invisibile il cookie a linguaggi diversi da html, esempio javascript, -contenuto del cookie: è una stringa di testo di varia lunghezza, che raccoglie le informazioni generate dal server a propria futura memoria. I diversi utilizzi dei cookie sono, principalmente: -permettere il login a un sito solo a specifici utenti, -personalizzare una pagina web secondo i desideri dell'utente, -riempire il carrello della spesa virtuale nei siti commerciali, -tracciare i percorsi dell'utente durante la sua navigazione sul web FTP( File Transfer Protocol, standard RFC 949) è un protocollo di comunicazione studiato per il trasferimento di file binari o di testo tra due computer collegati in rete. Con ftp è possibile sia l’upload che il download. Un client ftp è diverso e più limitato di un browser. Per attivare la connessione l’utente inserisce l’indirizzo del server ftp nel client che provvede ad instaurare una connessione tcp col server in ascolto sulla porta 21. L’utente di identifica con nome e password che vengono inviati come parte dei comandi ftp. Con questi dati il server può autorizzare l’utente che dunque, può navigare sulla parte di file system che gli viene resa visibile. Nel momento in cui il server riceve comando di trasferimento di un file, inizia una connessione tcp verso il client sulla porta 20: attraverso questa porta ftp trasferisce un solo file in una sola direzione. Terminato il trasferimento viene chiusa la connessione. Ftp utilizza dunque due connessioni tcp parallele: una invia informazioni di controllo e l’altra è per i dati. Con ftp la connessione di controllo è aperta durante tutta la sessione mentre per ogni file da trasferire bisogna aprire una nuova connessione. Ftp non è stateless perché mantiene traccia dell’utente nella propria directory. Esempi di url per ftp:ftp://nomehost/cartellaprincipale. 10 Comunicazione trans nazionale: la posta elettronica e-mail Caratteristica principale della posta elettronica è la comunicazione asincrona che la differenzia dalle chat. I percorsi di invio e di ricezione sono indipendenti tra di loro e possono utilizzarsi server differenti. Esempio di indirizzo : [email protected]. L’indirizzo può contenere qualsiasi carattere ad accezione di lettere accentate e simboli come underscore e punto. Per la gestione della posta si utilizzano dei browser che devono essere allineati ai protocolli di invio ( SMTP) e di ricezione ( POP3 o IMPAP). L’alternativa è consultare la posta secondo il protocollo http. SMTP: protocollo che gestisce l'invio della posta( messaggi in formato ASCII 7 bit ). Tre sono le componenti principali: 1) agente utente: mail reader che permette la composizione, la lettura e l’editing di posta elettronica. Esempi di agenteutente sono: Eudora, Outlook, Mozilla, Thunderbird. 2) server di posta: contiene la mail box( casella di posta) per i messaggi in arrivo per l’utente e la coda di messaggi da trasmettere . 3) SMTP (Simple Mail Transfer Protocol descritto dallo standard RFC 5321). Il protocollo SMTP non gestisce il recupero della posta. Quando si scrive un messaggio l’applicazione di posta elettronica lo chiude in una sorta di busta contente l’indicazione di mittente, destinatario e oggetto della comunicazione. Il procollo SMTP si occupa dell’invio al server cui è abbinato l’account di posta attraverso la porta 25. Il server SMTP che ha ricevuto il messaggio si comporta come un client e instaura una connessione tcp con il server indicato nell’indirizzo del destinatario. Dopo la connessione avviene il trasferimento dal server mittente a quello del destinatario. Il trasferimento avviene in tre fasi:1) handshaking, 2)trasferimento, 3)chiusura. POP3permette una connessione tcp sulla porta 110 del server di posta da cui vengono recuperati i messaggi. E’ costituito da 3 fasi successive alla connessione: 1) autorizzazione tramite nome utente e password 2) transazione con cui l’utente recupera i messaggi ed eventualmente li marca per l’eliminazione 3) aggiornamento: in seguito alla chiusura della connessione avviene l’eliminazione dei messaggi marcati. Si tratta di un protocollo che non mantiene traccia di informazioni di stato tra due differenti sessioni. La gestione dei messaggi avviene nel client locale dell’utente, perciò cambiando client cambia la gestione dei messaggi. IMAP mantiene tutti i messaggi nel server. Imap utilizza la porta 143 e consente all’utente di organizzare i messaggi in cartelle, di conservare lo stato dell’utente stesso tra le varie sessioni. Un server imap associa a una cartella INBOX ogni messaggio in arrivo dal server. Il protocollo fornisce comandi agli utenti per creare e spostare messaggi da una cartella all’altra e anche di effettuare ricerche nelle cartelle remote. Inoltre il procollo imap permette al client di visualizzare anche solo la testata del messaggio. 11 Certificati digitali Si tratta di file con validità temporanea che hanno la stessa funzione dei documenti di identità nella vita reale. Servono a garantire l’identità di un soggetto che sia un server o una persona. I certificati vengono rilasciati dalle autorità di certificazione( C.A.) che rilascia i certificati dopo aver attestato le identità in gioco. La C.A. si fa garante delle identità di pubblica sicurezza (prefettura, comune,etc..) che emettono i veri e propri documenti di identità. Le C.A. devono mantenere un registro pubblico dei certificati emessi e dei certificati revocati. Esistono due tipi di C.A. : 1) Pubbliche che sono enti riconosciuti su internet, abilitati all’emissione univoca dei certificati che a loro volta sono pubblicamente riconosciuti per i vari servizi che svolgono (firmare posta, firmare documenti e certificare dei siti). 2) Private che sono enti che emettono certificati per servizi circoscritti in un dominio specifico (all’interno di una intranet ) CRITTOGRAFIA a chiave simmetrica ed asimmetrica La crittografia a chiave simmetrica funziona grazie a un codice che cripta il messaggio e una chiave condivisa dai possessori che decifra il messaggio. Il problema principale è nella distribuzione a più parti: quando viene distribuita è necessario che non venga catturata da nessun utente indesiderato. L’innovazione della crittografia asimmetrica consiste nell’utilizzo di due chiavi diverse, una pubblica e una privata. Ogni chiave è in grado di decodificare quello che l’altra chiave ha codificato. La chiave privata resta segreta l’altra è pubblica. Si elimina così il problema della distribuzione. Il messaggio viene cifrato con la chiave pubblica del destinatario che può leggerlo soltanto tramite la sua chiave privata. Un certificato emesso da una CA tipicamente contiene: la chiave pubblica del possessore; il nome del possessore, se il possessore è una persona fisica si tratterà di nome e cognome, data di nascita ecc... se invece è un server web sarà presente l'indirizzo web e il nome della compagnia titolare del dominio; la data di scadenza della chiave pubblica; il nome della CA che ha emesso il certificato; la firma digitale della CA che ha emesso il certificato. Solitamente vengono emessi certificati per identificare: - l'Autorità di Certificazione, questi dovrebbero essere precaricati nei browser, cosicché sia possibile riconoscere, come validi, tutti i certificati emessi da quella CA; -un sito, garantisce che il server che sta rispondendo corrisponde al dominio certificato (per esempio:alloggiatiweb.poliziadistato.it); -un soggetto, contengono informazioni quali nome, cognome, indirizzo, casella e-mail, ecc...; possono essere utilizzati per garantire la provenienza di una email, per usufruire di servizi personali, ecc... -un software, garantisce la provenienza del software, è importante specialmente se questo viene distribuito in rete. 12 Sostenibilità ambientale: il protocollo di Kyoto Il protocollo di Kyoto è un trattato internazionale in materia ambientale riguardante il riscaldamento globale sottoscritto nella città giapponese di Kyoto l'11 dicembre 1997. Il trattato è entrato in vigore il 16 febbraio 2005, dopo la ratifica anche da parte della Russia. Emissioni inquinanti Il trattato prevede l'obbligo di operare una riduzione delle emissioni di elementi di inquinamento (biossido di carbonio ed altri cinque gas serra, ovvero metano, ossido di azoto idrofluorocarburi, perfluorocarburi ed esafluoruro di zolfo) in una quantità minima dell’8% rispetto alle emissioni registrate nel 1990 durante il periodo 2008-2013. I gas climalteranti (GHG – GreenHouse Gases) oggetto degli obiettivi di riduzione sono: - la CO2 (anidride carbonica), prodotta dall’impiego dei combustibili fossili in tutte le attività energetiche e industriali oltre che nei trasporti;La quantità di carbonio sulla terra non è illimitata e, come l’acqua, il carbonio ha un suo ciclo. Si tratta di un sistema nel quale il carbonio passa attraverso l’atmosfera, la biosfera terrestre e gli oceani. Le piante assorbonoCO2 dall’atmosfera durante la fotosintesi, utilizzano il carbonio per sviluppare i loro tessuti, e lo restituiscono all’atmosfera quando muoiono e si decompongono. Anche il corpo degli animali (e degli uomini) contiene carbonio proveniente dai vegetali e dagli animali di cui si nutrono. Questo carbonio viene rilasciato sotto forma di CO2 durante la respirazione e, dopo la morte, durante la decomposizione. I carburanti fossili si formano dai resti di piante e animali fossilizzati nel corso di milioni di anni e appunto per questo sono così ricchi di carbonio. In generale, il carbone è quanto resta delle foreste seppellite mentre il petrolio deriva dalla conversione della vita sottomarina. Gli oceani assorbono CO2 che, in forma disciolta, è utilizzato nella fotosintesi delle forme di vita acquatiche.) Quotidianamente vengono scambiati naturalmente molti miliardi di tonnellate di carbonio fra l’atmosfera, gli oceani e la vegetazione terrestre. I livelli di anidride carbonica sembrano avere subito variazioni massime del 10% durante i 10.000 Altri gas serra sono: - il CH4 (metano), prodotto dalle discariche dei rifiuti, dagli allevamenti zootecnici e dalle coltivazioni di riso; - l’N2O (protossido di azoto), prodotto nel settore agricolo e nelle industrie chimiche; - gli HFC (idrofluorocarburi), impiegati nelle industrie chimiche e manifatturiere; - i PFC (perfluorocarburi), impiegati nelle industrie chimiche e manifatturiere; 13 - l’SF6 (esafluoruro di zolfo), impiegato nelle industrie chimiche e manifatturiere. Condizioni per gli Stati aderenti Affinché fosse possibile l’entrata in vigore del trattato, venne richiesto che fosse ratificato da non meno di 55 nazioni firmatarie e che le nazioni che lo avessero ratificato producessero almeno il 55% delle emissioni inquinanti; quest'ultima condizione è stata raggiunta solo nel novembre del 2004, quando anche la Russia ha perfezionato la sua adesione. L’ atmosfera terrestre contiene 3 milioni di megatonnellate (Mt) di CO2, il protocollo prevede che i Paesi industrializzati riducano del 5% le proprie emissioni di questo gas. Le attività umane immettono 6.000 Mt di CO2, di cui 3.000 dai Paesi industrializzati e 3.000 da quelli in via di sviluppo; per cui, con il protocollo di Kyoto, se ne dovrebbero immettere 5.850 anziché 6.000, su un totale di 3 milioni. Ad oggi, 174 Paesi e un'organizzazione di integrazione economica regionale (EEC) hanno ratificato il protocollo o hanno avviato le procedure per la ratifica. Questi Paesi contribuiscono per il 61,6% alle emissioni globali di gas serra. Meccanismi flessibili di mercato per l’attuazione del protocollo Il protocollo di Kyoto prevede inoltre, per i Paesi aderenti, la possibilità di servirsi di un sistema di meccanismi flessibili per l'acquisizione di crediti di emissioni: - Clean Development Mechanism (CDM): consente ai Paesi industrializzati e ad economia in transizione di realizzare progetti nei Paesi in via di sviluppo, per produrre benefici ambientali in termini di riduzione delle emissioni di gas-serra e di sviluppo economico e sociale dei Paesi ospiti. Nello stesso tempo devono essere generati crediti di emissione (CER) per i Paesi che promuovono gli interventi. - Joint Implementation (JI): consente ai Paesi industrializzati e ad economia in transizione di realizzare progetti per la riduzione delle emissioni di gas-serra in un altro paese dello stesso gruppo e di utilizzare i crediti derivanti, congiuntamente con il paese ospite. - Emissions Trading (ET): consente lo scambio di crediti di emissione tra Paesi industrializzati e ad economia in transizione; un paese che abbia conseguito una diminuzione delle proprie emissioni di gas serra superiore al proprio obiettivo può così cedere (ricorrendo all’ET) tali "crediti" a un paese che, al contrario, non sia stato in grado di rispettare i propri impegni di riduzione delle emissioni di gas-serra. La situazione italiana Il Protocollo di Kyoto prevede una riduzione emissiva per le Parti che mediamente vale il – 5% (rispetto alla baseline emissiva del 1990), da conseguire entro il 2012. Alcuni stati Europei già nel 2009 hanno superato il proprio target di riduzione emissiva: questo è segno che non si tratta di obiettivi impossibili, e che gli Stati che hanno voluto investire nell’economiacosiddetta low carbon hanno agevolmente conseguito risultati di alto livello (con positive ricadute sull’economia nazionale). Nell’ambito del Protocollo di Kyoto, l’Italia ha sottoscritto un obiettivo di riduzione emissiva del -6,5%: questo obiettivo di riduzione è stato scelto sulla base delle indicazioni di Enti di ricerca nazionali, che lo avevano quantificato come risultato necessario per l’ammodernamento del Paese e per lo stimolo dell’economia nazionale. Questo valore corrisponde ad una riduzione assoluta di 33,9 MtCO2eq, in riferimento ad un livello emissivo (baseline) italiano di 521 MCO2teq al 1990 e ad un obiettivo di emissione al 2012 pari a 487,1 MtCO2eq. 14 L’uscita degli U.S.A. Pur essendoi responsabili del 36,2% del totale delle emissioni di biossido di carbonio (annuncio del marzo 2001), non figurano tra i Paesi aderenti al Protocollo. In principio, il presidente Bill Clinton, incoraggiato dal vice Al Gore aveva firmato il protocollo durante gli ultimi mesi del suo mandato, ma George W. Bush, poco tempo dopo il suo insediamento alla Casa Bianca portò gli U.S.A al di fuori del protocollo. Alcuni stati e grandi municipalità americane, come Chicago e Los Angeles, stanno studiando la possibilità di emettere provvedimenti che permettano a livello locale di applicare il trattato. Anche se il provvedimento riguardasse solo una parte del paese, non sarebbe un evento insignificante: regioni come il New England, da sole, producono tanto biossido di carbonio quanto un grande paese industrializzato europeo come la Germania. I casi di India e Cina L'India e la Cina, che hanno ratificato il protocollo, non sono tenute a ridurre le emissioni di anidride carbonica nel quadro del presente accordo, nonostante la loro popolazione relativamente grande. Cina, India e altri Paesi in via di sviluppo sono stati esonerati dagli obblighi del protocollo di Kyoto perché essi non sono stati tra i principali responsabili delle emissioni di gas serra durante il periodo di industrializzazione che si crede stia provocando oggi il cambiamento climatico. I Paesi non aderenti sono responsabili del 40% dell'emissione mondiale di gas serra. Considerazioni postume Il Protocollo di Kyoto è un trattato importante, anche se si tratta solo di un primo passo, insufficiente per contenere i cambiamenti climatici in atto. Si tratta di un inizio importante, nella speranza che i futuri obiettivi di riduzione identificati dagli scienziati si trasformino in accordi globali ed in politiche efficaci, necessariamente molto più ambiziosi rispetto a quelli passati. Kyoto 2: la conferenza di Doha e il limite di incremento fissato a +2°C A dicembre 2012 si è conclusa la deludente Cop 18 di Doha (in Quatar), dove è stato approvato un documento finale (“Doha climate gateway”) che si costituisce come una specie di “ponte” che dovrebbe far passare al climate change basato sul Protocollo di Kyoto (e sui suoi impegni vincolanti), al nuovo sistema “Kyoto 2″ basato in buona parte su obiettivi meno vincolanti (e comunque non ancora definito a livello di contenuti). Tutto ciò nonostante la scienza concordi nel dire che entro il 2015 le emissioni debbano necessariamente calare per poter sperare di restare entro i + 2°C di riscaldamento del clima del pianeta (ed avere così effetti climatici relativamente contenuti), dovendo quindi avviare da subito azioni importanti per la salvaguardia del clima globale. Gli impegni di riduzione emissiva definiti a Doha sono ampiamente inferiori a quelli che sarebbero necessari per garantire una riduzione emissiva idonea a limitare l’aumento delle temperature medie globali al di sotto dei + 2°C (rispetto ai livelli pre-industriali).Le preoccupazioni sono molte dal momento che ad oggi, avviato il secondo periodo di impegno del Protocollo di Kyoto, sono usciti dal Protocollo anche Giappone, Nuova Zelanda, Canada e Russia: ad oggi, quindi, il nuovo trattato “Kyoto 2″ copre solo il 15% circa delle emissioni di gas serra globali, con Unione Europea, Australia, Norvegia e Svizzera al primo posto. 15 Il rimanente 85% delle emissioni (comprese quelle di USA e Cina), saranno gestite all’interno del percorso negoziale definito alla Cop 17 di Durban nel dicembre 2011. A Durban è stato deciso di dare il via ai negoziati per un nuovo trattato globale, per la prima volta. La forma giuridicamente vincolante sarà decisa nel 2015 e entrerà in vigore a partire dal 2020. Il processo, chiamato Piattaforma d' azione di Durban, porterebbe a un "nuovo protocollo, un altro strumento giuridico o concordato" (queste le tre opzioni legali) applicabile a tutte le Parti della Convenzione sul clima dell'Onu. I lavori sono portati avanti da un gruppo di lavoro che ha iniziato a operare nel 2012. Al momento, entro il 2015 abbiamo però purtroppo solo il poco concreto impegno di Doha per poter stabilire modalità e strumenti per colmare il gap tra emissioniattese (58 GtCO2eq), quelle raggiungibili con gli attuali impegni (52-57 GtCO2eq) ed il limite di 44 GtCO2eq che gli scienziati considerano invalicabile per sperare di limitare il riscaldamento climatico a + 2°C: si tratta di un gap enorme, che varia tra gli 8 e i 13 miliardi di tonnellate di CO2eq, un valore che ci porterebbe in maniera irreversibile verso un riscaldamento stimato tra i 3.5°C e i 6°C, e che sostanzialmente renderebbe invivibile il nostro Pianeta. Per questo motivo oltre ad aumentare l’ambizione riguardo la riduzione delle emissioni sono state prese in considerazione due nuove misure da adottare: TRASPARENZA: nuove disposizioni per rendere più trasparente le azioni intraprese dai paesi in via di sviluppo; FONDO VERDE: definizione del Fondo verde per il clima che prevede fino a 100 miliardi di dollari all'anno entro il 2020 a favore delle nazioni più povere. Manca però la fonte di finanziamento. Inoltre, via libera a meccanismi per la protezione delle foreste, il trasferimento di tecnologie, e le misure sull'adattamento. Novità per la cattura e lo stoccaggio della Co2 i cui risparmi di emissione sono stati inclusi nel conteggio dei credito nel mercato delle emissioni. 16 Gas serra: il metano La molecola si presenta in forma tetraedrica perché l’atomo di carbonio è ibridizzato sp3. Gli angoli di legame sono di 109,5°. L’ibridizzazione è una combinazione di un numero di orbitale con contenuto energico simile tesa a ottenere nuovi orbitali ibridi isoenergetici i cui lobi saranno orientati lungo le direzioni dei possibili legame che l’atomo centrale può formare con altri atomi. Il numero di orbitali ibridi, infatti, sarà uguale al numero di quelli combinati in partenza cosicché non cambi la valenza dell’atomo. L’ibridizzazione sp3 è accompagnata dalla promozione di un elettrone s in un livello orbitalico più alto(p). L’energia spesa inizialmente verrà compensata da quella derivante dalla formazione dei legami. L’energia totale del sistema risulterà inferiore e ciò conferirà stabilità alla nuova molecola. Il metano è conosciuto anche come il gas della terra ed è il secondo tra i maggiori responsabili dell’effetto serra. E’ considerato responsabile dell’incremento del 18% dell’effetto serra. Rispetto alla CO2 è presente in concentrazioni molto inferiori, eppure ha un potenziale di riscaldamento addirittura 23 volte superiore . La sua concentrazione in atmosfera è aumentata del 150% dal 1750 fino ad arrivare a 1750 ppb(parti per miliardo ) nel 2000. Nei paesi industrializzati il metano è responsabile in media del 15% delle emissioni. Caratteristiche fisiche importanti : è incolore e inodore e ha una densità molto minore rispetto al petrolio. A temperatura ambiente inoltre è molto infiammabile. Il metano (CH4) è considerato responsabile per circa 8% delle emissioni di gas serra. La sua capacità nel trattenere il calore è 30 volte maggiore a quella dell’anidride carbonica. Inoltre, la sua concentrazione atmosferica sta aumentando con un tasso medio annuo valutato tra l’1.1% e l’1.4%. Per la verità il composto non è molto sfruttato ( due terzi del metano estratto non viene utilizzato per le difficoltà di trasporto nei gas dotti dovuti alla scarsa densità del gas). Il metano è presente sia nei giacimenti di petrolio che in giacimenti di metano(solitamente abbinato ad altri idrocarburi). Deriva dalle rocce madri da cui derivano tutti gli idrocarburi. Viene generato in seguito al craking del kerogene.Le rocce madri sono caratterizzate da abbondanza di materia organica, derivata dall'accumulo di resti di organismi viventi in condizioni di scarsa ossigenazione. In queste condizioni, la materia organica non viene ossidata e può essere seppellita con il graduale accumulo dei sedimenti, dando origine ad una massa amorfa definita cherogene. Con l'aumentare della profondità di seppellimento, l'aumento della temperatura (oltre la soglia dei 100 °C), provoca la progressiva "rottura" (cracking) dei legami molecolari del cherogene, che si trasforma in composti più semplici: gli idrocarburi.Il legame covalente carbonio-idrogeno nel metano è uno dei più forti tra tutti gli idrocarburi, per questo motivo il suo uso come materia prima in chimica è limitato. 17 Il metano è il risultato della decomposizione anaerobica di sostanze organiche e perciò è definito come un biogas. La maggior parte dei giacimenti sono caratterizzati dalla decomposizione di sostanze organiche sepolte in profondità in tempi preistorici. Le principali fonti di emissione di metano in atmosfera sono: 1) Decomposizioni di rifiuti urbani in discarica 2) Fonti naturali(paludi, processo di digestione degli animali, batteri delle risaie, riscaldamento delle biomasse 3) Estrazione di combustibili fossili Si stima che le emissioni di origine umana del gas in atmosfera siano tra il 60% e l’80%. Le principali attività sono : discariche, gasdotti, agricoltura, attività petrolifere ed estrazione del carbone. L’estrazione del petrolio comporta la risalita in superficie di una medesima quantità di metano. Non potendo però essere sfruttato lontano dai luoghi di estrazione ci sono due alternative di utilizzo del metano : o viene bruciato all’uscita dai pozzi o viene pompato nuovamente nei giacimenti per favorire l’uscita del greggio grazie all’aumento di pressione. CH4 + 2O2 → CO2 + 2H2O Il calore di combustione della reazione è negativo (essendo la reazione di combustione una reazione esotermica); considerando come sistema chiuso la stessa reazione dicombustione del metano, il calore di reazione è pari a -891 kJ/mol. 18 Fibre ottiche: comunicazioni ad alta velocità Le fibre ottiche sono filamenti di materiali vetrosi o di polimeri, realizzati per essere dei conduttori della luce a propagazione guidata e che trovano importanti applicazioni in telecomunicazioni e diagnosti mediche. I cavi della fibra ottica sono flessibili, immuni ai disturbi elettrici, agli sbalzi di temperatura e più in generale, alle condizioni atmosferiche avverse. Il loro diametro è di circa 125 micrometri(circa un capello) e sono leggerissimi escludendo la guaina che le ricopre. Sono utilizzate per guidare un campo magnetico solitamente di frequenza prossima all’infrarosso(lunghezza d'onda compresa tra 700 nm e 1 mm) per distribuire una connessione a banda larga su una determinata rete di telecomunicazioni. Costituzione Una fibra ottica è così composta: 1) 2) 3) 4) Core: nucleo cilindrico di diametro di circa 10 micrometri, realizzato in silice o in polimeri plastici Cladding: mantello di diametro circa 125 micrometri, realizzato in silice o in polimeri plastici Buffer: diametro di 250 micrometri. Jacket: guaina protettiva realizzata con polimeri per dare resistenza alla corrosione ed evitare il contatto con l’esterno. Diametro di 400 micrometri Cladding e core vengono realizzati con un indice di rifrazione diverso: per il cladding è di 1,475 mentre per il core è di 1,5. Inoltre, il cladding deve riuscire a catturare la luce che non viene riflessa nel core. La luce che entra nel core ad un determinato angolo limite, si propaga mediante una serie di riflessioni alla superficie di separazione fra il core e il cladding. Le fibre vengono distinte per il diametro del core, per gli indici di rifrazione, per le caratteristiche del materiale e per il drogaggio(atto a modificare le caratteristiche ottiche della fibra). I materiali distinguono le fibre ottiche nelle seguenti condizioni: 1) Il silicio è più difficile da maneggiare e solitamente viene drogato con germano nel core per aumentare l’indice di rifrazione. E’ più resistente al calore ma meno facile da raccordare su più nodi. 2) Le fibre ottiche polimeriche sono più maneggevoli di quelle in vetro. Hanno un core che può arrivare a 1 mm in più rispetto alla silice e dunque, si ha un’apertura numerica più elevata(possibilità di raccordare più nodi). Inoltre, trasmettono dati con grandi capacità (la banda permette fino 1 gigabyte al secondo). Ma, sono scarsamente resistenti alle variazioni di calore. 19 Nelle fibre ottiche, avviene una rifrazione totale interna, fino a quando della fibra è abbastanza radente. All’interno della fibra il segnale può propagarsi in modo rettilineo(ordine zero) oppure un numero molto elevato di volte. A seconda che le fibre permettano una o entrambi i tipi di propagazione vengono rispettivamente definiti come: monomodali(diametro del core compreso tra 8 µm e 10 µm) o multimodali(diametro del core di 50 µm o 62.5 µm, i più comuni delle fibre polimeriche). È possibile conoscere a priori il numero possibile per una radiazione con lunghezza d’onda diametro e apertura numera NA definita quando la radiazione attraversa una fibra step-index(multimodale). M= Le fibre multimodali sono più economiche ma subiscono dispersione intermodale per i diversi modi di propagazione e ciò limita la distanza che il segnale può percorrere. Possono essere distinte in: 1) Step index: indice di rifrazione costante lungo tutta la sezione del core, cambia all’incontro col cladding in modo improvviso 2) Graded index: l’indice di rifrazione cambia gradualmente dal core al cladding. Ciò permette l’uso di luce multicromatica. Le fibre monomodali sono più costose, anche vista la differenza di distanza che queste riescono a percorrere. Il fenomeno dell’attenuazione Le fibre ottiche sono un mezzo di trasmissione perfetto solo in via ideale. Non risentono di disturbi elettromagnetici. Se sono strutturate per garantire la riflessione totale del segnale d’ingresso, permettono di trasferire la potenza in uscita, teoricamente. In pratica esistono fenomeni fisici che portano a perdite di attenuazione lungo la fibra; queste perdite dipendono da: 1) Proprietà fisiche del mezzo 20 2) Presenza di impurità nel materiale 3) Proprietà specifiche delle guide dielettriche aperte Perdite per proprietà fisiche del mezzo Il materiale è costituito da macromolecole che interagiscono tramite forza di van der Waals. Queste molecole ruotano intorno a un asse oppure vibrano. La rotazione porta le molecole ad assorbire la radiazione e la vibrazione porta ad emettere una seconda radiazione. Ciò è possibile solo per determinate lunghezze d’onda.Il vetro è trasparente nel campo visibile mentre risulta opaco nell’infrarosso. Con le fibre realizzate in vetro sono utilizzabili soltanto sorgenti di luce visibile e non sorgenti infrarosse. Perdite per proprietà specifiche delle guide dielettriche Dipendono dalle deformazioni e dalle discontinuità presenti nella guida. Per avere effetti rilevanti è necessaria una grande variazione di periodicità della radiazione rispetto a quella prevista. Curvatura della guida dielettrica Una grande curvatura non ha grandi influenze sulla distribuzione del campo del modo guidato. La perdita è legata all’angolo di curvatura della guida. Gli effetti sul segnale ottico sono : 1) Deformazione della distribuzione del campo magnetico del modo guidato 2) Eccitazione di componenti dello spettro non desiderati Perdite per impurità Queste vengono generate nel processo di fabbricazione in cui le particelle vengono inserite nella fibra. Se queste particelle hanno lunghezza d’onda paragonabile a quelle del segnale si genera assorbimento o diffrazione. Nella lavorazione della guida si possono generare anche corrugazioni lungo le pareti esterne. Esse possono generare una perdita di potenza che viene irradiata all’esterno. Dispersione A generare la dispersione del segnale sono fattori fisici che limitano la velocità di trasmissione in una fibra ottica. La distanza determina in genere una minore qualità del segnale trasmesso. Esistono tre dispersioni: 1) Dispersione modale: dovuta al fatto che il raggio luminoso viaggia in più modi nella fibra. Vi sono quindi differenti velocità secondo cui viaggia il segnale. Il cammino rettilineo favorisce il modo mentre l’entrata con angolo identico all’angolo di accettazione è il più lento. Se la frequenza del segnale è troppo alta, il primo si confonde con l’impulso seguente(interferenza intersimbiotica). Si utilizzano in questi casi fibre multi modali graded index oppure fibre monomodali. 2) Dispersione cromatica: dovuta al fatto che la luce trasmessa non è monocromatica e ciò genera differenti lunghezze d’onda o frequenze e velocitò diverse. Si utilizzano led monocromatici per risolvere l’interferenza intersimbiotica. 21 3) Dispersione di polarizzazione: dovuta alle asimmetrie del core generate da stress meccanici o imperfezioni di produzione. Genera una bifrangenza dell’onda elettromagnetica guidata. Utilizzo delle fibre ottiche nelle telecomunicazioni: Negli anni ’70 erano utilizzate come oggetto decorativo per la produzione di lampade. Oggi sono utilizzate nelle telecomunicazioni; le dorsali principali delle reti telefoniche e di internet, sono in fibra ottica, compresi i collegamenti intercontinentali sottomarini. Hanno sostituito dunque il cavo coassiale. I vantaggi sono: 1) Bassa attenuazione: rende possibile trasmissione a lunga distanza senza ripetitore 2) Grande capacità di trasporto e velocità di trasmissione grazie alla bassa attenuazione 3) Immunità da interferenze elettromagnetiche e conseguente assenza di diafonia 4) Alta resistenza elettrica 5) Peso e ingombro modesto 6) Buona flessibilità 7) Resistenza alle condizioni climatiche avverse 8) Maggiore possibilità di monitoraggio e minore possibilità di intercettazione 9) Possibilità di sostituirsi al satellitare in città “cablate” Finestre di trasmissione Esistono 3 finestre di trasmissione: 1) 850 nanometri: usata per i laser economici; permette collegamenti di 275 m su fibre 62.5/125 e di 550 su fibre 50/125. 2) 1310 nanometri: usata con laser monomodali o multimodali. Permette di realizzare le distanze maggiori. Collegamenti di 5-10 km, relativamente economici. 3) 1550 nanometri: usata con laser monomodali. Permette collegamenti fino a 100 km Due fibre ottiche dello stesso tipo possono formare un collegamento bidirezionale detto full duplex. Viene realizzato utilizzando una coppia di fibre per ognuna delle due direzioni. Le fibre sono collegate agli apparati di telecomunicazione mediante connettori che allineano il core della fibra col laser e col ricevitore. Il connettore comporta una attenuazione ed è molto sensibile alla polvere per cui i cavi vengono coperti per evitare infiltrazioni. Esistono più tipi di connettori: 1) SC,LC in plastica e quadrati 2) ST in metallo, tondi, con innesto a baionetta 3) FC in metallo, tondi, con innesto a vite 22