...

panorama per i giovani - Collegio Universitario Lamaro Pozzani

by user

on
Category: Documents
152

views

Report

Comments

Transcript

panorama per i giovani - Collegio Universitario Lamaro Pozzani
Collegio Universitario “Lamaro Pozzani” - Federazione Nazionale dei Cavalieri del Lavoro
panorama
per i giovani
Collegio Universitario “Lamaro Pozzani” - Via Saredo 74 - Roma - Quadrimestrale - Tariffa R.O.C.: “Poste italiane s.p.a. - Spedizione in Abbonamento postale - D.L. 353/2003 (conv. in L. 27/02/2004 N° 46) art. 1 comma 1, DCB Modena” - anno XLII - n. 2 - maggio-agosto 2009
INTERNET
Oltre il Web 2.0
LINGUAGGI
Php, Java, C
e gli altri
SALUTE
Gli occhiali regolabili
di Joshua Silver
NUOVE
NUOVE FRONTIERE
FRONTIERE
Tecnologie dell’informazione
Eccellenza negli studi
Più che una laurea
Un impegno da vivere insieme
Il Collegio “Lamaro Pozzani” ospita a Roma
gratuitamente studenti, di tutte le facoltà e di
tutte le regioni, che hanno superato una selezione seria e accurata, in cui contano solo la
preparazione e le capacità. A loro chiediamo di
frequentare con successo l’università, laureandosi in corso e con il massimo dei voti, ma
anche di partecipare alle attività del Collegio.
I nostri studenti sono diventati docenti e ricercatori, imprenditori
e dirigenti d’azienda, professionisti, funzionari della pubblica
amministrazione. Lavorano in Italia e all’estero in posizioni di
responsabilità. Questi risultati sono stati raggiunti anche perché
in Collegio hanno frequentato corsi di economia, diritto, informatica. Hanno viaggiato e imparato a parlare correntemente l’inglese e altre lingue straniere. E hanno incontrato e conosciuto personalità politiche, grandi studiosi, manager di successo.
Vi troverete a fianco di settanta ragazze e
ragazzi che saranno fra i vostri migliori amici e
vi aiuteranno a considerare il Collegio la vostra
“casa”. Il tempo dello studio, per un giovane
universitario, non può che integrarsi con il
tempo della vita: un’esperienza di libertà e
responsabilità decisiva per il futuro umano, professionale e culturale di ciascuno.
Collegio Universitario “Lamaro Pozzani”
Federazione Nazionale dei Cavalieri del Lavoro
www.collegiocavalieri.it
Sommario
panorama
giovani
per i
n. 2, maggio-agosto 2009
4
14
42
44
Le nuove tecnologie dell’informazione sono
l’argomento
principale di
questo numero
di “Panorama
per i giovani”
(Foto:
iStockphoto/
dem10).
PANORAMA PER I GIOVANI
Periodico della Federazione Nazionale
dei Cavalieri del Lavoro - Roma
Anno XLII - n. 2 - maggio-agosto 2009
3. Editoriale
di Stefano Semplici
Tecnologie dell’informazione
4. Tessendo la tela più accattivante
La nascita, lo sviluppo e le prospettive
della “rete delle reti”: Internet.
di Renato Mancuso
8. Convergenza fisso-mobile
I nuovi cellulari non sono semplici
telefoni, ma potenti computer.
di Davide Granata
10. Chi conosce cosa?
Il Web 2.0 dal peer-to-peer ai social
networks: intervista a Francesca
Comunello.
a cura di Francesco Mauceri
12. Un nuovo commercio per una
nuova economia
Le sfide poste dalla New Economy.
30. Scienza e informatica: una coppia
vincente
Le opportunità offerte agli scienziati
dall’informatica.
di Luca Valerio
32. Umanisti, giuristi e informazione
digitale
Anche letterati e filosofi stanno
imparando a comunicare diversamente il
loro sapere.
di Maria Teresa Rachetta
34. Frequently Asked Questions
Il mestiere del programmatore in
un’intervista con Andrea Bastoni.
a cura di Carla Giuliano
36. Super-computer del futuro
Come funzionano i computer quantistici.
di Emanuele Ghedin
38. Il futuro è nell’Aria
La rivoluzione del WiMax.
di Francesca Moretti
di Giorgio Mazza
14. C’era una volta la Silicon Valley
Elettronica, informatica, ingegneria
aerospaziale. Breve storia di un sogno
americano.
39. Arte e informatica
L’arte nell’era del mondo virtuale.
di Francesca Ronzio
18. A me il sorgente!
Viaggio nel mondo di Gnu e del software
libero.
di Carmelo Di Natale
22. Mettersi in gioco
Intervista a Leonardo Ambrosini,
co-fondatore di Nexse, una delle imprese
italiane più innovative.
a cura di Carla Giuliano
26. Il tormentato dialogo fra l’uomo e
la macchina
Quale linguaggio di programmazione?
di Renato Mancuso
28. Un mondo in 2D
L’arte dell’animazione in un’intervista a
Gian Marco Todesco della Digital Video.
a cura di Selene Favuzzi
Direttore responsabile
Mario Sarcinelli
Direttore editoriale
Stefano Semplici
Segretario di redazione e impaginazione
Piero Polidoro
Redazione: Paolo Busco, Carmelo Di
Natale, Selene Favuzzi, Carla Giuliano,
Nicola Lattanzi, Claudia Macaluso, Alfonso
Parziale, Beatrice Poles, Simone Pompei,
Maria Teresa Rachetta, Damiano Ricceri,
Francesca Ronzio, Sara Simone, Luca
Valerio, Francesca Zazzara.
Direzione: presso il Collegio Universitario
“Lamaro Pozzani” - Via Saredo 74 00173 Roma, tel. 0672.971.322 - fax
0672.971.326
Internet: www.collegiocavalieri.it
E-mail: [email protected]
Agli autori spetta la responsabilità degli
articoli, alla direzione l’orientamento scientifico e culturale della Rivista. Né gli uni, né
l’altra impegnano la Federazione Nazionale dei Cavalieri del Lavoro.
di Selene Favuzzi
41. Post scripta
di Mario Sarcinelli
Potete leggere tutti gli articoli della rivista
sul sito: www.collegiocavalieri.it
Primo Piano
42. Il fisico che dona la vista ai poveri
Joshua Silver ha inventato occhiali
regolabili a basso costo.
di Francesca Mancini
44. Il protocollo di Kyoto
Un’intesa difficile da applicare.
di Enrico Mantovano
46. L’Occidente alla sfida della
questione energetica
Le politiche dell’Europa e degli Stati Uniti.
di Chen Lin Strobio e Luca Valerio
48. Dal Collegio
Gli incontri serali del Collegio
Universitario “Lamaro Pozzani”.
Autorizzazione:
Tribunale di Roma n. 361/2008 del
13/10/2008.
Scriveteci
Per commenti o per contattare gli autori degli
articoli, potete inviare una e-mail all’indirizzo:
[email protected]
Collana di Studi e Ricerche
“Dario Mazzi”
La collana di Studi e Ricerche “Dario Mazzi”, nata dalla collaborazione fra il Collegio Universitario “Lamaro-Pozzani” e la casa editrice “il
Mulino” di Bologna, raccoglie i risultati più significativi dei programmi
didattici e di ricerca svolti dall’istituzione nell’area giuridico-economica e degli studi sociali. Nei singoli volumi confluiscono i contributi di
docenti, Cavalieri del Lavoro ed esperti dei singoli settori, ma anche di
quei laureandi che hanno ottenuto i migliori risultati nei diversi corsi e
seminari.
Non profit come economia civile
a cura di S. Zamagni
Bologna 1998, pp. 216
Il problema del non profit e gli aspetti giuridici ed
economici delle Onlus in un volume curato dal padre della
normativa italiana nel settore.
Un’azienda e un’utopia. Adriano Olivetti 1945-1960
a cura di S. Semplici
Bologna 2001, pp. 257
Un volume dedicato alla rilettura delle speranze e delle
contraddizioni di un’epoca attraverso l’opera di uno dei
suoi protagonisti più significativi e per questo più discussi.
Il lavoro: un futuro possibile
a cura di G. De Caprariis e S. Semplici
Bologna 1999, pp. 248
La globalizzazione, la richiesta di flessibilità, la necessità
di una formazione efficace, la ridefinizione del “sistema
delle regole”. L’ultima parte del volume è dedicata al
fenomeno del telelavoro.
Il diritto di morire bene
a cura di S. Semplici
Bologna 2002, pp. 224
L’eutanasia: un problema che è oggi di grande rilevanza
per la sfera dell’etica pubblica oltre e forse prima che per
quella del diritto.
Banca e finanza tra imprese e consumatori
a cura di A. Guaccero e A. Urbani
Bologna 1999, pp. 352
Gli anni ’90 si sono svolti all’insegna di un ampio
processo di codificazione normativa nei settori
bancario e finanziario. Tale processo ha avuto le sue
tappe più salienti - nell’intento di una disciplina stabile
- nel T.U. bancario del 1993 e nel T.U. della finanza
del 1998.
Italia e Mediterraneo: le occasioni dello sviluppo
a cura di S. Semplici e L. Troiani
Bologna 2000, pp. 256
Il Mediterraneo non è per i popoli che lo abitano una vera
“casa comune”. Con la Conferenza svoltasi a Barcellona
nel 1995 sono state poste le premesse per una nuova
strategia di partenariato, della quale questo volume
verifica alcuni degli assi portanti.
Intermediari e mercati finanziari
a cura di Giorgio Di Giorgio e Carmine Di Noia
Bologna 2004, pp. 354
Il sistema finanziario è attraversato da una profonda
evoluzione, che porta alla progressiva rimozione di
barriere e a un aumento della competizione. Il volume ha
l’obiettivo di esporre una serie di temi attinenti la struttura
e il funzionamento dei moderni sistemi finanziari.
Angelo Costa. Un ritratto a più dimensioni
a cura di Francesca Fauri e Vera Zamagni
Bologna 2007, pp. 296
Angelo Costa fu nominato Cavaliere del Lavoro nel 1952
e legò il successo del suo impegno imprenditoriale allo
sviluppo dell’industria armatoriale italiana. Fu chiamato
per ben tre volte a presiedere la Confederazione Generale
dell’Industria Italiana, incidendo in profondità sulla nuova
configurazione delle relazioni del mondo dell’impresa con
le altre parti sociali e con la politica.
Editoriale
S
ono passati poco più di venticinque anni dalla mia tesi però ferma da tempo all’aeroplano e non si annunciano “salti”
di laurea. Ricordo le lunghe ore trascorse consultan- di analoga portata e diffusione. Quando ci si muove nello spado gli schedari delle biblioteche, cercando nei catalo- zio, d’altronde, le forze del mondo fisico impongono infine lighi delle case editrici e nelle librerie internazionali di miti difficilmente superabili. Le Ict, proprio perché hanno a che
Roma le opere più recenti per la mia bibliografia, correggendo fare con i processi della conoscenza, sembrano invece rendere
pazientemente il testo nel passaggio da una versione all’altra, davvero avventurosa ogni previsione su quel che sarà possibile
anche quando non bastava “sbianchettare” una frase o sostituire fare di qui a pochi anni.
una pagina e si doveva ribattere un intero paragrafo. Sempre con
In questo numero della rivista si tenta almeno di scandagliare
il dubbio di aver dimenticato qualcosa che “valeva la pena di le prospettive che si presentano oggi più promettenti e comunque
leggere” e della quale nessuno si era ancora accorto. Ho fatto in strategicamente rilevanti. Farlo dal punto di vista della ridefinitempo a conoscere il piombo, la fatica e la puntigliosa attenzione zione appunto dei luoghi dell’umano significa prendere atto, per
dei tipografi di una volta, anche loro costretti a sbagliare il meno restare a un esempio immediatamente evidente, che la responsapossibile, perché non si rimediava agli errori con un rapido pas- bilità per la trasmissione e formazione del sapere non è più chiusa
saggio della mano sulla tastiera di un computer. E non ho alcun solo fra le mura di edifici scolastici, università e biblioteche: la
rimpianto – ovviamente – per tutto questo: scelgo una busta e learning society è la “società delle reti” di cui parla Manuel Caun francobollo anziché una e-mail solo per le notizie alle quali stells, così come le persone non si incontrano più soltanto nella
affido la “sostanza” di un sentimento e di un affetto, oltre che per piazza di una città, ma in quella dei social networks. Con tutte le
quelle più formali e “ufficiali”.
opportunità e i rischi che ciò comporta. Nel linguaggio della moNon c’è conoscenza senza comunicazione e quest’ultima dernità si è consolidata non a caso l’espressione “sfera pubblica”.
cambia sostanzialmente in quantità e qualità insieme agli stru- Habermas, nel suo celebre saggio su Storia e critica dell’opiniomenti sui quali viaggia. Basti ricordare le cesure epocali segna- ne pubblica, sottolinea come pubblica sia quell’istituzione che si
te dall’introduzione della scrittura e, in fondo
caratterizza per la sua accessibilità a tutti e dipochi secoli fa, dall’invenzione della stampa.
venta in questo modo la premessa di un potere
Può essere facile affermare, proprio guardan- Non c’è
condiviso e, infine, autenticamente democratido a questi precedenti, che l’impatto della conoscenza senza
co. La geometria della sfera mantiene però un
Information and Communication Technology comunicazione
elemento di chiusura, tipicamente quello poliè radicale perché travolge la scala dei tempi e quest’ultima
tico della cittadinanza, che ciascuno vive sì in
dell’innovazione: la stessa generazione si è
piazza, ma nella propria piazza. Questo limite
cambia insieme
trovata più volte a varcare la soglia dell’im“fisico” è saltato: perfino i giornali si leggono
pensabile, tanto è vero che il limite dello svi- agli strumenti
ormai sempre più spesso on-line; idee, articoli
luppo, della pervasività del nuovo, finisce per sui quali viaggia.
e scoperte si discutono su Internet e non intoressere non la capacità della scienza di prono ai tavoli di coffee-houses e salons, come
durlo, ma quella dell’uomo di adattarsi a esso, a un orizzonte amavano fare gli intellettuali del Settecento. È evidente che si
nel quale – per riprendere una fortunata espressione di Bauman tratta di un ampliamento delle potenzialità di partecipazione: la
– diventa “liquida” non solo la sua identità, ma anche gli oggetti network society si sviluppa in modo spontaneamente plurale e
e i gesti della vita quotidiana. Si compra l’ultimo modello di cel- azzera distanze che resterebbero altrimenti incolmabili. La steslulare “perché così fan tutti”, ma si continuerà a usarlo solo per sa campagna elettorale di Barack Obama ha dimostrato come
telefonare. Non è questo l’unico ambito nel quale il progresso in questo modo possano cambiare (e risultare vincenti) anche le
sollecita in modo così traumatico la nostra capacità di rappre- strategie della politica. Occorre però vigilare sulle nuove linee di
sentare e ordinare il mondo sulla base di principi, stili, valori frattura ed emarginazione che possono crearsi. Non tutti vivono
e anche abitudini ragionevolmente stabili e per questo rassicu- on-line. Ulrich Beck, descrivendo lo scenario “dalla società del
ranti: si pensi solo alla crescente difficoltà di regolare secondo lavoro alla società del sapere”, vede il rischio di una “società
criteri condivisi i nuovi poteri della medicina sulla vita dell’uo- neofeudale”, nella quale brokers, esperti di sistemi finanziari e
mo. Ma è questo, senza alcun dubbio, il fattore di trasformazio- informatici e altri operatori di livello professionale elevato e ben
ne che incide più profondamente sul rapporto fra l’individuo e retribuito “poggiano” la loro attività di global players su quella
i luoghi della sua formazione, del suo lavoro, della sua stessa di una grande quantità di persone che provvedono alle pulizie,
esperienza di relazione. È chiaro che un effetto simile è stato alle riparazioni, agli approvvigionamenti e alla sicurezza. C’è
prodotto con la “globalizzazione” conseguente all’evoluzione un livello di accesso alle nuove tecnologie, insomma, che non
anch’essa rapidissima dei mezzi di trasporto: quest’ultima, al- è colto dal numero dei telefonini. Rispetto a quest’ultimo dato,
meno per quanto riguarda le innovazioni che hanno avuto un come è noto, l’Italia non teme rivali. Ma non è il dato che conta
impatto diffuso sulla popolazione – e dunque senza tener conto davvero.
dei razzi che hanno reso possibile l’esplorazione spaziale – è
Stefano Semplici
panorama per i giovani
•
3
Tecnologie dell’informazione
La chiamano – non senza merito – la rete delle reti. I suoi numeri
raccontano la voglia di comunicare e avvolge con le sue maglie l’intero
pianeta. Tra ricerche, sviluppi e colpi di scena, ecco la storia di Internet,
in agile slancio verso un lieto futuro.
di Renato Mancuso
to messaggio di prompt era da ritenere
un prodigio. Verità vuole che al Dipartimento della Difesa
americano già coIl progetto Arpanet era stato voluto
minciassero ad alall’inizio degli anni Sessanta per produrre una
lignare, nell’indifrete in grado di dare man forte alle operazioni di
ferenza di molti, le
gestione della difesa statunitese
ricerche per il progetto Arpanet. Era
le loro shells lampeggianti a utenti più o in quegli anni, infatti, che le ricerche in
meno convinti che anche il più sgrazia- computer science portate avanti per conPrima del lontano 1962, sparuti e sperduti terminali mostravano timidamente
“ 4
•
n. 2, maggio-agosto 2009
”
to della Bbn (Bolt, Beranek and Newman) fecero venire a J.C.R. Licklider
l’idea che fosse possibile realizzare una
rete capace di garantire la comunicazione tra gli utenti di svariati computer in
tutto il globo.
Il progetto Arpanet era stato voluto per
produrre una rete in grado di dare manforte alle operazioni di gestione della difesa e
quindi nacque in un ambito molto lontano
da quello degli impieghi civili. La leggenda accesa dalle fobie della Guerra Fredda
narra che esso mirasse alla creazione di
una infrastruttura di rete che fosse capace di resistere ad attacchi nucleari, ma la
verità è che nessuno poteva immaginare
per quanto tempo un progetto sperimentale come Arpa si sarebbe protratto e quali
Foto: iStockphoto.com (enot-poloskun;
elgris; Tetra2000)
Tessendo la tela più accattivante
Tecnologie dell’informazione
Linguaggi come il
Cgi o il più recente
Php consentono di
rendere più dinamico
il funzionamento
delle pagine
web, sfruttando il
funzionamento dei
server (sopra, una
server farm). Anche la
web-mail si basa su
questo principio.
sarebbero state le sue ricadute sulle tecnologie di rete civili.
Intanto, si cominciava a pensare a
una comunicazione differente da quella
tradizionale e telefonica. Si cominciava
a capire che non era poi così rilevante
trasmettere tutti i dati su un percorso dedicato. Che non era così essenziale che le
informazioni viaggiassero in ordine e in
maniera continua. Entro certi limiti non
era rilevante neanche che le informazioni arrivassero a destinazione. Dentro Arpanet si lavorava infatti alla prima rete a
commutazione di pacchetti del mondo.
Ha del paradigmatico la storia del
primo messaggio scambiato sulla rete
Arpanet: era una mattina del 29 ottobre
1969 e tutto sembrava messo a punto per
comunicazione abbastanza ingenua e altamente inefficiente, ma non si fece aspettare molto la seconda versione – detta Slotted Aloha. E sempre in quegli anni accadeva qualcosa che sarebbe poi entrato nel
patrimonio genetico di Internet così come
oggi la conosciamo: nel 1972, infatti, la
rete Aloha veniva messa in comunicazione con la già costituita rete Arpanet.
Negli anni a seguire, cominciavano a
fiorire in svariati paesi del globo tecnologie di interconnessione capaci di relazionare hosts a distanze sempre maggiori
ci si avvicinava sempre più rapidamente
al punto di svolta decisivo. Nel lontano
1982, infatti, per la prima volta si pronunciava la parola “Internet”, la “rete delle
reti”, e venivano superate le limitazioni
imposte da un canale di trasmissione imperfetto. Era stato infatti ideato qualcosa
in grado di garantire che pur in presenza
di perdite di informazione ed errori di trasmissione due macchine arbitrariamente
distanti potessero scambiarsi byte in maniera affidabile. Era nato il Transfer Control Protocol (Tcp).
Tcp è in buona sostanza un protocollo
relativo a quello strato dell’architettura
di ogni rete che si occupa del “trasporto”
(transfer) delle informazioni. Tale strato è idealmente scollegato da quello che
effettua l’“instradamento” dello stesso
attraverso i vari nodi. Per assolvere tale
compito, esiste quello che viene detto
Internet Protocol (Ip) e che si è prepotentemente affermato come standard de facto
sin dalla prima metà degli anni Ottanta. Il
connubio tra Tcp e Ip definisce un’intera
architettura di rete, detta Tcp/Ip, che ha
ben presto soppiantato ogni rivale.
Si potrà capire facilmente come, con
la comunicazione garantita, si potesse ragionare finalmente su “cosa” trasmettere.
Nascevano così, intorno alla metà degli
funzionare. Il giovane
programmatore
Charley Kline si apprestava a trasferire i
byte che compongono la parola “login”.
Alla pressione del
tasto d’invio, i segnali che codificavano le
lettere “lo” vennero
formati e spediti correttamente, mentre
un attimo dopo tutto
il sistema andò in crash, facendo sì che
il primo messaggio scambiato su una rete
telematica fosse un nonsense.
Nel frattempo, l’esimio professore
di
ingegneria,
nonché virtuoso
Il pioniere degli anni Ottanta e Novanta
surfista, Norman
fu Tim Berners-Lee, che inventò il linguaggio di
Abramson, averiferimento per la diffusione di contenuti ipertestuali,
va cominciato a
l’Html, e fondò il W3C (Web Consortium) lavorare al primo sistema di
comunicazione basato su portante radio anni Ottanta, i primi protocolli destinati a
nell’accogliente campus dell’Università usi applicativi. Faceva la sua apparizione
delle Hawaii. Con un nome quasi evo- Ftp (File Transfer Protocol – 1985) per
cativo del suo entusiasmo di essere nata, il trasferimento di file da e verso server
faceva capolino la rete senza fili Aloha. remoti; apparivano Pop1 (Post Office
Questa, nella sua prima versione, era ca- Protocol versione 1 – fine 1984) e Smtp
ratterizzata da una gestione del canale di (Simple Mail Transfer Protocol) rispetti-
“ ”
panorama per i giovani
•
5
tecnologie di un Web a contenuti sostanzialmente statici – successivamente definito Web 1.0 – esistessero già, tali risorse erano accessibili solo agli “addetti ai
lavori”. La vera svolta in questo senso si
ebbe nel 1993, con l’apparizione del primo browser capace di visualizzare pagine
Html e destinato alla larga utenza.
Si stima che già intorno al 1999 il
numero di computer connessi alla rete
Internet si aggirasse intorno ai 200 milioni. E già in quegli anni il traffico Http
ricopriva più dell’80% del totale. C’era
dunque chi aveva compreso che se davvero il Web godeva di una popolarità sempre crescente, allora per il suo tramite si
sarebbero potuti veicolare servizi di più
Se il Web 1.0 era sinonimo di
ampio respiro che la
diffusione di informazioni, il Web 2.0 si è basato
mera consultazione
soprattutto sull’interattività e il dinamismo dei
di pagine informaticontenuti; il Web 3.0 sarà semantico ve. Questa considerazione determinava
la creazione e per lo scambio di conte- l’inizio della rapida evoluzione che in
nuti ipertestuali.
meno di dieci anni ha prodotto un nuovo
Nel 1991, con un annuncio ufficia- web, un web interattivo, detto Web 2.0.
le, nasceva dunque il World Wide Web. La caratteristica principale del Web 2.0 è
Come sempre accade, ciò che nella teoria che non si limita più, come il suo predeè ben costruito e definito, nella pratica ha cessore, a fornire informazioni, ma ospita
bisogno di anni e anni per affermarsi. Si vere e proprie applicazioni che interagipuò dire infatti che, benché le principali scono con l’utente e sono in grado di for-
“ 6
•
n. 2, maggio-agosto 2009
”
nire contenuti sempre nuovi, interattivi e
adattati alla situazione.
Nella pratica, però, i due livelli sono
sovrapposti ed è impossibile stabilire con
chiarezza cosa sia Web 1.0 e cosa faccia
invece parte del Web 2.0. In generale
possiamo dire che nel Web 2.0 la pagina
non contiene più solo direttive su come
Foto: iStockphoto.com (ahlobystov;
PumpizoldA; chromatika)
vamente per la ricezione e l’invio di posta
elettronica.
Il pioniere di quegli anni fu Tim
Berners-Lee. Già dai primi anni Ottanta
aveva intuito il rapido avanzare dei bit e
nel 1989 aveva proposto il primo abbozzo di un linguaggio per la formattazione dinamica di contenuti multimediali.
Solo un anno più tardi tale linguaggio
prendeva in maniera ufficiale e definitiva il nome di Html (Hyper Text Markup
Language) e veniva dichiarato dalla
W3C – consorzio per la definizione degli standard utilizzati sul World Wide
Web e di cui Berners-Lee stesso era fondatore – il linguaggio di riferimento per
Tecnologie dell’informazione
il testo va formattato, ma include vere
e proprie istruzioni eseguite a livello di
server. Prima di inviare la pagina a chi
la richiede, quest’ultimo si occupa di
“costruirla” interpretando le istruzioni
in essa contenute. Senza tale livello interattivo non si avrebbero wiki, social
network, web mail, motori di ricerca e
quant’altro preveda una interazione sia
pur minima con l’utente.
Le prime avvisaglie della mutazione
imminente si ebbero già nel 1993, quando
venne messa a punto dal programmatore
Rasmus Lerdorf la tecnologia Cgi (Common Gateway Interface). Il meccanismo
è il più semplice che si possa pensare:
invece di richiedere una pagina web, si
richiede esplicitamente l’esecuzione di un
programma residente sul server. La pagina visualizzata non sarà altro che l’output
risultante da tale esecuzione. I Cgi rivestivano nei primi anni del web dinamico
un ruolo di protagonisti incontrastati, ma,
oltre a essere estremamente inefficienti,
aprivano sovente ampie falle nella sicurezza se erano stati mal progettati.
Già dal 1995 si cominciò quindi a pensare a standardizzare in qualche modo gli
script Cgi. Proprio in quegli anni lo stesso ideatore della Common Gateway Interface mise a punto un insieme di script
dandogli il nome di Php (Personal Home
Page). Php venne riscritto totalmente due
anni dopo e divenne così il primo linguaggio dedicato alla programmazione
web. Era cambiato nella forma e nella
sostanza: non si trattava più di programmi esterni al server web, ma era diventato
esso stesso capace di interpretare il contenuto Php innestato nelle pagine Html al
fine di produrre l’output desiderato. Ecco
perché, con l’uscita della terza versione,
l’interpretazione del suo nome divenne
un acronimo ricorsivo: Php: Hypertext
Preprocessor.
In concomitanza con l’ideazione di
Php nascevano numerosi linguaggi basati
sullo stesso criterio di fondo. A tutt’oggi i
più utilizzati sono una decina, tra cui Asp
(Active Server Pages) di Microsoft, Jsp
(Java Server Pages) prodotto dalla Sun e
l’open source e completissimo Ruby. Essi
sono generalmente linguaggi di livello
molto elevato: astraggono in particolare
la gestione della memoria e il parsing dei
dati, facilitando di molto l’interazione con
i più rinomati database engine.
Se quanto detto è ormai quotidiana
presenza, cosa c’è da aspettarsi per un
non troppo remoto futuro? Se c’è stato un
Web 1.0 e si è già avvezzi a un Web 2.0,
come pensare il Web 3.0? Lo chiamano
“Web Semantico” e ha pretese incredibilmente avveniristiche! Eccone l’idea:
il Web attuale, per come è fatto, mette a
disposizione dell’uomo una gran quantità di informazioni, ma la mole di dati è
talmente spropositata che il povero abitante della rete sembra venir sbatacchiato
dai marosi più che essere trascinato da un
dolce libeccio verso l’anelata destinazione. Si cerca allora di dare un’organizzazione strutturata dei dati con particolare
attenzione alle relazioni semantiche tra
essi. Facciamo un esempio: quando si
chiede a qualcuno di parlare della propria
casa, esso non risponderà meramente con
frasi in cui si trovi la parola “casa”. Questo perché nella sua memoria egli non sta
svolgendo una ricerca per keywords. Il
suo cervello, infatti, possiede una quantità
di dati organizzati in blocchi interconnessi (veri e propri grafi) a livello logico. Ciò
gli permette di rispondere parlando dei
propri figli, del cane, dei bellissimi mobili
in mogano e finanche di quanto sia comoda la sua poltrona.
Il grande sogno è dunque il seguente:
voler aggiungere all’immenso grafo che è
il Web informazioni di carattere semantico. Si potranno così programmare individui virtuali capaci di esplorare in maniera
intelligente la rete e rispondere a interrogazioni complesse. Non solo, ma si potrà
raccogliere il “senso” del sapere, per poi
costruirvi sopra una base di conoscenza
che sia consistente nei contenuti (cioè priva di contraddizioni logiche). Nulla vieterà a quel punto di sottoporre quest’ultima
a un meccanismo di reasoning tramite
inferenze logiche. Il risultato sarebbe
nient’altro che la creazione automatica di
nuova conoscenza!
panorama per i giovani
•
7
Tecnologie dell’informazione
Il mercato delle comunicazioni e dell’informazione vede attualmente due attori
fondamentali: da un lato l’informazione
tradizionale, fatta di inchiostro e decoder Dtt (Digital Terrestrial Television), e
dall’altro Internet, ora non più esclusiva
dei pc ma accessibile anche con il più
economico dei cellulari. Malgrado le apparenze e i primi esperimenti, si tratta di
due mondi ancora separati, due giganti
sull’attenti, che si studiano quasi che uno
dei due voglia fagocitare l’altro.
In realtà è proprio così, ma la “sfida”
è quantomai impari: le potenzialità della
rete e dei suoi derivati sono tante e tali che
i mezzi tradizionali possono contare solo
sulla maggiore familiarità di cui ancora
godono presso le famiglie e su normative
in loro favore particolarmente consolidate, specie per quanto riguarda la televisione. Non è infatti un mistero che la politica
sia largamente impreparata nei riguardi
di Internet: mancano normative concrete
e applicabili e i pochi investimenti in infrastrutture sono sempre in ritardo. Questi
inconvenienti posticipano l’esito scontato
dello scontro, in cui le televisioni saranno
costrette a cedere il passo a una Internet
capace di offrire praticamente tutto:
dall’intrattenimento,
all’informazione,
ai servizi di pubblica utilità, in maniera
drammaticamente semplice e veloce.
Ciò è possibile poiché la rete gode di
una versatilità senza pari, essendo capace
di fornire una molteplicità di servizi estre-
Ovviamente ci sarebbe dell’altro, ma
già questi piccoli esempi mostrano come
il piatto sia quanto mai “ghiotto”, tanto è
vero che le grandi majors dell’intrattenimento si affannano a cercare accordi di
esclusiva con i licenziatari della banda
larga, più preziosa del petrolio in un periodo di crisi energetica, per fornire i loro
contenuti on demand, a uso e consumo degli utenti. Costituiscono validi esempi lo
Skypephone – su cui H3G si è avventata a
mani basse, che consente comunicazioni
La politica è largamente impreparata
gratuite tra i suoi
nei riguardi di Internet: mancano normative
possessori o a costi
concrete e applicabili e i pochi investimenti in
irrisori verso numeri
infrastrutture sono sempre in ritardo
di rete fissa o mobile
– e l’iPhone, consomamente diversi l’uno dall’altro: il vero lidato status symbol ma anche terminale
senso della convergenza appare immedia- tuttofare, con chiamate, videochiamate e
tamente chiaro se si considera che l’avere navigazione Internet illimitata garantite
in tasca un minuscolo terminale Wi-Fi da da un contratto flat mensile.
qualche decina di euro equivarrà, senza
Esistono dunque esempi concreti di
esagerare, a portare con sé un cellulare convergenza, in verità anche piuttosto
con cui chiamare gratuitamente in tutto avanzata. Tutti i produttori di contenuti
il mondo, un lettore MP3 senza libreria hanno capito che è bene riversare in rete
musicale che potrà accedere a qualsiasi il loro materiale; gli operatori di telefonia
opera il genere umano abbia concepito, mobile reagiscono con offerte sempre più
una raccolta di quotidiani che racchiude
tutti i numeri pubblicati dalla stampa inQuante file potrebbero essere evitate se
ternazionale, nonché (si tranquillizzino i
tutti conoscessero le opportunità offerte
più irriducibili tradizionalisti) il fido teleda smartphone (in alto e nella pagina
visore, stavolta collegato con le emittenti
seguente, due modelli), Internet e nuove
di tutto il mondo.
tecnologie in generale?
Foto: iStockphoto.com
(roundhill; GeorgePeters; fotosipsak)
“
8
•
n. 2, maggio-agosto 2009
”
CONVER
fisso-m
Le grandi potenzialità dei nuovi cellulari,
proprie finestre sul mondo: lo stato attuale
prospettive di sviluppo.
di Davide
Tecnologie dell’informazione
aggressive e persino i “dinosauri” delle
pubbliche amministrazioni ne intuiscono
la convenienza, fornendo servizi di buona qualità che permettono agli utenti di
evitare code e agli uffici di economizzare
drasticamente su costi e tempi delle attività di sportello.
Non vi sono solo rose e fiori. In teoria le possibilità e i servizi ci sono tutti,
ma sono mal sfruttati: ad esempio, chi
avesse bisogno di effettuare un prelievo
dal bancomat del centro commerciale
nell’ora di punta (attività chiaramente difficile da rimpiazzare con una controparte
online), si scontra ancora facilmente con
una realtà fatta di snervanti file di utenti,
magari interessati soltanto a conoscere il
saldo della carta di credito, comodamente
visualizzabile sullo schermo dell’iPhone
che hanno in tasca, oppure intenti a pagare un bollettino, incombenza assolvibile
dalla poltrona di casa, ottenendo peraltro
una ricevuta elettronica, che nessuno sente la necessità di convertire in carta. Le
RGENZA
mobile
non più semplici telefoni ma vere e
dell’arte, i problemi da affrontare, le
e Granata
banche potrebbero chiudere metà dei loro della banda larga in Italia, evidenziando
sportelli, riconvertendo gli impiegati ad come la copertura sia ampiamente insuffiattività di customer relationship, se solo ciente anche rispetto a obiettivi tutto somi clienti sapessero di cosa sono capaci gli mato modesti, con la conseguenza di un
smartphone: il primo ostacolo al dilagare digital divide che colpisce 7,5 milioni di
della convergenza è, paradossalmente, un italiani. Il lungo rapporto, tuttavia, ponenproblema di comunicazione. Fin quando
i nuovi smartphone
Le banche potrebbero chiudere metà
saranno
percepiti
dei loro sportelli, riconvertendo gli impiegati
solo come giocattoli
in attività di customer relationship, se solo i clienti
costosi per ragazzisapessero di cosa sono capaci gli smartphone
ni capricciosi, non
ci sarà alcuna convergenza e anzi crescerà inesorabilmente do come obiettivi l’universalità dell’acl’avversione per oggetti elettronici sem- cesso e la qualità sufficiente della rete,
pre più complicati che, in fondo, “devono propone alcune interessanti “ricette” per
solo telefonare”.
risolvere il problema, corredate da studi di
La presenza del digital divide, inoltre, fattibilità economica; data la costante crecontrasta duramente con le esigenze di scita della domanda, con opportuni piani
connettività dei servizi in convergenza: il di sviluppo finanziati dal governo sarebbe
vero motivo per cui quest’ultima, intesa possibile raggiungere una condizione di
come libera fruizione di audiovisivi sui leadership europea entro il 2011, con rimoderni cellulari, risulta essere un obietti- torni economici decisamente interessanti.
vo molto ambizioso e difficile da raggiun- L’unica azienda che attualmente dispone
gere, è senza dubbio la carenza di banda di risorse sufficienti per offrire un pacchetlarga funzionante e disponibile ovunque. to realmente “convergente”, con servizi di
Un documento riservato del Ministero accesso Internet, Tv digitale e telefonia, è
dello Sviluppo economico recentemente Fastweb, sulla sua rete in fibra ottica stesa
diffuso su Internet, noto come “rapporto nei maggiori centri urbani. Sebbene una
Caio”, mette in luce lo stato disastroso stesura di fibra ottica su tutto il territorio
italiano sia economicamente poco fattibile, con le tecnologie WiMax, che forniscono connettività wireless a basso costo
sulle grandi distanze, è possibile estendere
l’accesso a Internet veloce, raggiungendo
la copertura del 100% della popolazione
in due anni. I piani ci sono: non resta che
sperare in una politica di sviluppo che accetti di impegnare le ingenti risorse richieste, puntando a sviluppare e diffondere in
modo massiccio la banda larga in Italia.
Infine, è opportuno ricordare come la
fruizione dei servizi in mobilità, con particolare riferimento alle operazioni di ecommerce e home banking, debba essere
accompagnata da una necessaria cultura
della sicurezza informatica. Gli affidabili sistemi a disposizione dei fornitori di servizi,
da soli, non garantiscono la protezione dei
dati sensibili, che infatti deve essere predisposta già “a monte” dal terminale (pc o cellulare) di proprietà dell’utente, non solo con
sistemi software, ma anche e soprattutto con
un’adeguata cautela nella navigazione, da
impiegare costantemente anche nelle operazioni più banali, che non necessariamente
richiedono la cessione di dati personali.
“
”
panorama per i giovani
•
9
Per capire perché esistono i social networks, i software peer-to-peer e
Youtube e per comprendere meglio i bisogni psicologici che soddisfano e
le loro conseguenze sociali, abbiamo intervistato Francesca Comunello,
laureata del Collegio “Lamaro Pozzani” e ricercatrice presso la facoltà di
Scienze della Comunicazione dell’Università “La Sapienza”.
a cura di Francesco Mauceri
Dottoressa Comunello, una delle prime
manifestazioni dell’impatto rivoluzionario di internet sono stati i P2P. A 10
anni di distanza dalla loro nascita quale
definizione si può dare del fenomeno e
che prospettive ha?
I sistemi peer-to-peer, nelle loro diverse forme, hanno fornito l’infrastruttura
tecnologica per lo sviluppo di pratiche
sociali che pongono, oggi, una serie di
interrogativi molto rilevanti. Il file sharing, infatti, alimenta (e si alimenta da)
quella cultura della
condivisione che permea tanti ambiti della
cultura digitale (basti
pensare alle comunità
A sinistra: Youtube è
uno dei siti di maggior
successo per la
generazione del Web
2.0. In alto a destra:
il file sharing è un
fenomeno sempre più
diffuso, che impone
nuove riflessioni.
10
•
n. 2, maggio-agosto 2009
Foto: iStockphoto.com/mattjeacock;Youtube;
iStockphoto.com/monkeybusinessimages
Chi conosce cosa?
che cooperano allo sviluppo dei software open source o ai numerosi esempi di
cooperazione distribuita in rete, come ad
esempio il cosiddetto crowdsourcing).
Contemporaneamente, l’ampia diffusione
delle pratiche di file sharing solleva una
serie di questioni relative al tema della
proprietà intellettuale e del copyright, che
non possiamo più limitarci a tematizzare
semplicemente in termini di “lotta alla pirateria”. Le attuali politiche di stigmatizzazione di comportamenti sociali pervasivi, le normative sempre più restrittive, i
reiterati tentativi di indurre gli utenti, anche con maldestre campagne istituzionali,
a percepire come devianti comportamenti
ormai comunemente accettati, rappresentano tentativi di resistenza dei vecchi modelli, che non sono in grado di rispondere
alle mutate condizioni di produzione e di
consumo di contenuti culturali.
Peraltro, gli studi più rigorosi condotti
in proposito iniziano a concordare sul fatto che il nesso tra il file sharing e i danni
economici lamentati dalle major dell’industria musicale e audiovisiva sia tutt’altro che dimostrato. Nei prossimi anni gli
operatori dell’industria culturale saranno
chiamati a sperimentare forme innovative
di remunerazione del lavoro intellettuale.
In tal senso, le licenze sviluppate a ridosso del software open source, così come
dispositivi quali i Creative Commons,
rappresentano senza dubbio modelli da
valutare con interesse.
Youtube e i social network sono fenomeni più recenti e in netta ascesa. A cosa è
dovuto il loro successo? In particolare,
cosa distingue dagli altri un fenomeno
dilagante come Fecebook?
In termini generali, Youtube e i social
network sites rientrano nell’ampia – e talvolta abusata – definizione di “web 2.0”,
che enfatizza la centralità dell’utente il
quale diventa, talvolta, anche produttore
di contenuti. Se ci interessa soffermare
l’attenzione, più in particolare, sui social
network sites, va innanzitutto segnalato che essi mirano, per la prima volta in
modo strutturato, a mettere in relazione
utenti (i loro profili, le loro conversazioni,
le loro reti di contatti, i contenuti da loro
creati o trovati sul web e condivisi). Uno
degli elementi di maggior interesse è che
questi ambienti tecnologicamente mediati
consentono di articolare in modo esplicito e tracciabile le dinamiche proprie delle
reti sociali che conosciamo anche offline
(nel cosiddetto mondo reale). Il concetto
di “rete piccolo mondo” (i “sei gradi di
separazione”, cioè il fatto che due persone qualsiasi del pianeta siano collegabili attraverso un numero massimo di sei
passaggi), da cui sono nati i primi social
network sites, ad esempio, è stato ideato
negli anni Sessanta proprio nell’ambito
di ricerche relative alle relazioni sociali
non tecnologicamente mediate. Oggi, le
ricerche empiriche mostrano con chiarezza che, generalmente, nelle esperienze dei
soggetti non sono rilevabili fratture nette
tra le forme di relazione sociale alimentate attraverso le tecnologie e quelle vissute
in presenza.
Facebook è, attualmente, il social network site più diffuso a livello globale. In
Italia, in particolare, ha avuto una crescita
rapidissima nel corso di pochi mesi (ad
esempio, tra maggio e settembre 2008
siamo passati da meno di un milione a
quattro milioni di utenti). Rispetto agli
altri social network sites, una delle principali differenze è che incoraggia l’utente
a inserire i propri dati reali, e pur essendo
possibile utilizzare nomi fittizi, possibilità ufficializzata da giugno 2009, il patto
comunicativo ufficiale che si stringe con
l’utente prevede di utilizzare il nome e
le informazioni reali. Altre peculiarità riguardano la possibilità concessa a terze
parti di sviluppare applicazioni supportate
dall’ambiente, così come l’aggregazione,
all’interno della piattaforma, di una varietà
di strumenti come un sistema di messaggi
(simile alla mail), la possibilità di gestire
gruppi, di caricare, commentare e inserire
i nomi degli amici raffigurati nelle foto,
le chat, ecc. Infine, alcuni sostengono che
la grafica “minimal” abbia contribuito a
differenziare Facebook dal concorrente MySpace, rendendolo più vicino alle
sensibilità di un pubblico leggermente più
adulto (i cosiddetti “giovani adulti”).
Recentemente il professor Pizzetti, garante della privacy, ha messo in guardia gli utenti dai rischi che si corrono
nel mettere a disposizione di social
network come Facebook informazioni
personali, a volte anche sensibili. Quali
sono i rischi e quali le possibili tutele
approntabili per evitare di veder lesa la
propria privacy?
La prima considerazione che posso fare
riguarda la cosiddetta alfabetizzazione
degli utenti agli strumenti che utilizzano
(quella che in ambito anglosassone viene
definita media literacy). È evidentemente
necessario che gli utenti siano consapevoli
del funzionamento (dei vincoli, delle opportunità, dei bugs) degli ambienti in cui
decidono di operare. Una volta garantita la
consapevolezza e l’alfabetizzazione degli
utenti, se prescindiamo da forme di utilizzo poco ortodosse (profili personali aperti
da terzi a proprio nome), non parlerei di
una vera e propria lesione della privacy,
laddove gli utenti volontariamente decidono di pubblicare informazioni personali.
Alcuni autorevoli studiosi a livello
internazionale (tra cui Sonia Livingstone,
docente della London School of Economics) ipotizzano che il concetto stesso di
privacy, se applicato ai Sns, sia comunemente frainteso. Come è noto, infatti, nei
Sns gli utenti sono portati a rendere visibili a un numero elevato di contatti informazioni comunemente ritenute private
(età, opinioni politiche, religione, ecc.);
questo non significa necessariamente che
si tratti di soggetti completamente inconsapevoli o disinteressati alla propria privacy. Piuttosto, nelle parole di Livingstone, andrebbe introdotta “una definizione
di privacy non legata alla diffusione di
alcune tipologie di informazioni, ma
piuttosto una definizione che sia centrata
sulla possibilità di avere controllo su chi
conosce cosa sul tuo conto”. Questa riflessione si lega da un lato alla definizione
di amicizia con cui operano i soggetti e,
dall’altro, al fatto che nei Sns assistiamo
alla giustapposizione di porzioni di network differenti. I soggetti, cioè, operano
sulla base di una definizione di amicizia
molto più raffinata del dato binario (amico/non amico, o amico/top friend) generalmente supportato dai Sns, graduando
il livello di intimità intrattenuto con i propri contatti, funzione raramente supportata da queste piattaforme. Accomunando
dunque molti contatti alla voce “amici”,
i soggetti si trovano a mostrare aspetti
della propria personalità a persone che
normalmente non vi avrebbero accesso,
generando in alcuni casi anche un certo
imbarazzo.
Le “impostazioni della privacy” introdotte da Facebook dal 2008, con la
possibilità di gestire i livelli di visibilità
in relazione alle “liste” di amici, rappresenta un primo passo verso la soluzione
di questo problema. Anche in questo caso,
comunque, è la consapevolezza con cui si
utilizza il mezzo a fare la differenza.
panorama per i giovani
•
11
Tecnologie dell’informazione
Un nuovo commercio per una
nuova economia
Abitudini e modalità di consumo e di produzione sono state influenzate
dall’avvento della New Economy. Le sfide che le imprese devono
affrontare per sopravvivere nel nuovo contesto globale.
Foto: iStockphoto.com/Petrovich9
di Francesca Moretti
Dalla nascita del World Wide Web a oggi,
l’economia ha subito un’evoluzione tale
da poter essere equiparata alla rivoluzione che ha visto l’uomo trasformarsi da
cacciatore a stabile agricoltore. L’avvento
delle nuove tecnologie di comunicazione
ha reso tutto più a portata di mano, dall’informazione ai beni di consumo, senza la
necessità di doversi spostare; ogni cosa è
potenzialmente reperibile stando comodamente seduti sul divano di casa propria.
La variante fondamentale dalla metafora
inizialmente proposta sta nel fatto che,
grazie a Internet, è diventato possibile
sfruttare anche le risorse non localizzate
sul proprio territorio, ma che diventano
comunque accessibili a chiunque disponga di un pc e di una semplice connessione
di rete.
La rete non rappresenta solo un ulteriore strumento di informazione e intrattenimento, al pari della radio e della
televisione; è molto di più. Internet oggi
permette di realizzare con rapidità e sem12
•
n. 2, maggio-agosto 2009
plicità di interfaccia numerose operazioni che la precedente generazione era, ed
è tuttora, abituata a svolgere uscendo di
casa ogni mattina: dal semplice pagamento di una bolletta al controllo del saldo
del proprio conto corrente; dall’acquisto
di libri, di musica o di vestiti alla spesa
di generi alimentari on line – per i più
internet-addicted – con comoda consegna a domicilio. Ora tutto ciò è possibile
con qualche semplice click, con rilevante
risparmio di tempo e di denaro. Internet
rappresenta, non solo per il consumatore ma anche per l’impresa, una risorsa
che meglio di qualunque altra permette
di conseguire un vantaggio competitivo,
frutto di una politica di riduzione dei costi, di incremento dei ricavi, di innovazione e, conseguentemente, di creazione di
valore per il consumatore.
La rivoluzione informatica in corso,
lungi dall’arrestarsi, ha cambiato la quotidianità, ha modificato le abitudini di acquisto e, conseguentemente, i sistemi di
produzione, di marketing e di interazione
con il cliente. La globalizzazione e la New
Economy hanno generato una concorrenza senza limiti, dalla quale le imprese,
grandi ma anche medie e piccole, possono difendersi solo mediante una maggiore visibilità sul web. L’imperativo è adeguarsi alle esigenze della moderna società
della comunicazione, implementare strategie e tattiche di web marketing per poter
estendere il target di riferimento aziendale, strutturare nuovi strumenti di vendita
che siano efficaci e al passo con i tempi. I
consumatori sono ora più liberi, effettuano i loro acquisti in un mercato globale e
sono molto più esigenti, hanno aspettative
sempre maggiori, alimentate anche dalla
maggiore trasparenza delle informazioni
relative ai prodotti, al brand, all’affidabilità del seller; con la conseguenza che
ogni errore, ogni segno di debolezza dirotta repentinamente gli acquisti su altri
competitor.
L’e-commerce, dunque, viene modellato, trasformato e reso sempre più vicino
alle esigenze degli utenti. Il progresso nelle tecnologie informatiche ha portato a un
nuovo stadio evolutivo delle It denominato Web 2.0, che si differenzia dal precedente Web 1.0 per un maggiore coinvolgimento del consumatore, che, mediante
feedback è chiamato a esprimere pareri e
a interagire con il produttore-rivenditore,
per modellare su di lui un’offerta ancor
più personalizzata. L’utente diventa parte attiva del processo di produzione e, in
talune circostanze, è in grado di orientare,
se non condizionare, il produttore nella
scelta delle specifiche – colori o accessori – del prodotto, con evidente vantaggio
per entrambi. Si parla di B2C ovvero Business to consumer, per sottolineare come
i modelli di business siano sempre più
orientati al cliente e focalizzati alle sue
esigenze.
Il fatturato del commercio elettronico
si attesta in Italia intorno a 5 miliardi di
euro, solo l’1% delle transazioni commerciali nel loro complesso (fonte: School of
Management del Politecnico di Milano,
2008). Dei 18 milioni di italiani che hanno
accesso a Internet, la maggior parte l’utilizza solo per fare info-commerce, ovvero
per avere informazioni più dettagliate sui
prodotti e per comparare i prezzi, rimanendo ancora legata ai tradizionali canali di distribuzione; solo un terzo, infatti,
completa la transazione on line. Com-
Tecnologie dell’informazione
Distribuzione degli acquisti via Internet
altro
4%
home products
12%
17%
13%
grocery
11%
8%
3%
4%
ticketing
5%
7%
12%
abbigliamento
14%
10%
editoria, musica, audiovisivo
7%
7%
informatica ed elettronica
13%
14%
1%
1%
3%
66%
turismo
Fonte: School of Management - Politecnico di Milano
parati con i dati provenienti dagli Stati
Uniti – dove il commercio elettronico ha
avuto le sue origini (il 94% degli utenti
con accesso a Internet effettua almeno un
acquisto on line l’anno) – e con i dati della
Gran Bretagna (con un 6% delle vendite
in rete su quelle complessive al dettaglio,
contro uno 0,49% dell’Italia), i numeri relativi all’Italia dimostrano che c’è ancora
molto da fare e che esistono dei margini
enormi di crescita. Non dobbiamo allora
stupirci se la madre dell’e-commerce, la
società americana Amazon, non ha ancora
preso piede in Italia preferendo il mercato
asiatico, dove il livello tecnologico e le
energie e le risorse investite in innovazione sono di gran lunga superiori.
Dalle ricerche di Netcomm, l’associazione delle società italiane di e-commerce, emergono dati interessanti anche sulla
composizione del paniere del commercio
elettronico. I due terzi delle transazioni
on line riguardano, infatti, il comparto
dei servizi, in particolar modo quello turistico, a differenza di quanto si registra
nell’Europa a 27 e negli Stati Uniti, in cui
vi è un maggiore equilibrio tra le varie
aree di business (vedi il grafico).
34%
34%
Europa
Usa
Italia
Per adeguarsi alle esigenze di celerità che sono ancora di più quelle che già esilegate alle transazioni on line si sono svi- stevano e che devono compiere un granluppati, inoltre, nuovi strumenti di paga- dissimo sforzo per adeguarsi ai nuovi e
mento, che rimettono in discussione l’uti- ormai inevitabili sistemi di commercio.
lizzo della moneta tradizionale che fino a Una riconversione, quindi, esiziale per
oggi ha caratterizzato la quasi totalità delle molte ma che ha rappresentato, per quelle
transazioni. Sono pochi i siti commerciali che hanno saputo cogliere l’opportuniche permettono di pagare la merce in con- tà, un trampolino che ha dato nuovo vitrassegno, essendo sempre più richiesto gore al commercio e all’economia. Non
il regolamento mediante carta di credito. resta che attendere che si attivino anche
Ancora più recente è l’innovativo sistema nel nostro paese sinergie su più fronti, in
Paypal – ideato dal gruppo E-bay – che con- modo tale che non esistano più barriere
siste in un conto intestato all’utente Internet infrastrutturali e di mentalità che limitino
mediante il quale
è possibile effetLe globalizzazione e la New Economy
tuare il pagamenhanno
generato
una concorrenza senza limiti, dalla
to senza dover
quale
le
imprese
possono difendersi solo mediante
condividere con il
una
maggiore
visibilità
sul web
venditore le informazioni personali
relative alla propria carta di credito o carta lo sviluppo di un sistema commerciale e
prepagata. Sicuramente un giusto incentivo di pagamento che presto o tardi diventeper incoraggiare il commercio in rete da rà, a livello globale, il principale sistema
parte di tutti coloro che sono ancora restii a di commercio. Di questo sistema, grazie
immergersi in un mondo di cui conoscono alla maggiore concorrenza tra le imprese
poco i meccanismi e le garanzie.
e alla maggior trasparenza informativa, il
Sono numerose le imprese che sono consumatore sarà essenziale protagonista
nate sul web, ma non dimentichiamoci e principale beneficiario.
“
”
panorama per i giovani
•
13
14
•
n. 2, maggio-agosto 2009
C’era una volta
la Silicon Valley
Elettronica, informatica, ingegneria aerospaziale. Breve storia di un
sogno americano.
In principio fu Hewlett-Packard Company, poi furono Cisco, Yahoo! e in breve
le aziende si moltiplicarono e prolificarono in un’area geograficamente limitata
come quella della Valle di Santa Clara, in
seguito ribattezzata Silicon Valley. Fu il
giornalista Don Hoefler che, in una serie
di articoli pubblicati nel 1971 dalla rivista
Electronic News, utilizzò per la prima volta la dizione di Silicon Valley per descrivere quella che a lui sembrava non tanto
un mero agglomerato industriale, quanto
una vera e propria comunità di persone,
idee, innovazioni, dove gli uomini “no-
nostante la loro serrata concorrenza nelle
ore di lavoro, fuori dall’ufficio rimangono
grandi amici”.
Gli inizi della Hewlett-Packard Company aprono, in un certo senso, la strada
seguita da molte delle aziende che sorgeranno lungo la Route 128 negli anni
immediatamente a ridosso della Seconda Guerra Mondiale. I due brillanti studenti della Stanford University, William
Hewlett e David Packard, furono incoraggiati dal professor Frederick Emmons
Terman, laureato del Mit ma docente di
ingegneria elettronica presso la Stanford,
panorama per i giovani
•
15
Foto: iStockphoto.com/PhotoTil
di Francesca Ronzio
Foto: Google Maps; iStockphoto.com
(mcswin; DanisTangneyJr)
Tecnologie dell’informazione
a fondare un’azienda per commercializzare un oscillatore radio da loro progettato durante i lavori di realizzazione
della propria tesi. Il professore, però, non
si limitò a parole di sostegno e a lettere
di raccomandazione: fu lui a prestare ai
giovani ingegneri i 538 dollari necessari
per iniziare la loro attività, a trovar loro
un magazzino per la sede della futura
HP, nonché a svolgere un ruolo di intermediario con la Banca di Palo Alto per
permettere ai suoi ragazzi di ottenere un
finanziamento per gli esperimenti iniziali
della loro impresa. Una curiosità: la prima
ingente commessa dell’azienda fu la vendita di otto oscillatori audio per gli studi
della Walt Disney.
La HP, come molte altre aziende simili
della zona, ebbe un vero e proprio boom
con la guerra in quanto gli ordini per apparecchi di misura elettronici, rilevatori e
analizzatori di segnali, nonché di altre tecnologie che si andavano perfezionando in
quegli anni, diedero un’enorme spinta propulsiva allo sviluppo. Il fattore veramente
peculiare è che questa spinta non si esaurì
alla fine della guerra, ma anzi crebbe in
maniera esponenziale facendo sì che, nel
1975, il complesso delle aziende di stanza
nella Silicon Valley o lungo la Route 128
fossero più di settanta e dessero occupazione a quasi 100.000 lavoratori.
16
•
n. 2, maggio-agosto 2009
Molti si chiedono quali siano stati
i fattori che hanno
portato a questa concentrazione di aziende e allo sviluppo di una florida economia
laddove prima non c’era nulla di tutto ciò.
Un fattore certamente determinante è stata
la presenza della Stanford University: come
si evince anche dalle brevi note sulla storia
della nascita di un’azienda del calibro della
HP, il ruolo carismatico della Stanford University, soprattutto nella persona del professore – e poi rettore – Terman, fu decisivo.
Egli incoraggiava le aziende di elettronica
e aerospaziali a localizzare i loro laboratori
nell’area della Valle di Santa Clara: convinse ad esempio la National Advisory Committee for Aeronautics (poi ribattezzata
Nasa) a stabilire in quest’area il Centro di
ricerche Ames Research Center, che poi diventerà il fulcro di tutta la ricerca aerospaziale. L’incoraggiamento, sia spirituale che
In alto a sinistra: una mappa della
Silicon Valley, che corrisponde alla
parte settentrionale della Valle di Santa
Clara, il cui capoluogo è San José. Si
possono vedere Palo Alto (sede di molti
centri di ricerca), Mountain View (sede di
Google) e Cupertino (sede della Apple).
In alto a destra: la Stanford University. A
destra: il Mit (Massachusetts Institute of
Technology), l’importante università della
costa orientale attorno alla quale si sono
raccolte altre imprese ad alto contenuto
tecnologico. Nelle pagine precedenti:
un’immagine della Silicon Valley.
materiale, che egli forniva ai suoi brillanti
studenti fece sì che in breve tempo crebbe
un ingente numero di piccole aziende che,
grazie alla genialità di molte idee (schede
perforate per i primi computer, transistor, il
klystron, cioè una ricetrasmittente disponibile a microonde), divennero velocemente,
da piccole, grandi. Si trattava di un vero e
proprio circolo virtuoso in quanto generalmente gli ingegneri più validi, dopo brevi
periodi di tirocinio, lasciavano le imprese
più grandi per fondarne delle altre com-
Tecnologie dell’informazione
plementari o concorrenti delle prime. Tutto ciò avveniva anche grazie all’ingente
disponibilità di capitali: grazie all’attività
dei venture capitalist l’industria locale dei
semiconduttori crebbe in questo periodo in
maniera davvero sorprendente. Anche la
stessa Stanford University seppe approfittare del talento dei suoi giovani ingegneri,
investendo direttamente nelle nuove società e finanziandole in cambio di royalties
sugli eventuali brevetti depositati. Questo
modello fu di tale successo che ancora oggi
le imprese di start up costituiscono uno dei
motori principali dell’innovazione statunitense, soprattutto nell’ambito delle imprese
di tipo tecnologico.
Un altro elemento di indiscutibile peculiarità nella storia della Silicon Valley è
stato, certamente, lo spirito di amicizia e
di familiarità che regolava i rapporti tra gli
addetti ai lavori a tutti i livelli della scala
gerarchica. Nei primi anni Settanta un collaboratore della rivista Fortune scriveva:
“Un livello di cooperazione fra le aziende
semplicemente sorprendente, quasi giapponese tanto è stretto, ha aggiunto ancora più
impeto alla discendenza di Santa Clara”.
Fra gli anni Sessanta e i Novanta le imprese create dagli ex-alunni della Stanford
hanno dato lavoro a quasi 250mila americani; il settore brevetti del Mit ha, secondo
alcuni, fruttato circa 150mila posti di lavoro con un fatturato di 10 miliardi di dollari
l’anno. Il “modello Mit-Stanford” è stato
fondamentale nello sviluppo della Silicon
Valley e, più in generale, dell’economia
americana, ma nulla sarebbe potuto accadere senza la lungimiranza del professor Terman e la sua fiducia nei suoi studenti, tra i
quali ricordiamo, oltre ai già citati Packard e
Hewlett, Leonard Bosak e Sandra Lerner, i
coniugi fondatori della Cisco Systems, Scott
McNealy, Vinod Khosla a Abdy Bechtolsheim, fondatori della Sun Microsystems, a
lungo la maggior rivale di Microsoft, David
Filo e Jerry Yang, creatore del motore di ricerca Yahoo! e molti altri ancora.
Google: società informatica con
sede a Mountain View in California.
Fu fondata nel 1998 da Larry Page
e Sergey Brin, due studenti della
Stanford University che hanno ideato
e reso operativo uno tra i più potenti
motori di ricerca che il World Wide
Web conosca, basato sull’idea,
esposta dai due padri di Google
negli anni del loro dottorato, che
un’attenta analisi fra le relazioni dei
siti internet avrebbe potuto produrre
risultati nettamente al di sopra di quelli
ottenibili con gli altri motori di ricerca.
Dopo aver bussato a varie porte, i
due giovani informatici decisero di
provarci da soli e nel giro di poco, il
7 settembre 1998, nacque all’interno
del garage di un amico di entrambi,
Google Inc. Il nome della società
trae origine dal termine matematico
“googol”, indicante la cifra formata da
un 1 seguito fa 100 zeri. La società
è cresciuta di anno in anno fino a
quando nel 2004 è ufficialmente
entrata a far parte del mondo delle
aziende quotate a Wall Street.
Da un punto di vista strettamente
tecnico il corretto funzionamento
di questo motore di ricerca si basa
su oltre 10.000 computer con
sistema operativo GNU/Linux, i quali
permettono di ottenere i risultati
delle ricerche ordinati in base a un
algoritmo che tiene conto sia del
contenuto delle pagine indicizzate sia
dei link che fanno riferimento a quelle
pagine. Google, infatti, dispone di un
database di diversi terabyte (1012 byte)
all’interno del quale sono indicizzati
una quantità enorme di siti internet.
La funzionalità e l’estrema efficienza
di Google sono indiscusse: circa
l’80% delle ricerche effettuate online
sono realizzate con questo motore.
Google è anche tanto di più: sono
numerosi e variegati i servizi offerti da
Google: Google Maps (che permette
di visualizzare mappe e foto satellitari
della superficie terrestre), Gmail,
Google Reader, Google Books (ovvero
il Progetto Biblioteca che è nato al fine
di indicizzare e digitalizzare l’intero
patrimonio librario mondiale).
panorama per i giovani
•
17
Tecnologie dell’informazione
A me il sorgente!
Viaggio nel mondo di Gnu e del software libero.
Questa è la storia di un programmatore che librio di quella comunità: l’architettura
ha un sogno: costruire talmente tanto soft- dell’elaboratore Digital PDP-10, di cui
ware libero da rendere obsoleto e inutile il era dotato il laboratorio, era molto funsoftware proprietario. Questa è la storia di zionale alla situazione degli anni Sesun programmatore che ha gustato da stu- santa e Settanta, ma non adatta alla tecdente la possibilità di scambiare, modifi- nologia del nuovo decennio. Purtroppo
care, adattare alle proprie specifiche esi- i calcolatori moderni portavano con sé
genze i programmi utilizzati – in uno spi- una sgradevole novità: l’utilizzo dei loro
rito positivo e collaborativo di perpetuo sistemi operativi era vincolato alla firma
sviluppo del software – e che quindi non di un contratto di non diffusione da parte
può rassegnarsi ad acquistare un pacchet- dell’utente. In pratica non era più possito informatico per poi non essere in con- bile modificare arbitrariamente il codice
dizione di sfruttarne al massimo le poten- sorgente del sistema né condividerlo e
zialità. Questa è la storia di chi crede che svilupparlo con altri programmatori. Il
disporre di un programma significa anche sistema operativo di quelle macchine
e soprattutto avere accesso al suo codice non era più “libero” e si apriva l’era del
sorgente, ossia all’insieme delle istruzioni software “proprietario”. Il laboratorio di
che consentono alla macchina di generare Intelligenza artificiale fu equipaggiato
il programma eseguibile. In breve, questa con macchine su cui girava software non
è la storia di Richard Stallmann, di Linus libero e quell’affiatato gruppo di hacker
Torvalds, di Eric Raymond e di chi come si dissolse rapidamente. Nel 1984 anche
loro, contrariamente a molte grandi azien- Richard lasciò il prestigioso Mit: non
de dell’Ict, pensa che la libera modifica e riusciva ad accettare che la programmal’adattamento di un prodotto informatico zione non potesse più essere condivisiosiano naturali quanto la sua scrittura o la ne, team work, confronto; né tollerava
che gli utenti dei suoi lavori dovessero
sua utilizzazione.
Doveva divertirsi un mondo il buon scontrarsi contro così tante limitazioni
Stallmann quando, nei primi anni Settanta, al loro utilizzo. Lanciò dunque la sua oriniziava a lavorare nel laboratorio di In- gogliosa sfida al nuovo sistema: nasceva
telligenza artificiale del Mit: in quell’am- il progetto Gnu (acronimo ricorsivo di
biente, giovane e brillante, la condivisione Gnu’s not Unix).
L’idea di Gnu è al contempo semplidel software era la norma e l’idea di utilizzare un programma senza poter accedere ce e ambiziosa: costruire e proporre al
al suo sorgente era del tutto impensabile. mercato tanto nuovo software in grado
Gli hacker (il termine va inteso nel signi- di sostituire quanto più possibile quello
ficato originario di bravo programmatore) proprietario; tale software però doveva
di quel fortunato laboratorio concepivano essere libero, ossia portabile su architetil software come
un oggetto in
Chi crede nell’open source crede
perpetuo svilupche disporre di un programma significhi anche e
po, cosicché era
soprattutto avere accesso al suo codice sorgente e
naturale scamsfruttarne le massime potenzialità biarsi i programmi, modificarne
i sorgenti, adattarli alle proprie esigenze, ture differenti, liberamente modificabile e
sperimentarvi sopra idee e linee di pro- ridistribuibile sul mercato, adattato o no,
grammazione originali, correggerne i bug. senza l’imposizione di alcuna royalty verCirca dieci anni dopo, all’improvvi- so gli sviluppatori storici. L’idea di free
so, un evento inatteso sconvolse l’equi- software proposta da Stallman nell’am-
“ ”
panorama per i giovani
•
19
Foto: iStockphoto.com/Raycat
di Carmelo Di Natale
Tecnologie dell’informazione
tuttavia non è detto che tale software sia
disponibile gratuitamente.
Un anno più tardi, nel 1985, veniva fondabito del progetto Gnu non è altro che la
mera riproposizione di ciò che era l’infor- ta la Free Software Foundation (Fsf), un’ormatica prima dell’avvento del software ganizzazione senza fini di lucro il cui obietproprietario. Va sottolineato che software tivo principale era, e tuttora è, la produzione,
libero non è, né vuole essere, sinonimo di lo sviluppo e la distribuzione di software lisoftware gratuito: il software Gnu è libero bero. Fsf si è subito preoccupata di stabilire
nel senso che l’utente ha accesso al suo in modo rigoroso, giuridicamente vincolante,
sotto quali condizioni il software
L’idea di free software proposta da Stallman
possa dirsi libero;
nell’ambito del progetto Gnu non è altro che la
è stato pertanto stimera riproposizione di ciò che era l’informatica
lato un elenco di
prima del software proprietario caratteristiche minime, reperibile senza
sorgente, non è gravato da alcuna limita- difficoltà su Internet, necessarie perché un
zione con riguardo all’utilizzo e alla dif- programma disponibile sul mercato sia effetfusione, può usufruirne in totale libertà; tivamente free software.
In alto: il pinguino, simbolo del Linux.
“
20
•
”
n. 2, maggio-agosto 2009
Il primo fondamentale problema che
Stallmann e la sua Fsf dovettero presto
affrontare fu quello di sviluppare un sistema operativo libero: nessuna applicazione,
infatti, può operare su alcuna macchina se
questa non è dotata di un sistema operativo.
Tuttavia, come ogni informatico sa bene,
scrivere un sistema operativo è assai complesso; oltre al kernel, il cuore del sistema
che gestisce tutte le operazioni di basso
livello come ad esempio la gestione delle
risorse hardware, sono necessarie infatti librerie, editor di testo, compilatori ecc.: un
lavoro estremamente corposo che richiede
competenze diverse. Uno dopo l’altro furono sviluppati e distribuiti Emacs, Alix,
Gnome, TeX, X Window, Bash, Gcc, la
fondamentale libreria C di Gnu e tanto
altro software indispensabile
a un sistema operativo moderno e funzionale. Mancava
ancora, però, il kernel!
I programmatori del sistema Gnu stavano da molto
tempo lavorando a Hurd (un
kernel
Unix-compatibile)
con cui integrare il sistema,
quando nel 1991 un brillante
programmatore finlandese,
Linus Torvalds, completava
la prima versione di Linux:
quella data rappresenta uno
dei momenti più importanti dell’informatica moderna.
Linux è un kernel potente e
leggero concepito per girare
in ambiente Unix, ideale per
le caratteristiche e gli obiettivi
del sistema Gnu; nasceva così,
dal matrimonio di Gnu e di Linux, dall’incontro tra Richard
e Linus, il sistema operativo
Gnu/Linux, il primo sistema
operativo (completo in tutte le
parti essenziali) del tutto libero dall’avvento del software
proprietario. Il progetto Hurd
è stato naturalmente molto
rallentato, ma non accantonato: si vuole infatti fare di Hurd
un kernel compatibile con
ambienti diversi da Unix.
Oggi il sistema operativo
Gnu/Linux è disponibile in
una quantità enorme di release differenti aggiornate continuamente: sono reperibili (basta una ricerca con Google)
Tecnologie dell’informazione
“ ”
chi sono
Richard Matthew Stallmann è un
computer scientist statunitense.
Laureato in fisica ad Harvard,
inizia a interessarsi all’informatica
ed è assunto dal laboratorio di
Intelligenza artificiale del Mit.
Paladino del free software, si
dimette dal Mit per dar vita al
progetto Gnu. È lo sviluppatore
principale del potente editor
Gnu Emacs. Attualmente vive a
Cambridge, nel Massachusetts.
Linus Torvalds è un
programmatore finlandese.
Laureato all’università di Helsinki,
inizia a lavorare al kernel Linux
alla fine degli anni Ottanta perché
insoddisfatto da Minix, un sistema
operativo didattico sviluppato da
un suo professore. Nel settembre
1991 Linus ne completa la prima
versione, Linux 0.01. Attualmente
vive in California.
Eric Steven Raymond è un
famoso hacker statunitense.
È il profeta dell’open source e
il fondatore dell’Open Source
Initiative. Ha collaborato
alla scrittura di Emacs ed è
lo sviluppatore principale di
Fetchmail, un software open
source che eroga servizi di posta
elettronica. Attualmente vive a
Boston.
Al di là dei nomi (praticamente tutto
il software che l’Osi classifica come open
source è considerato free software da Fsf
e viceversa), l’esperienza degli ultimi
vent’anni ha dimostrato che la disponibilità del codice sorgente garantisce agli
utenti prestazioni migliori e meno costose
computazionalmente e agli sviluppatori
un enorme bacino di potenziali cosviluppatori in grado di rilevare bug, proporre
miglioramenti, sperimentare il software su
testing machine diverse, ecc. A differenza
del software proprietario, il software libero
aggiornato è però disponibile l’indomani
su Internet, anziché tre o quattro anni dopo
quando è pronta la nuova versione!
panorama per i giovani
•
21
Foto: iStockphoto.com/Eraxion
Purtroppo il termine inglese free è caratterizzato dall’intrinseca ambiguità libero/gratuito, cosicché molte imprese continuano a essere scettiche nei confronti del
software libero,
percepito come
Linux, creato dal finlandese Linus
antitetico al comTorvalds, è un kernel potente e leggero, concepito
mercio. Per ovper girare in ambiente Unix, ideale per le
viare a questo incaratteristiche e gli obiettivi di Gnu
conveniente, nel
1998 l’informatiscrive) in ogni parte del mondo ed è parti- co americano Eric Raymond insieme ad alcolarmente apprezzato in ambiente scienti- tri programmatori sconfessò il termine free
fico. La reperibilità del sorgente permette di software sostituendolo con open source
individuare rapidamente gli inevitabili bug software e diede vita all’Open Source Inie di correggerli in fretta. Ormai anche mol- tiative (Osi), un progetto con fini pressote aziende, inizialmente diffidenti, dotano i ché identici a quelli di Fsf. Stallmann non
loro calcolatori con software libero.
ha mai digerito quest’iniziativa...
versioni user-friendly (Ubuntu) o per utenti
più esperti (Fedora, Debian). Il sistema operativo Gnu/Linux è presente ormai su tantissimi computer (compreso quello di chi
Tecnologie dell’informazione
Mettersi in gioco
Informatica, nuove tecnologie e comunicazione non sono soltanto
discipline accademiche, ma grandi realtà difficili da emulare: in tanti
hanno provato a mettere in pratica conoscenze e intuizioni per creare
una realtà imprenditoriale propria. Molti ci sono riusciti, in giro per il
mondo e qualcuno anche in Italia. Uno di loro è un allievo dal Collegio
Universitario “Lamaro Pozzani” che in 9 anni ha costruito una realtà di
rilevanza nazionale. Abbiamo incontrato Leonardo Ambrosini per farci
raccontare la sua storia.
a cura di Carla Giuliano
Ingegner Ambrosini, lei è uno dei fondatori di Nexse srl, una delle imprese
più innovative nel campo dell’informatica e delle nuove tecnologie. Ci racconta di cosa si occupa esattamente la sua
azienda?
“Nexse”, come si può leggere sul nostro
sito (www.nexse.com), è un termine attinto dal vocabolario etrusco, che più o
meno significa “colui che è connesso”, da
cui sembra derivi l’odierno “nesso”. Per
noi che realizziamo “codice” per servizi
in “connettività”, tale nome ben enfatizza
il “nesso” con le nostre origini storiche,
avvalorato dal fatto che il complicato vocabolario etrusco ancora oggi non è stato
del tutto de-codificato.
La nostra è una società di ingegneria
informatica costituita da quattro ingegneri e un fisico nel 2000, che progetta,
realizza e integra applicazioni e servizi
per Internet e telefonia mobile ad alto
contenuto tecnologico e innovativo, per
grandi società di servizi, industria, utility,
finance, trasporti, operatori di telefonia
e pubblica amministrazione. Dal 2000
a oggi siamo cresciuti costantemente in
personale e fatturato, grazie anche alla
nicchia di mercato vivace e in espansione
in cui operiamo (la convergenza dei servizi internet e mobili), raggiungendo un fatturato annuo di 5 milioni di euro. Il nostro
gruppo conta ormai più di 90 dipendenti,
principalmente ingegneri informatici, ed
è ancora in crescita.
Diventare imprenditori a 28 anni e rischiare in proprio: un azzardo o una
scelta calcolata? Quali sono state le
22
•
n. 2, maggio-agosto 2009
difficoltà più grandi? Quelle più inattese? Il gruppo iniziale di soci è ancora
unito? Dopo quanto avete ripagato il
vostro investimento iniziale?
Un azzardo, senza dubbio. Quando ho occasione di presentare la storia dell’azienda, la prima caratteristica che mi piace
sottolineare è che è stata avviata (e continua tutt’oggi a essere gestita) con capitali
propri, senza alcun ricorso a risorse economiche esterne, quali banche, incubatori, venture capitalist o finanziatori. Insomma, a distanza di anni oggi posso serenamente affermare che si è trattato di un
vero e proprio “azzardo” imprenditoriale,
perseguito con istinto e contro ogni regola di business administration: ma è stato
proprio tale azzardo la chiave del successo, consentendo all’azienda di muoversi
libera da vincoli di obiettivi o debiti e di
adattarsi rapidamente alle continue evoluzioni delle tecnologie informatiche e
delle esigenze di mercato. Naturalmente
tutto ciò è stato reso possibile dal particolare settore industriale in cui ci moviamo,
i cui investimenti iniziali sono prevalentemente rivolti all’acquisizione di knowhow e capitale umano, e da un’oculata e
prudente gestione delle risorse. E dopo
circa tre anni l’investimento iniziale è
stato ripagato.
Le difficoltà più grandi e inattese?
Sicuramente la gestione del personale:
agli inizi di quest’avventura era per me
inimmaginabile prevedere le difficoltà e
le energie nel creare percorsi di crescita
professionale soddisfacenti, conciliando
le aspirazioni dei variegati caratteri delle
persone con le altalenanti e imprevedibili
esigenze di mercato e con i mutamenti
tecnologici. A volte, più che ingegnere
informatico, mi trovo a svolgere il ruolo
di... “ingegnere psicologico”!
La compagine sociale è rimasta invariata nel tempo: tutti i soci partecipano
con un proprio specifico ruolo alla gestione aziendale che, nel frattempo, si è estesa
in “gruppo” con la creazione di ulteriori
aziende peculiari e distinte: WLab, Nexse
Technology srl (specializzata in tecnologie Microsoft) e la neo-costituita Nexse
Solutions srl (operante nell’ambito della
sicurezza e della difesa).
Il suo campo affronta ogni pochi mesi
una continua mutazione, a volte appare
quasi frenetico. Si lanci in una previ-
sione: di cosa si occuperà di qui a tre
anni?
tecnologie emergenti in ambito wireless e
mobile, che per noi sono il futuro.
Per una realtà delle nostre dimensioni tre
anni sono troppi: in un ambito in così rapida evoluzione è più opportuno fare previsioni a 6-12 mesi e l’innovazione è l’unica strada per tentare di precorrere i tempi,
anche se di poco, rispetto alla concorrenza. E l’unico mezzo per fare innovazione
è la ricerca. Per questo Nexse ha dato vita
a una consolidata collaborazione con le
Università di Roma “La Sapienza”, “Tor
Vergata”, “RomaTre” e il centro ricerche
Enea (Cre-Casaccia), con cui ha promosso un laboratorio di ricerca applicata – WLab appunto – per esplorare nuove
opportunità e servizi principalmente nelle
Nel suo bilancio professionale quali
sono state le soddisfazioni maggiori?
Quanto sono costate, se sono costate,
in termini di sacrifici personali? A nove
anni di distanza rifarebbe tutto o sceglierebbe una vita più tranquilla?
Rifarei tutto, le soddisfazioni sono state e continuano a essere superiori ai pur
numerosi sacrifici personali. Chi intraprende questa strada lo fa proprio perché
non desidera una “vita più tranquilla”,
ma tenta di ritagliarsela il più possibile
rispondente alle proprie aspirazioni e attitudini.
Tra i riconoscimenti professionali che abbiamo ricevuto citerei il premio Unioncamere per la Giovane Impresa Innovativa,
del 2004, il Premio Perotto 2008 per il sistema “Remote Grocery Shopping via NFC” e
il piazzamento tra i 10 finalisti mondiali al
Nfc Forum Global Competition 2008.
Nexse è nata come un progetto di gruppo e continua a esserlo, attraverso la sua
composizione societaria. Considera questo un punto di forza o una debolezza da
superare prima o poi? Che cosa ha determinato il successo del gruppo iniziale?
La composizione, le competenze, i caratteri... Sarebbe stato possibile creare Nexse, o una parte delle sue attività, da solo?
Avrebbe preferito che andasse così?
panorama per i giovani
•
23
Foto: iStockphoto.com/mikdam
Tecnologie dell’informazione
Tecnologie dell’informazione
e ceti sociali deboli); la seconda è data
dall’impatto sulle risorse naturali in termini di sostenibilità. Il mondo intero sta
prendendo coscienza di queste problematiche che, se non risolte, porteranno a un
declino anziché a un ulteriore progresso.
La tecnologia dell’informazione ha un
ruolo nello sviluppo energetico? Potrebbe essere usata (anche solo attraverso i suoi algoritmi, per esempio, di
ricerca operativa) per ridurre gli sprechi nella distribuzione?
L’informatica riveste un ruolo importante in tale settore ed è già ampiamente
utilizzata nella gestione e automazione
delle centrali, degli impianti e delle reti
di distribuzione, oltre ai sistemi di simulazione e di analisi dei dati. In particolare,
Nexse ha collaborato a lungo con Wind
nell’ambito di un importante progetto di
telelettura dei contatori Enel; da tempo
partecipa a un gruppo di ricerca di Enea
su algoritmi di ottimizzazione dei sistemi
di controllo delle centrali elettriche, ottenendo anche finanziamenti pubblici per il
loro sviluppo (è in cantiere la costituzione
di un’apposita società, Nexse Energy).
Impossibile creare Nexse da solo; l’azienda è come una squadra la cui rosa cresce
nel tempo: solamente se la formazione
iniziale è estremamente affiatata e ben distribuita riuscirà a convincere e ad attrarre
nuovi elementi. Inoltre una delle maggiori
soddisfazioni professionali è data proprio
dalla gratificazione di confrontarsi con gli
altri nelle scelte più difficili e di condividerne successi e fallimenti.
Ritiene che esperienze particolari del
suo curriculum come essere stato allievo del Collegio Universitario “Lamaro Pozzani” o particolari periodi
lavorativi prima di fondare Nexse
siano stati determinanti per il suo successo? Perché?
Sì, assolutamente: il Collegio Universitario ha rappresentato un valore aggiunto
importante nella mia formazione culturale
e mi piace ricordare che di fatto l’impresa
è una sorta di “collegio”, con le sue regole e i suoi obiettivi, che crede e coopera
a un’iniziativa comune con spirito d’eccellenza e competitività. Poi le esperienze
accumulate nei primi anni di lavoro han24
•
n. 2, maggio-agosto 2009
no consentito di approfondire le peculiari
specificità delle aziende e del mercato Ict,
le tendenze tecnologiche e le prime fondamentali relazioni professionali, rivelatesi poi determinanti nella nascita e nella
crescita di Nexse.
La tecnologia, con il suo inarrestabile
sviluppo, per lei semplifica la vita o la
complica? La sua corsa avrà un termine (catastrofico oppure no) oppure sarà
infinita? In una parola, cosa pensa del
progresso? E ritiene che sia possibile
renderlo sostenibile?
Domanda obbligata: che ne pensa di
Youtube, Facebook e in generale di
Internet 2.0? Sono un rischio per privacy ed equilibri, oppure un’opportunità? Come sarà Internet 3.0?
Siamo solo agli inizi, probabilmente tra
due o tre anni Youtube o Facebook saranno soppiantati da altri originali e attraenti
strumenti. Ma sono certo che, qualunque
sia la loro evoluzione, entro pochi anni
rappresenteranno per tutti (non solo per i
giovani o i giovanissimi) un mezzo quotidiano ed essenziale di comunicazione, un
po’ come avviene oggi con il cellulare e
gli sms. Come sarà Internet 3.0? Secondo
me questo tipo di terminologia non esisterà più, sostituita dalla totale convergenza
Credo semplicemente che il progresso sia
una naturale e inarrestabile evoluzione
dell’umanità, spinta sia da desiderio del
nuovo sia da
interessi econoImpossibile creare Nexse da solo: è
mici. Di sicuro
come
una
squadra
la cui rosa cresce nel tempo; è
dovrà affrontare
gratificante
confrontarsi
con gli altri, e condividere
due gravi quecon
loro
fallimenti
e
successi stioni: la prima
è rappresentata
dal crescente divario fra coloro che pos- tra telefonia, Internet e media, accessibisono usufruire delle nuove tecnologie e le ovunque e capace di fornire servizi e
coloro che ne sono esclusi (paesi poveri informazioni, i più disparati. Parlare di
“
”
Tecnologie dell’informazione
internet sarà un po’ come citare oggi Tacs
e Iridium, termini dimenticati ma in voga
nel decennio scorso.
Qual è la sua posizione sull’applicazione del diritto d’autore/proprietà intellettuale/creative commons in campo informatico? E sul software open source?
È il futuro o resterà una nicchia? E per
le società del campo rappresenta una
minaccia o un’opportunità?
Un programma software è una sorta di
opera creativa, un po’ come un quadro,
un libro o una canzone. Ma per sua natura non è e non potrà essere protetto dal
diritto d’autore. Oggi è possibile brevettare un algoritmo o, meglio, un processo
informatico. Ma quel che conta è la sua
“Nexse” è una parola che viene dall’ancora
misterioso vocabolario etrusco (in basso,
un antico bassorilievo proveniente da
questa civiltà) e significa “connessione”.
Nella pagina precedente: Leonardo
Ambrosini (in primo piano) con i soci di
Nexse nella rituale foto che ogni anno
scattano a Piazza del Popolo a Roma
nell’anniversario della fondazione della loro
società.
implementazione (ossia la realizzazione essere estesa e adottata liberamente da
per il tramite di un programma software) chiunque, con la certezza che proprio la
e lo stesso algoritmo/processo può essere sua crescente diffusione ne garantisce
implementato in tanti modi e tecnologie la robustezza, l’affidabilità e la sicurezdifferenti, pur ottenendo risultati analo- za. Una vera e propria “rivoluzione inghi. Ciò costituisce un
limite allo sfruttamenCredo che il progresso sia
to economico del sofuna naturale e inarrestabile evoluzione
tware, ma allo stesso
dell’umanità e che sia spinto dal desiderio del
tempo ne rappresenta
nuovo e da interessi economici
la sua forza, in quanto
ogni sviluppatore di
fatto è libero di creare quello che vuole.
dustriale”, silenziosa ma inesorabile e
Il software open-source è la diretta e straordinaria. Per Nexse rappresenta una
più evidente conseguenza di quanto ac- fondamentale opportunità di lavoro, in
cennato poco fa. Ormai adottato in tutti quanto siamo uno dei principali system
i principali ambiti produttivi, costituisce integrators italiani di piattaforme basate
una valida alternativa ai pacchetti com- su software open-source.
merciali (uno su tutti il sistema operativo
Linux in alternativa a Windows), rappre- Ci racconta qualcosa che non avrebbe
sentando una novità assoluta nella sto- mai pensato possibile nel suo campo e che
ria dei servizi: semplificando, possiamo invece si è trovato a vedere realizzato?
dire che mai prima d’ora si era assistito
a un modello produttivo in cui gruppi di Non avrei mai immaginato di dedicarpersone sparsi per il mondo cooperano mi all’acquisto di immobili attraverso
(prevalentemente a titolo gratuito) alla un’asta on-line, nel lontano 2004, corealizzazione di un prodotto (in questo modamente seduto in ufficio tra una ricaso un’applicazione software) che può unione e l’altra, supportato dall’assenza
di altri compratori evidentemente ignari
o spaventati da tale strumento; non avrei
mai immaginato di vedere oggigiorno
tanti colleghi e amici possedere costosissimi smart-phone (cellulari simili a
palmari) molto più potenti del mio Pc
di allora, ma di cui ignorano gran parte delle potenzialità; non avrei immaginato che il livello raggiunto dall’offerta di servizi applicativi e dispositivi
hardware fosse di gran lunga superiore
alle capacità di utilizzo da parte di noi
utenti, che continuiamo a comprare e ad
aggiornarci più per un fattore di status
che di effettiva necessità. Un po’ come
avere una Ferrari per andare in ufficio...
potere del marketing, sprovvedutezza
della gente.
“
”
Foto: iStockphoto.com/image_of_life
Oggi qual è il suo sogno professionale?
Ogni primo agosto c’è un appuntamento
molto semplice ma speciale. Con i miei
soci ci incontriamo per una foto di rito a
Piazza del Popolo a Roma, il luogo dove
nove anni fa nacque il progetto Nexse. Mi
piacerebbe rinnovare questo simpatico
appuntamento ancora per molti anni, con
il medesimo entusiasmo che ci ha contraddistinto sinora.
panorama per i giovani
•
25
Tecnologie dell’informazione
Il tormenta
fra l’Uomo e
Tra gli innumerevoli linguaggi ormai affer
tecnologica premierà? O meglio, esiste un
un buon prodotto software?
Cosa sia un linguaggio di programmazione è presto detto: una macchina viene schematizzata, secondo una diffusa
notazione, come uno stack di macchine virtuali (Vm). Sul fondo risiede la
“macchina fisica”, che è meramente
l’insieme di circuiti elettronici di cui è
composta. Gli strati per così dire superiori, invece, non esistono nella realtà,
non sono palpabili e sono detti strati
“logici”. Questi ultimi si introducono
per poter astrarre dal funzionamento
dei singoli transistor e poter vedere la
macchina al livello di “quel che fa”
più che di “come è fatta”. Il risultato
è che l’utente finale, allorché col proprio mouse stuzzicherà le icone del suo
desktop, non dovrà preoccuparsi del
parapiglia di circuiti elettronici che sta
attivando per vedere illuminarsi una
stringa di testo. Ora, il linguaggio di
programmazione non costituisce altro
che uno dei tanti livelli di astrazione.
Più ci si pone in alto nella pila di
astrazione, più comunicare con la mac26
•
n. 2, maggio-agosto 2009
china diventa intuitivo ed assistito da
interfacce. Ma allora perché non lavorare sempre al più alto livello possibile?
Semplice: perché più si sale nella gerarchia degli strati virtuali, più è ristretta la
visione della macchina. Il che vuol dire
che in un ambiente grafico ci si muove
allegramente, ma si riduce notevolmente
il grado di interazione con la macchina
stessa.
Proprio a questa visione si riconduce il modo di catalogare i linguaggi di
programmazione in linguaggi di “alto
livello” o “basso livello”. “C” è sicuramente il linguaggio di più basso livello
tra quelli comunemente utilizzati. Java,
invece, astrae da qualsiasi cosa: dal disco alla memoria; dallo schermo al sistema operativo. Esso si pone di gran
lunga più in alto di C nella gerarchia.
C++ si trova per così dire in mezzo e
costituisce un compromesso tra le potenzialità di C e il comportamento amichevole verso il programmatore tipico
di Java.
C è estremamente performante: il codice generato programmando in C non
è sovraccaricato con tutti i fronzoli dei
suoi discendenti orientati agli oggetti. È
insomma una sorta di linguaggio macchina aggraziato che dispone di strumenti
che permettono di trapassare gli strati di
virtualizzazione e accedere direttamente
all’hardware.
Di Java si può affermare tutto il contrario: con pochissime righe di codice
si creano programmi in grado di essere
eseguiti su qualsiasi macchina. Questa
possibilità è garantita dall’inserimento
di uno strato di virtualizzazione della piattaforma intermedio, detto Java
Virtual Machine (Jvm). È semplicissimo costruire interfacce grafiche e applicazioni che sfruttino connessioni di
rete, database e quant’altro. Il prezzo
da pagare è sempre e comunque la per-
Foto: iStockphoto.com (enpt-poloskun;
edfuentesg)
di Renato Mancuso
Tecnologie dell’informazione
ato dialogo
la Macchina
rmatisi, quale è quello che l’evoluzione
na scelta sempre vincente per sviluppare
formance e sovente anche l’incapacità
di comunicare con la piattaforma sottostante.
Allora, quale linguaggio è destinato
ad affermarsi nel lungo periodo? Si potrà
chiudere un occhio sulle performance e
occuparsi solo della portabilità? O viceversa?
Quando si intende produrre un software, si utilizzano modelli di sviluppo
articolati in fasi consecutive, durante le
quali si definisce la struttura del prodotto in maniera iterativa e si procede per
raffinamenti sempre successivi. La fase
di stesura del codice corrisponde a una
delle ultime di questo processo e va sotto il nome di “implementazione”. Ora,
quando il software è stato ben definito e
il progetto dettagliato è pronto, si devono fare i conti con le tecnologie che si
hanno a disposizione per scegliere – tra
l’altro – il linguaggio di programmazione più opportuno rispetto alle esigenze di
sviluppo.
Come è intuibile, tali esigenze sono
di tipo sempre differente, perché in generale differenti sono le specifiche su cui
si vuole che il software venga costruito.
Questo implica che semplicemente non
esiste un scelta ottima. In alcuni casi
sviluppare velocemente un software che
sia facilmente integrabile costituisce
l’opzione vincente; altre volte, invece,
il programma dovrà sfruttare appieno le
potenzialità del sistema su cui viene installato.
Nel ristretto ambito di un dato contesto di sviluppo, quindi, le scelte dei
linguaggi sono piuttosto chiare, alla luce
dell’esperienza maturata e dei vantaggi
osservati.
Linguaggi di alto livello come Java o
Php o Asp sono notevolmente utilizzati
nella produzione di applicazioni Web.
Essi mettono a punto un buon layer di
interazione tra applicativo e Web server, consentendo una rapida scrittura di
codice che rispetti canoni di sicurezza,
dinamicità dell’output prodotto e integrazione con altre tecnologie Web. Non
solo: ora che le virtual machines in grado di eseguire codice Java hanno raggiunto un buon grado di ottimizzazione
e riescono agevolmente a operare anche
su macchine dalle prestazioni mediobasse, quali i personal-computer, sta
prendendo piede la tendenza a codificare in questo linguaggio anche software piuttosto corposi: dal photo-editing
(Iris) agli ambienti di sviluppo integrati
(NetBeans).
Scegliere un linguaggio di programmazione del livello più basso possibile
è invece praticamente obbligatorio nel
caso di sviluppo di software critico.
Ancora adesso, la parte fondamentale di
un sistema operativo anche evoluto viene scritta in C. In primo luogo perché
sarebbe impossibile scrivere uno dei
primi strati di virtualizzazione dell’hardware, quale è il sistema operativo,
presupponendo l’esistenza di un’ulteriore strato intermedio. In secondo luogo perché, quand’anche lo si facesse, il
risultato finale sarebbe di qualità così
scadente da non essere nemmeno lontanamente utilizzabile. Basti pensare che
è addirittura sconsigliato l’impiego di
C++ per la stesura di simili componenti
software .
Per concludere, portiamo un esempio esplicativo: la scrittura di codice
estremamente performante è importante nel caso si debba implementare un
sistema per la gestione di basi di dati
(Dbms, Data Base Management System). Tali software possiedono restrizioni molto forti sui tempi di servizio e
il numero di richieste per unità di tempo
da soddisfare. L’ottimizzazione in questi casi è praticamente vitale. MySql,
uno dei più celebri Dbms open-source,
è infatti scritto in C e C++, ma se si va
a vedere qual è l’interfaccia ai dati che
esso offre, ci si imbatte in un linguaggio di alto livello come Sql (Structured
Query Language), a sua volta utilizzato all’interno di altri linguaggi per realizzare la comunicazione con database
remoti e non.
Quello che si può dire, in sostanza, è
che l’esistenza di una molteplicità di linguaggi con le più diverse caratteristiche
ha un ovvio motivo di esistere. Non solo,
ma è inaccettabile l’idea che questa varietà sia destinata a scemare nel tempo. La
tendenza più prevedibile è tutt’altra: che
si creino mezzi di integrazione tra tecnologie di sviluppo sempre più evoluti e che
siano in grado di bilanciare pregi e svantaggi derivanti dall’uso dei numerosi linguaggi in gioco.
panorama per i giovani
•
27
Foto: The 3 Wise Men (Copyright Animagicstudio / Carrere Group / Telemadrid)
Tecnologie dell’informazione
Un mondo in 2D
Software che aiutano gli animatori a realizzare le loro affascinanti
opere. Intervista a Gian Marco Todesco, direttore Ricerca e Sviluppo
della Digital Video.
di Selene Favuzzi
Vengo accolta in uno studio luminoso,
dall’arredamento semplice ed essenziale,
con quel leggero disordine da luogo vivo,
non mera postazione asettica e impersonale.
Fuori dalla porta tanti computer e gente
che lavora, moltissimi i giovani.
È quasi difficile immaginare che grazie a loro siano stati realizzati capisaldi
dell’animazione, come Balto, Anastasia
o alcuni capolavori dello Studio Ghibli,
come La città incantata, La principessa
Mononoke, Il castello errante di Howl.
Mentre sto per cominciare l’intervista
arriva un pacco: sono due volumi che arrivano dalla Germania, dove l’anno scorso,
“l’Anno della Matematica”, era stata indetta una “call for videos”.
Fra le pagine a colori vi è anche un
iperdodecaedro firmato Todesco. Il nostro
intervistato strappa il cartone come un
bambino che scarti un regalo, e si emoziona entusiasta nel guardare le stupende
figure che animano quelle pagine.
Iniziamo adesso però l’intervista…
28
•
n. 2, maggio-agosto 2009
In che cosa si è laureato e come ha iniziato a lavorare?
Mi sono laureato in fisica e sono entrato nell’Infn (Istituto Nazionale di Fisica
Nucleare), dove ho partecipato alla creazione di “Ape”, un calcolatore che sfrutta
circuiti realizzati appositamente, e la potenza di calcolo globale fornita da molteplici processori che lavorano insieme, per
raggiungere svariati miliardi di calcoli al
secondo.
Quindi ha sin da subito capito quali
erano le sue aspirazioni?
Assolutamente sì. È dalla seconda superiore che ho compreso quello che realmente volevo fare; infatti la mia tesi
di laurea aveva come oggetto l’informatica.
In cosa consiste allora il suo lavoro
come direttore del reparto R&S?
Principalmente nel coordinare il lavoro
di tutti gli operatori informatici che cercano di migliorare e far evolvere i nostri
software o produrne di nuovi; nel gestire
al meglio le relazioni con l’esterno della
società e con i potenziali clienti.
Qual è il lavoro svolto più in generale
dalla vostra società?
La Digital Video Spa realizza animazioni
in 2D. Si tratta di prodotti di qualità che
presuppongono gran cura e attenzione ai
minimi particolari.
Per fare questo, il principale prodotto della nostra azienda è Toonz. Ci sono circa
altri cinque o sei software alternativi a
Toonz.
Siamo solo una ventina di informatici, ma
il mercato di utenza è globale.
Tecnologie dell’informazione
su due file di binari collegate da innumerevoli scambi.
Ovvero?
Uno dei vostri principali clienti è lo
Studio Ghibli, legato al nome del quasi
leggendario regista giapponese Hayao
Miyazaki. Che tipo di rapporto è il vostro?
Oserei definirlo quasi un rapporto di stimolo reciproco, una crescita in parallelo
Lo Studio Ghibli acquista numerose licenze di utilizzo del programma, e noi
cerchiamo in cambio di realizzare i miglioramenti che uno studio di tale importanza richiede.
È un’interazione continua e costante. Circa ogni anno infatti esce una nuova versione del software.
Per noi è fondamentale capire cosa vogliono i nostri clienti, e volgere in tale direzione i nostri sforzi, soprattutto quando
si parla di professionisti di straordinario
talento come Miyazaki.
La qualità del nostro prodotto è sensibilmente aumentata.
Quindi vi è un confronto continuo... ma
nella gestione di un rapporto così importante, qual è lo spazio attribuito alla
dimensione umana?
È il più ampio possibile, i contatti infatti
non avvengono meramente via Internet,
ma sono molto numerosi gli incontri personali.
Da poco ad esempio sono stato in Giappone per vedere in prima persona l’ambiente lavorativo degli animatori, per
cercare di capire effettivamente quale
sia la loro tecnica produttiva (risalendo
in parte alla lontana epoca del lavoro a
mano), ovvero quali siano gli strumenti, quanti i fogli che tengono sempre sul
tavolo...
Direi quasi un modo per restituire un
ambiente familiare, dove non si sentano spersi e possano prendere pieno possesso del proprio spazio e della propria
importanza...
Esattamente, cerchiamo di realizzare una
metafora digitale, che metta intuitivamente a suo agio il disegnatore che andrà a
utilizzare il nostro programma.
Quali sono le abilità che dovrebbe possedere un programmatore di software
per animazione digitale? E cosa consiglierebbe a una ragazzo che voglia intraprendere questa strada?
Trovare persone brave non è semplicissimo, la capacità fondamentale è infatti quella di saper risolvere problemi
complessi con le proprie conoscenze
ovviamente limitate, riuscire ad arrivare a risultati ignoti con dei frammenti noti.
Ci vuole una giusta proporzione di competenze, fantasia, intuito matematico e
ragione.
Poiché la chiave per questo lavoro è il
software, chi possieda una buona base
nelle cosiddette “scienze dure”, è più avvantaggiato.
Vorrei però sottolineare come il lavoro del
programmatore sia diametralmente opposto rispetto a quello dell’animatore.
Come conciliare dunque arte e tecnica?
È proprio ciò di cui si occupa il nostro studio, ovvero gettare un ponte
fra due sponde lontanissime... a tratti
solido, a tratti più traballante, ma pur
sempre un canale per far fluire l’energia creativa, motore indiscusso del
nostro lavoro.
panorama per i giovani
•
29
Foto: Le Prophetie des Grenouilles (Copyright Folimage)
In queste pagine:
alcune immagini
realizzate con
Toonz e gli altri
software prodotti
da Digital Video. In
basso a sinistra:
Gian Marco
Todesco.
Tecnologie dell’informazione
Scienza e informatica:
una coppia vincente
La scienza ha dato vita alle tecnologie informatiche, ma queste
ricambiano fornendo agli scienziati opportunità straordinarie nella
ricerca e nel lavoro. Basta saperle sfruttare.
Foto: iStockphoto.com (theasis; AlexRaths)
di Luca Valerio
Se fino ad alcuni anni fa a lavorare con
computer e affini erano destinati, verosimilmente, solo informatici e programmatori, oggi questo non è più vero. Gli appassionati e i professionisti nelle discipline scientifiche e tecniche sanno bene che
l’informatica è uno strumento di lavoro
irrinunciabile anche solo per avvicinarsi
al loro mondo.
Mentre i laureati in discipline umanistiche si trovano il più delle volte ad aver a
che fare con l’informatica come utenti, gli
scienziati si trovano più spesso nel ruolo di
sviluppatori e creatori di risorse informatiche – che si parli di hardware o di software.
L’informatica, infatti, da un lato permette agli scienziati di comunicare contenuti scientifici sia fra di loro sia a un pubblico non esperto, dall’altro è il principale
strumento con cui le conoscenze scientifiche vengono applicate e messe al servizio
della società nel suo complesso.
La circolazione delle informazioni
L’impatto dell’informatica sul mondo
della ricerca scientifica è ben evidenziato
30
•
n. 2, maggio-agosto 2009
dall’invenzione dei database online di letteratura scientifica. L’esempio più rappresentativo è quello di PubMed, il database
online di citazioni e abstract di riviste biomediche creato dalla U.S. National Library of Medicine, che permette di raccogliere rapidamente la bibliografia completa e
aggiornata di tutte le ricerche compiute su
qualsiasi argomento. PubMed considera
solo le riviste che selezionano le ricerche
da pubblicare in base ad alcuni criteri di
rigore metodologico, il che garantisce la
loro qualità. Oggi PubMed rappresenta
uno strumento di lavoro insostituibile per
chiunque sia impegnato nel campo della
biologia e della medicina, in tutto il mondo e a qualsiasi livello.
PubMed, però, non esaurisce il mondo dei database. Dal 2000, gli esempi di
motori di ricerca per articoli scientifici si
L’informatica è ormai uno strumento
fondamentale per la ricerca scientifica,
per esempio per quella farmaceutica. In
alto, sotto il titolo: il modello, elaborato al
computer, di una proteina. Nel box: alcune
immagini di Helsinki, Bombay e New York.
sono moltiplicati: fra i più famosi, Google
Scholar, Scirus, CiteSeen. Anche se molti
di essi continuano a concentrarsi sul settore biomedico, sono oggi coperti tutti i
settori della ricerca scientifica.
L’informatica come tecnica
Oltre che supporto per la ricerca
scientifica vera e propria, l’informatica –
o, più precisamente, l’insieme di strumenti materiali e immateriali cui si riferisce
l’espressione Information and Communication Technology (Ict) – è uno strumento
quotidiano anche di quei laureati in discipline scientifiche o tecniche che vogliono
applicare le loro competenze nel mondo
del lavoro.
In prima linea ci sono, ovviamente,
coloro che dedicano il loro tempo e le loro
competenze in maniera esclusiva all’informatica – cioè quelli che sono variamente
definiti informatici e programmatori.
In questo campo c’è un po’ di confusione. Quale studente di liceo scientifico o di
istituto tecnico, per esempio, non si è mai
chiesto la differenza fra laurea in Scienze
dell’informazione e laurea in Ingegneria
informatica? La questione non è affatto banale. Lo dimostra l’incertezza mostrata dal
Ministero dell’Istruzione, l’Università e la
Ricerca quando si è trattato, nel 2002, di
stabilire se i laureati in informatica potessero accedere al concorso per l’iscrizione
all’Albo professionale degli ingegneri – incertezza risolta (a favore degli informatici)
solo dopo mesi di dibattito.
Tecnologie dell’informazione
I paesi che scommettono sull’Ict
La Finlandia è considerata il più grande
esempio di information society: oltre
il 20% del Pil deriva da prodotti Ict,
con programmi governativi ad hoc per
l’informatizzazione della società dal
1995.
India
L’India è il paese al mondo in cui,
secondo l’Ocse, la spesa per la ricerca
in Ict è aumentata con il ritmo maggiore
fra il 2003 e il 2008: oltre il 30% annuo.
E nel 2006 il volume delle esportazioni
di prodotti Ict era superiore di dieci volte
a quello della Cina.
Stati Uniti
Gli Usa mantengono anche in questo
settore il loro ruolo di leader: nel 2006,
dei 950.000 ricercatori in Ict impegnati
nei paesi Ocse, la metà lavora negli
Stati Uniti.
Foto: iStockphoto.com
(Arsty; ewenjc; NatalieHerbert)
Finlandia
Le differenze fra i due curricula, tuttavia, rimangono. Possono essere utili a
farsi un’idea le seguenti considerazioni,
puramente orientative:
- chi desidera lavorare nella robotica,
nell’automazione o nella gestione di reti
e network dovrebbe preferire Ingegneria
informatica (o anche, nel secondo caso,
Ingegneria delle telecomunicazioni);
- chi preferisce la pura programmazione di
software, oppure avere a che fare con web e
database, può scegliere Scienze dell’informazione.
Oltre ai professionisti dell’informazione,
tutti i laureati in materie scientifiche hanno
probabilità altissime di aver a che fare con
software e hardware in modo diretto.
Il settore privato dei paesi ad alto
reddito sforna prodotti informatici a ritmi crescenti. A farlo sono soprattutto le
imprese attive nel campo dell’Information Technology, ma anche quelle operanti negli altri settori. Una ricerca Ocse
del 2008 ha evidenziato come fino a un
quarto delle attività di Ricerca e Sviluppo globali nel campo dell’Information
Technology provenga da imprese impegnate in settori diversi dall’informatica
in senso stretto. Il software prodotto può
essere usato per migliorare i processi
organizzativi e gestionali dell’azienda,
per gestire i flussi finanziari, per affrontare il product development (sviluppo
del prodotto) in ogni tipo di attività industriale. Sono soprattutto gli ingegneri
industriali e gestionali, nonché i laureati
in economia, a dover tener conto di questo dato.
Il lavoro dei laureati in scienze pure
consiste spesso nel produrre software che
possa rappresentare i fenomeni da essi
studiati. Che si dedichino alla ricerca di
base o a quella applicata nelle imprese, i
matematici e i fisici usano più spesso il
computer che carta e penna. Non a caso,
anche i corsi di laurea universitari in queste discipline includono ormai fra gli insegnamenti essenziali o opzionali alcuni
fondamenti di informatica – un’opportunità da non sottovalutare.
Anche la biologia, da sempre considerata come la più “qualitativa” fra le
discipline scientifiche, è stata cambiata dall’avvento dell’informatica. Oggi
i biologi molecolari usano il computer
non solo per interpretare i risultati dei
loro esperimenti, ma anche per eseguire gli esperimenti stessi. L’esempio più
eclatante è quello della proteomica e
della farmacologia. La prima studia il
rapporto tra la forma e la funzione delle proteine; poiché queste ultime sono
il prodotto della traduzione del Dna, la
proteomica è considerata il passo successivo alla genomica e all’interpretazione del Dna, che hanno monopolizzato
l’attenzione negli scorsi vent’anni. La
farmacologia ha trovato nel computer
un mezzo insostituibile per studiare le
caratteristiche delle molecole che potrebbero essere usate come farmaci: le
tecniche di computer-aided drug design
(progettazione di farmaci basata sul
computer) permettono di “progettare”
un farmaco, atomo per atomo, sulla base
delle interazioni chimiche e del risultato
terapeutico che si vuole ottenere. Il che
aumenta enormemente la probabilità
che i farmaci, al momento fatidico degli
esperimenti sugli animali e delle prove
sull’uomo, funzionino meglio o abbiano
meno effetti collaterali. Fra i percorsi di
studio che più facilmente portano a usare queste tecniche, accanto ai “tradizionali” Farmacia e Chimica e Tecnologie
farmaceutiche, due corsi di laurea la cui
popolarità è in costante crescita: Biotecnologie e Ingegneria biomedica. Molte
università offrono già curricula specializzati nell’applicazione dell’informatica
alle scienze biomediche – la cosiddetta
bioinformatica.
Oggi più che mai, occuparsi di scienza
significa occuparsi di tecnologie informatiche: scommettere su questo tipo di competenze può essere l’arma vincente per
aver successo in un mercato del lavoro
costituito sempre più da nicchie di specializzazione.
panorama per i giovani
•
31
Tecnologie
dell’informazione
La salute
nel mondo
Umanisti, giuristi
e informazione digitale
Anche letterati e filosofi stanno imparando a comunicare diversamente
il loro sapere. Le prospettive dell’informatica giuridica.
Foto: iStockphoto.com (clu; artubo)
di Maria Teresa Rachetta
La portata davvero globale della rivoluzione digitale ha investito anche i campi
apparentemente meno legati all’innovazione tecnologica, quelli che ancora
qualcuno ama denominare studia humanitatis, con una designazione tecnicizzatasi nel Duecento sulla base di alcuni
passi di Cicerone e di Gellio. Per i primi
umanisti il termine delimitava i campi
del sapere che oggi si indicano come
letteratura, storia e filosofia. Riflettendo
sull’origine ultima del termine, non ci
si può esimere dall’aggiungere a questi
almeno il diritto, la cui pratica, proprio
ai tempi di Cicerone, era riservata agli
uomini liberi e di altissimo rango ed
educazione, i quali fornivano i loro pareri gratuitamente.
Oggi queste discipline, oltre alle opportunità di crescita e occupazione tra32
•
n. 2, maggio-agosto 2009
nistiche non esiste obsolescenza delle
informazioni) comportano anche gravi
rischi: la necessaria organizzazione e gerarchizzazione delle informazioni nella
prospettiva dell’informatizzazione può
provocare la perdita di informazioni,
tralasciate o rese irraggiungibili da una
collocazione non adeguata, o condizionare gravemente la disponibilità dei dati,
mediante una gerarchizzazione operata
secondo criteri non del tutto adeguati o
poco economici.
È quindi evidente che le discipline
umanistiche richiedono all’informatico
non un semplice ruolo sussidiario, ma un
contributo consapevole delle specificità
delle discipline e della tipologia dei dati
trattati. Un contributo di questo genere
non può prescindere da una conoscenza della disciplina umanistica scelta, di
livello universitario. Allo stesso tempo,
un progetto digitale in ambito umanistico deve ambire a una lunga durata
esattamente come le opere cartacee, che,
nel caso per esempio di molti dei grandi dizionari e dei repertori, rimangono
nell’uso frequente degli studiosi per periodi che superano abbondantemente il
secolo. Di conseguenza si rende necessario un costante aggiornamento delle
tecnologie in modo da far sì che l’opera
resista al veloce mutare dei formati e dei
supporti.
Nel concreto, l’attività dell’informatica umanistica (in inglese Humanities Computing o Digital Humanities) si
divide in un campo strettamente teorico, nel quale si indagano gli approcci e
i paradigmi nuovi che la tecnologia può
fornire nell’affrontare i problemi storici
degli studi umanistici, e uno pratico, con
un’attività di integrazione delle nuove
tecnologie nella ricerca e nella didattica e
nella divulgazione umanistica. Gli esempi
dizionali nell’ambito della ricerca, della
didattica e delle professioni, forniscono
occasioni di professionalizzazione differenti, che rispondono alla richiesta di figure con solide competenze umanistiche
affiancate (e non sostituite) da conoscenze
avanzate nel settore informatico.
L’applicazione dell’informatica non
L’applicazione
può essere scissa da una generale riconsiderazione
dell’informatica
delle conoscenze pregresse
entro tali discipline, infatti, non
può essere scissa
da una complessiva riconsiderazione del- dei progetti in corso attualmente in questo
le conoscenze pregresse.
ambito possono essere davvero numeroI vantaggi che l’informatica of- si anche se ci si limita solo a quanto sta
fre nell’ambito della gestione dei dati, avvenendo in Italia, nonostante la veloce
aspetto fondamentale in presenza di un espansione della disciplina faccia sì che
patrimonio pregresso praticamente ster- tra questi possano essere ancora annoveminato e irriducibile (nelle materie uma- rati i pionieri.
“
”
Tecnologie dell’informazione
La letteratura
Ovvia e popolare applicazione, anche
nella forma delle grandi raccolte su cd,
sono i corpora letterari: ampie raccolte di
testi in formato digitale, intere letterature nazionali o l’intera opera di un determinato autore. Il primo esempio in Italia
fu, nel 1993, la Liz (Letteratura Italiana
Zanichelli), comprendente più di 1.000
opere italiane dal Duecento a Pirandello
e D’Annunzio, tutte digitalizzate e “interrogabili” per il tramite di un motore di
ricerca.
Proprio da un corpus di testi simile,
altrettanto vasto ma più concentrato nel
tempo (con data termine il 1375, l’anno
di morte di Giovanni Boccaccio), nasce il
progetto denominato con l’acronimo Tlio
(Tesoro della Lingua Italiana delle Origini). I testi del corpus sono interamente
interrogabili on line (all’indirizzo http://
www.ovi.cnr.it/), ma il progetto prevede
anche una lemmatizzazione sistematica
delle forme che darà origine al Vocabolario Storico Italiano. Ad occuparsi della
stesura è l’Accademia della Crusca, già
responsabile, nel 1612, del primo vocabolario di una lingua europea di cultura, che
dimostra con questo progetto (che è parzialmente già consultabile sul sito e che lo
sarà sempre di più man mano che verranno stese nuove voci) di essere ancora una
volta, a distanza di quasi quattro secoli,
all’avanguardia.
le aree professionali
1
Editoria elettronica. Figure che operano in ambienti digitali per la gestione e
la pubblicazione di informazioni strutturate e non strutturate (testi e dati).
2
Industria culturale. Figure che operano per l’industria culturale, della
formazione e dell’intrattenimento e in particolare per quei settori che si
basano sull’espressione creativa con l’uso di tecnologie informatiche.
3
Management della conoscenza. Figure che operano nella creazione,
conservazione e diffusione di conoscenza all’interno delle organizzazioni
pubbliche e private.
raccomandata con ricevuta di ritorno tradizionale. Più in generale, il “processo
telematico”, per ora attivo solo in poche
sedi, come parte del più vasto sistema di
e-Government della giustizia civile italiana, consiste nella possibilità data alle
parti, al giudice e alla cancelleria di formare, comunicare e notificare gli atti processuali mediante documenti informatici.
Oltre a permettere alle parti di costituirsi
in giudizio senza più recarsi fisicamente
in cancelleria, la trasmissione informa-
tica della documentazione permetterà ai
difensori, al giudice e alla cancelleria di
consultare on line le carte processuali, con
evidente risparmio di tempo e di energie
soprattutto se si considera l’ingente mole
dei materiali di cui si sta parlando. Tale
sistema, almeno per il momento, si affiancherà e non si sostituirà alle vecchie
modalità legate al documento cartaceo
per rendere il passaggio al nuovo (ma ancora per molti ostico) sistema informatico il meno traumatico possibile.
Il diritto
Le applicazioni dell’informatica al diritto hanno implicazioni che riguardano
solo gli addetti ai lavori, del tutto simili
a quelle sopra esemplificate. Un esempio
di ciò è il sistema Italgiure, un archivio
digitalizzato e interrogabile di sentenze e
massime della Cassazione che ora affianca i voluminosi e numerosi tomi che riempiono gli studi degli avvocati (consultabile, una volta sottoscritto un abbonamento,
all’indirizzo www.italgiure.giustizia.it).
A questo tipo di applicazioni se ne
aggiungono tuttavia altre, di maggiore
impatto presso l’opinione pubblica perché volte a rendere più facili e veloci le
procedure inerenti all’esercizio o all’esecuzione di un obbligo di legge. La “posta
elettronica certificata” è uno strumento
che permette di dare a un messaggio di
posta elettronica lo stesso valore di una
panorama per i giovani
•
33
Tecnologie dell’informazione
A sinistra: un “nerd”, lo stereotipo del
ragazzo con la testa fra le nuvole e
appassionato di informatica; ma la realtà
professionale del programmatore è molto
diversa.
ai sistemi operativi, alla creazione di complessi sistemi di gestione delle transazioni
bancarie) e in risposta a questa varietà è
difficile individuare un’unica categoria di
programmatore o di esperto informatico.
A livello funzionale chi lavora in questo
campo o fa il programmatore o fa l’analista.
Di solito un analista è stato in passato programmatore e ha sviluppato nel tempo oltre
alle competenze di base quelle che riguardano l’architettura complessiva di un progetto,
la sua fattibilità gestionale e la capacità di
dettare le linee guida che poi il programmatore seguirà. Ovviamente quindi l’analista
guadagnerà di più, ma farà anche un lavoro
molto diverso e con tante variabili in più.
Come si diventa programmatori? Solo
attraverso l’università o ci sono altri
modi?
A colloquio con Andrea Bastoni, laureato del Collegio “Lamaro
Pozzani” e dottorando dell’Università “Tor Vergata”.
a cura di Carla Giuliano
Chi per passione smanetta sui pc e si avvicina al mondo della programmazione
spesso si chiede se possa tramutare questa
attività in un lavoro e in chance di carriera. Proviamo a dare una risposta a tali
quesiti in una serie di Frequently Asked
Questions (Faq), sigla ben nota a chi si diletta di computer, tastiere, codici e affini.
Che lavoro fa chi professionalmente “pro34
•
n. 2, maggio-agosto 2009
gramma”? Quanto guadagna? Si lavora
più in proprio o più come dipendente?
Il programmare può essere inteso, in senso
ampio, come il cercare di offrire soluzioni a esigenze e problemi del mondo reale.
Gli ambiti di interesse della programmazione, dell’informatica e dell’information
technology in genere sono molteplici
(dallo sviluppo di applicativi per cellulari
Che differenza c’è tra un informatico e
un ingegnere informatico?
Un ingegnere informatico è prima di tutto
un ingegnere, quindi ha una formazione
di base in matematica, geometria, fisica,
chimica... Non è solo questione di formazione ma anche di forma mentis: generalizzando, un ingegnere informatico è
Foto: iStockphoto.com (Foxtalbot; TommL)
Frequently Asked Questions
Per diventare programmatori l’università
non è necessaria, ma qui bisogna fare una
precisazione: per imparare a scrivere un
determinato codice per una singola finalità, che spesso interessa solo alcuni tipi
di aziende, l’università è inutile; ci sono
corsi professionalizzanti organizzati dalla regione, dalla provincia e da altri enti
oppure dalle stesse aziende. Bisogna però
essere consapevoli che seguendo quella
strada ci si ferma lì. Il tempo investito è
minore, ma anche il risultato.
L’università apre la mente non solo con
la formazione ma attraverso le esperienze
e prepara per tutti i campi in cui la formazione che offre può essere poi utilizzata.
E poi, dopo la laurea, l’inserimento nel
mondo del lavoro può avvenire a un livello
di poco inferiore a chi magari ha più esperienza e meno titoli, ma la carriera successiva è molto più rapida e stimolante.
Tecnologie dell’informazione
più orientato a un processo di produzione
industriale, mentre un informatico è più
interessato agli algoritmi matematici e a
tutto ciò che sta dietro le strutture logiche
che vengono usate in programmazione.
luppati in un’ottica rivolta al futuro.
C, Java... sono ancora i linguaggi più usati? Quale potrebbe essere (o già è) il prossimo linguaggio della programmazione?
In realtà, lo stereotipo del nerd che sta chiuso in una stanza “e tutto il mondo fuori”
esiste solo nei film! Nella pratica il grado
di consapevolezza e di feedback che il programmatore può avere dipende da progetto
a progetto: ci sono casi in cui lo sviluppatore si occupa solo di determinate classi e
non ha idea di quale sarà il loro utilizzo
pratico e casi in cui invece il coinvolgimento è totale. In generale comunque, più
si sale nella gerarchia più la comprensione del progetto nella sua interezza è alta.
Ovviamente l’analista che deve dettare le
linee guida ha la visione completa.
In realtà, la tendenza oggi non è creare un
nuovo linguaggio, ma cercare di raggiungere un livello di astrazione superiore rispetto
al codice: si sta andando verso lo sviluppo
di ambienti e modelli che permettano di
definire la semantica del programma, astraendo dalle differenze legate ai linguaggi di
programmazione sottostanti (sintassi). A
ogni modo linguaggi di programmazione
come C o Java esistono per motivi diversi e sono basati su logiche diverse: quelli
come Java e C++ o C# sono basati sul paradigma di programmazione orientata agli
oggetti, che permette di gestire in modo
più efficiente la complessità delle strutture
logiche usate nella programmazione. Non
c’è quindi una vera competizione, quanto
piuttosto una compenetrazione, soprattutto
nelle intenzioni e nei lavori che sono svi-
Quanta realtà di quella che simula vede
il programmatore? Quanto gli è possibile osservare gli effetti del suo lavoro?
Cosa ha significato l’arrivo dell’open
source nel mondo della programmazione? Gli equilibri possono cambiare?
L’open source ha cambiato molto nel mondo della programmazione, non solo a livello psicologico ma anche aziendale: ad
esempio, non tutti sanno che su Gnu/Linux
lavorano a tempo pieno per svilupparlo
soprattutto professionisti che sono stipendiati da società come Red Hat, Ibm, Intel,
Oracle. Sembrerebbe un controsenso ma in
realtà è la dimostrazione di quanto l’open
source abbia cambiato le cose: anche le realtà motivate dal profitto vogliono dire la
loro in un progetto worldwide come Linux
e sono disposte a pagare per questo.
Qual è la situazione in Italia a livello di
ricerca nel campo dell’ingegneria informatica?
Non è questione di livello di ricerca nel
campo dell’informatica ma di ricerca in
generale: in Italia le eccellenze ci sono e
sono tante, ma i fondi a loro disposizione
sono scarsi. Quei pochi gruppi di ricerca
che hanno anche i finanziamenti si trovano
con quattro o cinque ricercatori a competere con gruppi americani di 40 o 50. Non
è facile. Ed è anche giusto ricordare che in
Italia non c’è Microsoft, non c’è Google,
non c’è Ibm, non c’è Intel, non c’è Oracle
(o almeno ci sono, ma qui hanno principalmente le sedi commerciali e il marketing).
Le grandi realtà di ricerca privata informatica sono fuori dal paese.
panorama per i giovani
•
35
Foto: iStockphoto.com (ChepeNicoli;
dlexis33; Trifonov_Evgenij)
Tecnologie
dell’informazione
La salute
nel mondo
Sono passati esattamente settanta anni
dalla nascita di quello che è stato universalmente riconosciuto come il primo
computer della storia – lo Z1 costruito
dal tedesco Konrad Zuse nel 1939 – e
da allora gli enormi sforzi profusi in termini di sviluppo e distribuzione hanno
portato il computer a essere uno strumento indispensabile per un quarto della popolazione mondiale. Lo Z1 aveva
una velocità di clock di circa un hertz,
ovvero era in grado di eseguire un’operazione elementare (precisamente una
commutazione tra due livelli logici) in
un secondo, mentre la frequenza di un
microprocessore singolo in un computer degli ultimi anni varia tra i due e i
quattro gigahertz, il che significa che gli
innumerevoli miglioramenti susseguitisi
a un ritmo forsennato per settanta anni
hanno portato a una potenza di calcolo
un miliardo di volte maggiore rispetto a
quella originaria.
Sarà possibile nei prossimi anni migliorare di altrettante volte le prestazioni
dei computer attuali? A sentire le cifre
precedenti nessuno, probabilmente, si
sognerebbe nemmeno di porsi una simile
domanda, considerato anche che un limite alla velocità di calcolo di un microprocessore è dato dall’incapacità di raffreddarsi che interviene a frequenze troppo
alte e ne compromette le prestazioni. Ci
sono invece buone possibilità che la risposta sia positiva grazie ai principi della
meccanica quantistica, che permetterebbero di costruire macchine, i computer
quantistici appunto, che rivoluzionando
totalmente il funzionamento degli odierni
calcolatori sarebbero in grado di sfiorare
velocità inimmaginabili con la tecnologia
attuale.
I nostri computer sono infatti basati
sul bit, che rappresenta l’unità di informazione della computazione classica, il
quale può assumere due valori, 0 o 1,
che corrispondono, a livello materiale,
rispettivamente a una tensione pari a 0
volt e a 5 volt del transistor, il meglio
noto interruttore acceso/spento. Il quanto di informazione della computazione
quantistica è invece il qubit (quantum
binary digit), il quale tuttavia non presenta un analogo a livello materiale, ma
può essere considerato come un oggetto
matematico con determinate proprietà rintracciabili nella rappresentazione
matematica che modellizza i fenomeni
36
•
n. 2, maggio-agosto 2009
che occorrono in meccanica quantistica.
Il vantaggio di lavorare con un oggetto
astratto quale il qubit è quello di poter
I principi della meccanica quantistica
che intervengono nella definizione del
qubit sono i principi di sovrapposizio-
Super-computer
DEL FUTURO
Come funzionano i computer quantistici, quanto sono veloci, quale
impatto avranno sul mondo della computazione pratica.
di Emanuele Ghedin
sviluppare una teoria computazionale
quantistica che non dipenda dal particolare sistema di realizzazione. Lo svantaggio è che non si sa se esista e su cosa
si basi un tale sistema. Tuttavia le molteplici applicazioni pratiche della meccanica quantistica (laser, microscopio
elettronico, risonanza magnetica nucleare) fanno ben sperare su un’effettiva
progettazione di un computer basato sul
qubit.
ne e di correlazione (o entanglement). Il
primo sancisce l’esistenza di stati (uno
stato quantico è la configurazione di una
particella o di un loro insieme, matematicamente rappresentato da una funzione
a valori complessi detta funzione d’onda)
intermedi tra due stati ammissibili del sistema; a livello matematico è ammissibile
ogni combinazione lineare a coefficienti
complessi, le cui somme dei quadrati dei
moduli siano pari ad uno, di due valo-
Tecnologie
dell’informazione
La salute
nel mondo
Sopra: un processore, il cuore dei
computer attuali. In alto: il mainframe di un
grande centro di ricerca.
ri ammissibili. Il secondo afferma che lo
stato quantico di un insieme dipende dagli stati di ciascun elemento dell’insieme
stesso, anche se tali elementi sono separati
spazialmente. In accordo al principio di
sovrapposizione, il qubit, oltre ai due stati
del bit classico 0 e 1, ammetterebbe un’infinità di stati intermedi, il che consentirebbe una computazione talmente veloce da
permettere di eseguire, in pochi secondi,
calcoli per la cui esecuzione i computer
classici impiegherebbero parecchi anni.
È stato stimato che un computer quantistico a 500 qubit avrebbe la stessa po-
tenza di calcolo di un analogo computer
classico dotato approssimativamente di
10150 processori.
Appare chiaro come, nonostante con
i computer quantistici non abbia più senso considerare la velocità di clock quale
metro di valutazione della rapidità di calcolo (dato che non esistono degli stati, e
quindi dei livelli logici, completamente
determinati di cui calcolare la velocità
di commutazione), essi racchiudano una
potenzialità computazionale spaventosa, sulle cui conseguenze occorrerebbe
riflettere adeguatamente. Una simile potenza di calcolo, ad esempio, sarebbe più
che sufficiente a rompere in breve tempo
le chiavi di criptazione con le quali vengono resi indecifrabili tutti i dati sensibili che viaggiano sulle reti informatiche,
rendendo impossibile la trasmissione di
dati sicuri che è, tra le altre cose, alla
base delle transazioni economiche del
sistema bancario. L’algoritmo di criptazione più largamente utilizzato è infatti
l’Rsa, il quale sfrutta un’importante proprietà matematica posseduta dai numeri
primi; essi possono essere moltiplicati
con un algoritmo molto rapido, ma, a
partire da un numero intero, risalire alla
sua fattorizzazione in numeri primi è un
problema la cui risoluzione richiede a
un computer attuale migliaia di anni di
calcolo (relativamente a numeri molto
grandi). È dunque molto facile criptare
un messaggio, ma è praticamente impossibile decrittarlo, il che rende tale algoritmo sicuro. Con l’ipotetico avvento dei
computer quantistici tutto ciò verrebbe
a cadere, dato che esiste un algoritmo
di fattorizzazione degli interi, l’algoritmo di Shor, eseguibile unicamente dai
computer quantistici, che ha un tempo di
risoluzione sufficiente a rendere vulnerabile la criptazione tramite l’Rsa.
Non bisogna tuttavia allarmarsi prima
del tempo. Nonostante a livello teorico
la computazione quantistica rappresenti
un argomento già molto sviluppato, sul
piano pratico la costruzione dei computer quantistici è ancora molto lontana.
Tuttavia, è molto probabile che si tratti
solo di una questione di tempo e che prima o poi il primo computer quantistico
faccia la sua comparsa, decretando uno
dei più grandi avanzamenti nella scienza
applicata, in grado di rivoluzionare completamente il mondo della computazione
pratica.
panorama per i giovani
•
37
Tecnologie
dell’informazione
La salute
nel mondo
Il futuro è nell’Aria
Il WiMax: si prevede un grande sviluppo della tecnologia capace di
portare ovunque l’adsl e di ridurre il digital divide.
di Giorgio Mazza
da Jvc. Grazie a strategie di mercato più
lungimiranti, la Jvc riuscì a produrre apparecchi meno costosi che conquistarono
il mercato, anche se inferiori nella resa.
Le nuove tecnologie tentano di
acquisire la più
Il WiMax consentirà di connettersi con velocità
ampia porzione
nelle zone rurali e negli spazi aperti delle città di mercato possibile, contenendo i
nuove tecnologie. Spesso è accaduto, prezzi. Nonostante ciò, difficilmente arriperò, che queste innovazioni non si sia- vano ad avere uno sviluppo capillare sul
no sviluppate nella direzione della mas- territorio, poiché, per limitare i costi, risima efficienza e funzionalità e che si sia sultano spesso fruibili solo dove esistono
piuttosto puntato, sulla scia delle logiche infrastrutture e tecnologie precedenti.
Questa spirale porta, inevitabilmente,
di mercato, a ottenere prodotti dal basso
costo e di facile utilizzo, talvolta anche a ad acuire il digital divide, ossia il divario
discapito della qualità.
tra coloro che possono accedere alle nuoL’esempio più celebre è quello del ve tecnologie dell’informazione (Internet
sistema di registrazione Betamax, svilup- a banda larga e i servizi a essa connessi)
pato da Sony a metà degli anni Settanta. e coloro i quali, invece, ne sono esclusi.
Seppur di grande qualità, esso cedette il Secondo molti studiosi, il digital divide
passo al Vhs, lanciato l’anno seguente comporta anche in Italia l’esclusione di
Negli ultimi trent’anni le innovazioni
nell’informatica e nelle telecomunicazioni si sono susseguite con una rapidità
senza eguali per l’avvento di sempre più
Foto: iStockphoto.com/hsandler
“
38
•
”
n. 2, maggio-agosto 2009
milioni di cittadini dall’accesso alle tecnologie a banda larga e l’impossibilità per
molte aziende e organizzazioni locali di
ottenere una connessione adsl via cavo.
È proprio guardando a questo divario che
appare straordinariamente interessante,
anche per la sua realizzabilità in ambiente
sia urbano sia rurale, la tecnologia WiMax, acronimo di Worldwide Interoperability for Microwave Access.
Il WiMax, tecnicamente uno standard
della tecnologia wireless, offre numerosi
vantaggi per quanto riguarda la copertura
e la capillarità del servizio, pur assicurando velocità di trasmissione elevate (fino
a 70 Mbit/s per i dati condivisi in aree
metropolitane). La copertura del territorio
con questa tecnologia è realizzabile grazie
al collegamento dei diversi terminali di
utente con una stazione radio-base, posta
a qualche decina di chilometri di distanza, la quale è connessa, via cavo, alla rete
Internet. Sono così assicurati collegamenti a banda larga anche in ambienti rurali o
comunque non raggiunti dalla fibra ottica.
Nonostante i dati dichiarati dal WiMax
Forum (raggio di copertura di circa 50km
per ogni stazione radio) siano stati decisamente ridimensionati da diversi test, questa tecnologia continua a presentare l’innegabile vantaggio di poter collegare, con
relativa semplicità, anche zone impervie,
con collegamenti radio privi di visibilità
diretta.
WiMax, inoltre, possiede altre due
caratteristiche che le permettono di essere considerata una delle tecnologie con
le maggiori potenzialità di sviluppo. La
prima è quella di essere uno “standard”,
cioè di godere dell’enorme vantaggio di
essere indipendente dal tipo di apparato
e dal provider. La seconda è quella di essere compatibile con la navigazione mediante cellulare e notebook, garantendo
così connessioni in ambienti mobili fino
a 120 km/h. Pertanto, se le stazioni radio si diffondessero in maniera capillare all’interno dei grandi centri abitati, il
WiMax offrirebbe, oltre ai vantaggi per
gli ambienti rurali, anche la possibilità
di connettersi a Internet in ogni punto
della città, con un qualsiasi dispositivo
mobile.
In questo senso, fa ben sperare l’assegnazione delle frequenze WiMax, avvenuta nel febbraio 2008. A fronte di un
investimento di circa 136 milioni di euro,
le aziende Aria spa e Linkem si sono ag-
Tecnologie dell’informazione
giudicate la quasi totalità delle frequenze
e promettono di offrire, nel prossimo futuro, servizi e tariffe competitivi.
Indice del grande sviluppo di queste
aziende è anche la scelta del comitato
organizzatore dei mondiali di nuoto di
Roma 2009 di assegnare a Linkem l’incarico di fornire la copertura wireless,
con tecnologia WiMax, ai 70.000mq del
Villaggio Olimpico di Roma, nel quale si
svolgerà l’evento.
La diffusione del WiMax porterebbe allo sviluppo di una grande quantità
di servizi oggi poco diffusi a causa delle
connessioni stabili e veloci da essi richieste. Un esempio è sicuramente la Web
Tv, la televisione fruibile via Internet in
streaming, tramite la tecnologia peer-topeer. Al momento essa non ha incontrato
grande successo, poiché è necessario possedere una connessione adsl via cavo per
poter usufruire di questo servizio, peraltro
disponibile solo in alcune aree metropolitane e a prezzi ancora elevati. Si pensa
che la Web Tv, in futuro, avrà una forte
diffusione grazie alla grande disponibilità
di contenuti, al numero illimitato di canali e alla spiccata interattività di questo
servizio, che permette di creare il proprio
palinsesto televisivo.
Attualmente, in Italia, il servizio televisivo che offre una copertura continua
insieme alla migliore qualità di immagine
è la televisione digitale satellitare. Si riceve via etere attraverso un’antenna parabolica e, nella maggior parte dei casi,
a pagamento. La diffusione della tecnologia satellitare è dovuta principalmente
all’assenza di alternative, anche se, con il
recente passaggio della Tv pubblica dalle
trasmissioni analogiche a quelle digitali,
il servizio erogato da quest’ultima è destinato a migliorare.
La rappresentazione dei segnali in forma digitale, infatti, permette di trasmettere, senza errori, una maggior quantità di
dati all’interno di ogni singola trasmissione, ampliando l’offerta con un numero
maggiore di canali, oppure proponendo
contenuti aggiuntivi, quali sottotitoli o
testi informativi riguardanti i programmi.
Benché, quindi, il passaggio al cosiddetto
digitale terrestre non porti un apprezzabile
miglioramento della qualità delle immagini, esso offrirà comunque una scelta più
vasta e una maggiore interattività, che, di
riflesso, faranno da ostacolo alla diffusione dei servizi televisivi sul Web.
Arte informatica
L’arte nell’era del mondo virtuale... schegge di creatività sparse per la
Rete.
di Selene Favuzzi
Cosa contraddistingue l’opera d’arte?
Cosa fa sì che un pezzo di carta possa
meritare una cornice imponente e un faretto tutto suo in un museo?
Dove cercare l’istante in cui la materia
cessi d’essere mero accumulo di segni per
divenire ineffabile?
Secondo il filosofo Walter Benjamin,
l’opera d’arte era in passato caratterizzata
da un’aura indefinibile dal sapore raro e
vago d’originalità.
La tecnica s’esplicava ogni volta in
modi differenti, e la fruizione era limitata
a poche persone, una cerchia ristretta di
privilegiati che potevano beneficiarne.
Egli porta un esempio a sostegno della
sua tesi: è opera d’arte anche il simulacro,
che riposa nascosto nell’intimo ventre del
tempio, visibile solo per il sacerdote e circondato pertanto da un alone di profonda
sacralità.
La riproducibilità dell’opera ne distrugge per sempre e irrimediabilmente ne disperde l’autenticità: la sua ineffabile aura.
Questa, come descritta nel celebre
saggio del 1937 L’opera d’arte nell’era
della sua riproducibilità tecnica, corrisponde all’hic et nunc, all’esistenza unica e irripetibile nel luogo in cui si trova.
La riproduzione in serie, corrispondente alla
massificazione della cultura e allo sviluppo di
nuove e sbalorditive tecniche, ha quindi minato per sempre l’originalità dell’opera d’arte?
Eppure non sono caratterizzate da
straordinaria serialità anche l’arte ceramica, sia greca sia orientale, o gli intrecci
decorativi bizantini, o un edificio di culto
indiano, ridondante di statue?
Individualismo, serialità, virtuosismi
tecnici e rispetto della più consolidata
tradizione infatti sono indistinguibili in
ognuna di queste opere e danno origine a
un fluire continuo.
L’arte si connota quindi di nuove e
inedite valenze, una volta entrata nel campo della riproducibilità.
Essa ha infatti una diffusione molto
più ampia, e può potenzialmente raggiungere chiunque.
È come se si arricchisse d’una nuova
dimensione, acquisendo una vastissima
gamma di nuove possibilità.
L’arte informatica, che ha quasi quindici anni, va interpretata partendo da queste premesse.
Essa nacque nel 1995, quando un artista sloveno di Lubiana, Vuk Cosić diede
inizio alla Net.Art.
panorama per i giovani
•
39
Immagini: Selene Favuzzi
Tecnologie
dell’informazione
La salute
nel mondo
Così chiamò una forma particolare e
del tutto nuova di creatività, che si serviva della Rete non solo come mezzo di
promozione, ma bensì di produzione, rendendola strumento attivo; un’entità viva e
pulsante con un pubblico potenzialmente
più vasto di quello che avevano avuto i più
grandi capolavori della storia dell’arte!
Recentemente si sono sviluppate gallerie
on-line che espongono le opere di artisti
informatici.
Persino alcuni “guru” dell’arte, generalmente dietro compenso, visionano le
opere e scrivono pagine di critiche (diffuse, ovviamente, con posta elettronica) su
immagini che non esistono nella realtà!
Non le puoi toccare, sentirne la ruvidezza, ammirarne i dettagli, quasi immaginare il sudore dell’artista; né il tuo occhio troverà imperfezioni o correzioni, né
una sola scheggia mancante della tavola,
o filo fuori posto della tela...
No, questa opera non invecchierà.
Non si colorerà della gialla patina del
tempo, né della grigia e sottile polvere
che cela meraviglie.
Vivrà in eterno?
Pur se così fosse vivrebbe sempre sotto
40
•
n. 2, maggio-agosto 2009
una tremenda spada di Damocle, minaccia
costante di svanire in un istante, un solo attimo dopo la pressione sul tasto Delete.
È infatti il pubblico della Rete, il popolo
virtuale, strana identità imprevedibile, a decretare il successo o il fallimento di un’opera, e tutto con un click del suo mouse.
Quasi dotato di ius vitae necisque,
diritto di vita o di morte, egli decide se porre il “pollice verso” o no.
E cambia così la storia dell’arte: il processo creativo si compie di fronte a uno schermo piatto, non c’è più la tavolozza, né lo
strumento musicale di legno o metallo, né
la tela; la mercificazione dell’opera tocca
il culmine e l’artista è il programmatore,
il manipolatore di byte; l’arte viene totalmente astratta dalle convenzioni della
realtà, dello spazio e del tempo, forse persino dai canoni dell’estetica tradizionale.
In un vortice sempre più turbinoso si
mescolano, indissolubili, astrazione, concretezza, fantasia visionaria e distaccata
ragione.
Siamo forse alla presenza dell’ultima e
fondamentale avanguardia del XX secolo?
È infatti insito in essa il proposito di
superare e stravolgere il comune concetto
di arte: ha una forte carica utopica, ma è
inserita all’interno della “rivoluzione digitale” della società, e quindi fortemente
legata a essa; si è opposta all’attribuzione
dell’aura all’opera d’arte, alla sua museificazione e soprattutto al suo valore
economico e di mercato, abbattendo la
differenza tra copia e originale, creando
così un “esercito di uguali”, frammenti di
creatività sparsi per la Rete...
Dove andranno queste schegge?
Dove finiranno i frammenti di questo relitto, ossa dell’enorme carcassa della storia?
Resteranno incagliati nell’immaginario come Guernica di Picasso?
Commuoveranno ora e sempre come
Amore e Psiche di Canova, o la Pietà di
Michelangelo?
Potrà cadere una lacrima calda e sincera da occhi che specchiano lo sguardo
in uno schermo piatto e sottile?
Forse l’indefinibile dell’arte deve restare tale, forse c’è davvero un incanto
che affascina e strega l’animo di chi guarda: un mistero profondo e remoto che stupisce e commuove, e ora e sempre cela il
perché.
…Ai posteri...
post scripta
L
a mia vita si è accompagnata, dalla giovinezza all’età
matura e oltre, al prodigioso sviluppo dell’Ict. Delle
macchine a schede perforate sentii parlare negli anni
’50, nel decennio successivo cominciai a leggere delle
meravigliose “stupide” che l’Ibm stava sviluppando; secondo la
leggenda, il vero fondatore di Big Blue, Thomas J. Watson, riteneva che avrebbero avuto ben scarso mercato... Agli inizi degli
anni ’70 andai a dirigere un dipartimento di elaborazione automatica dei dati, con calcolatori della serie Ibm 360, macchine
gigantesche che destavano nell’ignaro visitatore un attonito stupore, soprattutto quando apprendeva che una di esse stava scambiando dati e messaggi con tutte le sedi provinciali della Banca
d’Italia. Passato ad altri incarichi, per molti anni mi dimenticai
dei computer e continuai a scrivere con la stilografica. Allorché
sul finire degli anni ’90 mi ritrovai senza segretaria, cominciai a
utilizzare un portatile per redigere i miei “pezzi”.
Scoprii nell’arco di pochi mesi la posta elettronica, un
mezzo di comunicazione che trovo più civile del telefono; se
quest’ultimo col suo squillo è spesso inopportuno, la mail educatamente attende che la si apra. La perdita di collaboratori in
grado di procurare dati o fare ricerche in biblioteca mi spinse a
utilizzare Internet per estrarre dai siti ufficiali di enti e organizzazioni le informazioni necessarie per tenermi aggiornato, per
scrivere i miei articoli. Come Le Bourjois gentilhomme di Molière, sono così diventato senza saperlo un utilizzatore di Web
1.0, cioè di pagine informative. Ancora maggiore è stata la mia
sorpresa nell’apprendere leggendo questo fascicolo che, attraverso la web mail, wiki o il motore di ricerca di Google, sono
anche venuto in contatto con Web 2.0; quest’ultima, prevedendo
un’interazione sia pur minima con l’utente, permette l’uso di
linguaggi di grande potenza e astrazione. Oggi si parla già di
Web 3.0, attraverso il quale si spera di dare risposte strutturate
sulla base di relazioni semantiche, per ridurre la mole “atomistica” e sterminata di informazioni disponibili su un dato argomento. È un mondo che si evolve rapidamente e che esercita un
fascino crescente su tutti coloro, soprattutto giovani, che vi si
avvicinano, che lo sviluppano, che lo usano e talvolta ne abusano, ad esempio gli hacker.
All’entusiasmo per le meraviglie che l’intelligenza umana e
la tecnologia sono in grado di produrre a ritmo pressoché con-
tinuo, si accompagna una disattenzione per i mutamenti che le
innovazioni determinano nei comportamenti sociali. La Ict ha
contribuito alla crisi economica e finanziaria in corso. Come?
Ad esempio, attraverso l’uso delle carte di credito che si sono
potute diffondere grazie all’imprevidenza, da un lato, di chi allegramente accumulava saldi debitori che non era in grado di
onorare al peggiorare della congiuntura economica e, dall’altro,
all’avidità di quanti hanno puntato sulla cultura del debito delle
famiglie per accrescere i propri guadagni. Il Fmi calcola che negli Stati Uniti le inadempienze su un totale di credito al consumo
di 1.914 miliardi di dollari hanno già toccato il 14 % e ritiene che
la morosità aumenterà ancora. In Europa le insolvenze da carte
di credito hanno raggiunto il 7% su 2.467 miliardi di dollari, con
il Regno Unito nella situazione più critica a causa di un indebitamento delle famiglie pari al 170 % del reddito disponibile.
Vi sono altri aspetti sociali di cui preoccuparsi: siamo sicuri
che il tempo che dedichiamo a Internet e soprattutto ai social
network sia ben impiegato? Di recente, Bill Gates, il mago di
Microsoft, nel chiudere il proprio profilo su Facebook ha dichiarato: “Mi sono reso conto che si trattava di un’enorme perdita di
tempo”. Infatti, la sua lista di contatti in attesa di approvazione
era diventata ingestibile... Ho il timore che anche molti blogger
dedichino alla loro creatura più tempo di quanto sia giustificato
da una funzione informativa sempre più frammentata.
Infine, v’è un altro aspetto socialmente importante e al tempo
stesso terrificante: possono gli sviluppi dell’intelligenza artificiale che si sono avuti e che si stanno profilando rappresentare una
minaccia per la società e per la sua organizzazione? Gli esperti di
computer science, di intelligenza artificiale e di robotica riunitisi
di recente (Asilomar Conference Grounds) a Monterey Bay in
California hanno dato poco peso alla possibilità che si sviluppino superintelligenze altamente centralizzate, nonché all’idea
che l’intelligenza possa sgorgare spontaneamente da Internet.
Però hanno ammesso che robot in grado di uccidere autonomamente sono già tra noi o presto lo saranno! Sebbene l’argomento
mi sembri più adatto per un “giallista” che per una centrale di
polizia, una mente o un’organizzazione criminale non potrebbe
avvalersi dell’intelligenza artificiale per raggiungere i propri fini
antisociali?
Mario Sarcinelli
panorama per i giovani
•
41
Il fisico che dona
la vista ai poveri
Joshua Silver, professore in pensione dell’Università di Oxford, ha
ideato occhiali regolabili dal portatore e a basso costo. Così anche i
poveri del mondo possono riavere il dono della vista.
di Francesca Mancini
La gentile prontezza con cui Joshua
Silver ha risposto alla mia email non
ha che accresciuto la mia ammirazione.
L’ammirazione verso questo fisico più
che sessantenne che da vent’anni porta
avanti il suo ambizioso progetto di ridare
la vista a tutti quei milioni di poveri nel
42
•
n. 2, maggio-agosto 2009
mondo che non possono permettersi un
paio di occhiali.
Come ricorda il professor Silver, la
lampadina gli si accese nel pomeriggio
del 23 marzo 1985, quando, discutendo
oziosamente con un suo collega di lenti
ottiche, si chiese se fosse possibile fab-
bricare degli occhiali auto-regolabili.
Occhiali che non richiedessero la costosa
consulenza di un optometrista e che sfruttassero semplici principi fisici per regolare la loro potenza ottica. A glimpse of the
obvious, una “geniale ovvietà” la definì.
Ma lasciamo che siano le sue stesse parole a descriverci la sua “ovvia invenzione”:
“Le lenti sono membrane riempite di un
fluido – olio di silicone trasparente con un
indice di rifrazione relativamente elevato – e collegate a una siringa. Se il fluido
è pompato nella lente la superficie della
membrana diventa convessa, la lente acquista potere ottico positivo e diventa più
spessa nel centro. Se il fluido è aspirato
dalla lente, la superficie della membrana
diventa concava, la lente acquista potere
ottico negativo e diventa più sottile nel
centro”.
Una volta terminata la regolazione,
che dura al massimo un minuto in totale, si sigilla la sacca stringendo una vite e
si rimuove la siringa. Semplice no? Con
questo geniale stratagemma si può variare
il potere di rifrazione delle lenti da -6 a
+6 diottrie e si possono correggere quindi
tutte le forme di ametropia eccetto l’astigmatismo.
Cosa ha fatto Joshua Silver in seguito
al suo colpo di genio? Certamente non è
rimasto con le mani in mano né ha ceduto alla seducente sirena del facile guadagno vendendo la sua idea al miglior
offerente.
Anni fa, infatti, una società nel settore
dell’ottica gli offrì una cospicua somma
per ottenere l’autorizzazione a sfruttare
la sua tecnologia, ma Silver declinò. Non
sapeva infatti quale uso sarebbe stato fatto della sua scoperta, che egli intendeva
consacrare esclusivamente alla causa della filantropia.
Pertanto nel 1996, forte del suo
brevetto americano (01/02/1990 n°
4890903), fondò la società Adaptive
Eyecare, in collaborazione col Dipartimento per lo Sviluppo Internazionale
del Governo del Regno Unito. L’utopico
obiettivo di questa società è racchiuso
nelle parole “corrective eyewear available for everyone, everywhere” (occhiali
da vista disponibili per tutti, ovunque),
che campeggiano a grandi lettere sulla
homepage della Ae.
In effetti in poco più di un decennio
sono già stati distribuiti 30.000 occhiali in
15 paesi nell’Europa dell’Est e in Africa.
Foto: Centre for Vision in the Developing World (Oxford University)
Primo piano
Primo piano
Silver ricorda il suo primo tentativo
“sul campo”, il primo paio d’occhiali che
miracolosamente ridiede la vista. Avvenne
in Ghana. Qui il fisico filantropo incontrò
Henry Adjei-Mensah, un sarto che a soli
35 anni era costretto ad andare in pensione perché non riusciva più a vedere il filo
da inserire nella cruna dell’ago. Avrebbe
potuto lavorare altri 20 anni, ma il suo
banale difetto di presbiopia lo costringeva
all’inattività. Gli diedero gli occhiali e un
enorme sorriso apparve sul suo viso. Ora
poteva di nuovo cucire e rapidamente si
rimise all’opera.
Questa è solo una delle numerose,
toccanti vicende che vive ogni giorno
l’altruismo fattivo di Silver e dei suoi
collaboratori. Collaboratori come il maggiore Kevin White, a capo di un progetto
umanitario del Dipartimento della Difesa
degli Stati Uniti, che nel 2005 portò alla
Sotto: il professor Silver prova i suoi
occhiali con alcuni collaboratori del
Centre for Vision in the Developing World
dell’Università di Oxford (www.vdw.ox.ac.uk).
In alto a destra: uno schema che spiega il
funzionamento degli Adspecs.
Sotto il titolo: un uomo indossa gli occhiali
inventati dal professor Silver.
Manopola di
regolazione
Lenti a fuoco variabile
(piene di fluido)
Pompa
Valvola di chiusura
distribuzione di 20.000 occhiali in Angola
e altri paesi dell’Africa, in Georgia e altre
nazioni dell’Europa dell’Est. Sulle montature c’era scritto da un lato “dal Popolo
degli Stati Uniti”.
White venne a conoscenza degli Adspecs (contrazione inglese per “occhiali
regolabili”) in modo piuttosto casuale e
curioso. Si trovava in Marocco per una
distribuzione di occhiali usati organizzata
dal Lions Club. Vide che ben poche persone avevano tratto giovamento da quella
elargizione, per la difficoltà di trovare le
lenti che correggevano esattamente il loro
difetto visivo. Pensò dunque che poteva
esservi un modo più semplice per risolvere il problema: in effetti vi era. Tramite
Google scoprì gli occhiali di Joshua Silver. Un incontro personale col fisico fugò
ogni dubbio di White, che chiese al suo
superiore di intraprendere la consegna di
migliaia di Adspecs. La proposta venne
accolta con tale sollecitudine da stupire
White, che disse di “non aver mai visto
militari muoversi così rapidamente”.
Un altro filantropo che ha a cuore il
progetto di Silver è il businessman indiano trapiantato nel Regno Unito Mehmood
Khan. Egli gestisce una società, la Rasuli
Kanwar Khan Trust, la quale porta avanti
un programma umanitario in 500 villaggi
nei distretti dello stato dell’Haryana, nel
nord dell’India. Khan si appresta a coordinare in questa zona la consegna di ben
un milione di paia di occhiali, qui ribattezzati Diy (do it yourself). Come egli afferma, i bisognosi non mancano, visto che
soltanto in un distretto abita circa mezzo
milione di persone.
Vari riconoscimenti internazionali attestano i benefici degli Adspecs. Essi possono infatti fregiarsi del titolo di “prodotto del Millennio”, ossia uno dei migliori
prodotti British per design, creatività e
innovazione. Altro importante premio è
quello assegnato nel 2005 al Professor
Silver dalla Tech Awards. Questa associazione internazionale premia ogni anno 15
innovatori che in tutto il mondo adoperano la tecnologia al servizio dell’umanità
sulle più urgenti problematiche relative a
educazione, uguaglianza, ambiente, salute e sviluppo economico.
E in effetti come non concordare sulla straordinaria portata sociale che gli
Adspecs hanno e avranno negli anni a
venire? Milioni di adulti saranno sottratti all’inattività lavorativa e all’esclusione
sociale, milioni di bambini avranno la
possibilità di studiare come i loro coetanei benestanti dalla vista naturalmente o
artificialmente acuta.
Paragonati a questi grandiosi obiettivi di lunga durata, i pochi difetti degli
occhiali di Silver appaiono quasi risibili. Anzitutto, il design ancora goffo li fa
sembrare usciti dal fondo di un cassetto di
Woody Allen.
Sul prezzo invece le obiezioni dei detrattori possono apparire più fondate. I 19
dollari attuali, infatti, sono ben al di fuori
della portata del pubblico per cui gli occhiali sono stati concepiti. Nel prossimo
futuro Silver intende tagliare i costi fino
a raggiungere la cifra di uno, due dollari
al massimo.
Non si sa infine quanto siano durevoli
questi occhiali, per quanto tempo mantengano il loro potere correttivo, perché
l’olio di silicone o la forma della sacca
possono col tempo alterarsi.
Certo, di una cosa Silver è sicuro e lo
dice in questi termini: “Ho sempre visto
benissimo e questo è forse il segno che
Dio mi manda per farmi capire che sto facendo qualcosa di buono”.
panorama per i giovani
•
43
ai tempi delle nevicate irachene
Nel 1997 veniva sottoscritto il Protocollo di Kyoto, il più importante
accordo internazionale per la riduzione dell’inquinamento da gas serra.
Negli ultimi dodici anni la sua applicazione ha incontrato ostacoli e
suscitato polemiche. Ma anche qualche speranza.
di Enrico Mantovano
Se San Giovanni ritornasse per caso
sulle strane lande di questo mondo, forse avrebbe qualcosa da ridire rispetto
all’abuso del termine “Apocalisse” negli
ultimi tempi. Il deserto che avanza, estati torride, distese di calura conquistatrici
delle fiorenti e fresche boscaglie che furono. Il cambiamento climatico globale
sembra essere sotto gli occhi e sulla pelle
di tutti, almeno inseguendo le concitate
affermazioni dei tuttologi di turno che
affollano parodiche tribune televisive. Si
suda, più per la paura che per un effettivo
riscaldamento del nostro bistrattato pianeta: d’altronde vorrà pur dire qualcosa se
nel gennaio 2008, dopo secoli e secoli di
arsura, la neve è placidamente scesa sui
44
•
n. 2, maggio-agosto 2009
tetti dorati di Baghdad, lasciando a bocca aperta e con il naso all’insù le frotte
di catastrofisti patentati che già preannunciavano il suicidio della Terra. Eppure,
l’aumento esponenziale dei casi di tumore
in determinate aree fortemente industrializzate del mondo è un segnale profondo
e inequivocabile del fatto che il rapporto
tra l’essere umano e l’ambiente che lo circonda raramente è equilibrato.
Queste alterazioni dell’ordine fisico
naturale comportano una serie di situazioni problematiche con cui l’universo
giuridico internazionale è venuto solo recentemente a contatto, fronteggiando una
condizione che in vaste zone del globo ha
assunto proporzioni inaccettabili. In que-
sto senso, un punto di snodo può essere
rintracciato in quello che è avvenuto nella
città giapponese di Kyoto l’11 dicembre
1997, dove quasi 160 paesi hanno sottoscritto il più importante trattato della storia delle organizzazioni internazionali in
materia di inquinamento e riscaldamento
globale. Di fronte alla spinta sempre maggiore dell’opinione pubblica mondiale e
alle necessità strettamente materiali delle grandi potenze, la Conferenza Cop3
nell’ambito della Convenzione quadro
delle Nazioni Unite sui cambiamenti climatici (Unfccc) ha condotto a un compromesso di base tra le nazioni industrializzate per porre un freno al pendio lungo
il quale l’umanità corre costantemente il
rischio di precipitare.
I tempi tecnici di applicazione del protocollo sono un emblema della difficoltà
di ricercare una soluzione comune su un
argomento che tocca in maniera così consistente l’animo (e il portafogli) dell’intera comunità mondiale. Basti pensare che
il trattato è entrato in vigore ben otto anni
dopo la sua stesura, quando la Russia ha
sciolto le riserve, pronunciandosi definitivamente per la ratifica in una giornata
diventata ormai storica per il diritto internazionale e non solo, il 16 febbraio 2005.
Foto: iStockphoto.com (beright;
gioadventures; bpowersworld)
Il protocollo di Kyoto
Primo piano
A sinistra:
il traffico di
Pechino; la Cina e
l’India producono
il 40% delle
emissioni di gas
serra mondiali.
In basso: il
tempio Kinkakuji
a Kyoto, città in
cui è stato firmato
l’importante
protocollo.
L’elemento fondamentale, la ratio
trascinante del protocollo, ruota intorno
all’obbligo per i paesi industrializzati di
ridurre l’emissione di elementi inquinanti
in misura non inferiore al 5% rispetto ai
dati registrati nel 1990. Questa svolta deve
riguardare l’abbattimento di agenti nocivi
come il biossido di carbonio e una serie di
altri gas serra (metano, ossido di diazoto,
idrofluorocarburi, perfluorocarburi, esafluoro di zolfo) in un arco di tempo compreso tra il 2008 e il 2012. Quello che è
considerato per certi versi come uno degli
aspetti più originali del trattato, è il ricorso a una serie di meccanismi di mercato,
i cosiddetti “meccanismi flessibili”, il cui
obbiettivo dichiarato è l’abbattimento
delle emissioni al minor costo possibile,
giungendo in pratica a massimizzare le riduzioni ottenibili a parità d’investimento.
Il più importante tra essi è il “meccanismo
di sviluppo pulito”.
Nelle intenzioni dei redattori, l’importanza del Protocollo passava attraverso il
più largo consenso possibile: la clausola
per la sua validità era la ratifica
di non meno di
55 nazioni firmatarie, in aggiunta alla
condizione secondo cui gli stati coinvolti dovessero rappresentare almeno il
55% delle emissioni inquinanti globali:
si spiega così il ritardo nell’approvazione del trattato, entrato in vigore solo nel
novembre 2004 quando anche la Russia
ha perfezionato la sua adesione. Infatti,
solo nel territorio ex-sovietico si produce
il 17,6% delle emissioni mondiali: se fino
al 2001, i paesi sottoscrittori del trattato
non arrivavano a 40, la svolta del 2004 ha
provocato un deciso aumento del numero
delle nazioni aderenti. Nell’aprile 2007
se ne contavano ben 169. In questa lista
manca però un nome importante: gli Stati
Uniti, responsabili del 36,2% delle emissioni mondiali, pur avendo sottoscritto
il protocollo sotto la presidenza Clinton,
non hanno mai esplicitamente ratificato il
trattato, ritirando l’adesione nei mesi successivi all’accordo iniziale.
Bisogna sottolineare che a Kyoto
sono stati portati avanti orientamenti
quanto meno discutibili, dispensando, ad
esempio, i paesi in via di sviluppo dalla
riduzione delle emissioni nocive, per non
ostacolare una loro presunta crescita economica con oneri aggiuntivi. Lascia perplessi anche il trattamento riservato alle
due superpotenze, l’India e la Cina, che
si sono affacciate sul mercato globale in
maniera preponderante nell’ultimo decennio. Esse, nonostante la enorme popolazione e la sottoscrizione del trattato,
secondo il protocollo non sono tenute a
ridurre le emissioni di anidride carbonica perché non vengono considerate come
co-autrici del presunto cambiamento climatico odierno. Da qui l’opposizione alle
clausole di Kyoto e il rifiuto americano,
non del tutto ingiustificato considerando
che questi due paesi sono responsabili del
40% dell’emissione globale di gas serra.
Un trattamento decisamente più restrittivo è previsto invece dal trattato con riferimento ai paesi considerati più industrializzati e avanzati, tra cui l’intera Unione
Europea, nei confronti dei quali il termine
di riduzione dell’emissione di elementi
nocivi sale all’8%.
Per quello che riguarda il periodo anteriore al 2008, gli stati contraenti si sono
impegnati a ottenere entro il 2005 concreti progressi nell’adempimento degli
impegni assunti, fornendone ovviamente
adeguate prove. Il protocollo stabilisce il
1995 come anno base di riferimento su
cui valutare una eventuale diminuzione di
emissioni nocive, proponendo una serie di
strumenti pratici con cui raggiungere gli
obbiettivi previsti. Tra i più importanti,
risalta con evidenza la necessità di un impulso alle politiche nazionali di riduzione
delle emissioni, a cui si deve accompagnare necessariamente, nelle intenzioni dei
sottoscrittori, un costante miglioramento
dell’efficienza energetica, la promozione
di forme di agricoltura sostenibili e soprattutto lo sviluppo e la promozione di fonti
energetiche rinnovabili. Tuttavia, i paesi
realmente soggetti a vincolo di emissione
sono oggi una quarantina, le cui emissioni
totali di CO2 nel 1990 sono ammontate
a 13.728 miliardi di tonnellate: emergono
in questo senso una serie di problematiche
che il diritto internazionale non è ancora
riuscito a risolvere compiutamente, primo
tra tutti l’irrogazione di sanzioni agli stati inadempienti o lo scambio dei diritti di
emissione.
Con tutti i suoi limiti, quello compiuto a Kyoto rimane un passo fondamentale
della politica globale in materia di inquinamento: il Protocollo si erge come un approccio più unico che raro di azione mondiale in difesa dell’ambiente, nonostante
le precarietà insita alla struttura del diritto
internazionale, mutevole e instabile per
sua natura. Una soluzione effettiva e priva
di elementi ideologici è possibile, evitando
di inquadrare un tema che incide così profondamente sulla vita quotidiana di ogni
cittadino del mondo nell’ottica di una sterile lotta demagogica. Si potrebbe sempre
correre il rischio di predicare l’esplosione
incandescente del nostro pianeta, chiudendo le finestre mentre grossi fiocchi di neve
fanno sorridere i pastori di Baghdad, in
uno strano mattino di gennaio.
panorama per i giovani
•
45
Primo piano
Gli ultimi vent’anni hanno portato vere e proprie rivoluzioni nel campo
climatico, economico e politico, che non hanno mancato di ripercuotersi
con un impatto senza precedenti sulle politiche energetiche dei due
(ancora per poco) principali attori dell’economia mondiale: l’Europa e
gli Stati Uniti d’America.
di Chen Lin Strobio e Luca Valerio
L’Europa in prima linea
Allo stato attuale, l’Europa è costretta ad affrontare il problema energetico sotto diversi
aspetti. Innanzitutto, la sua forte dipendenza
dall’estero. Da un allarme lanciato da Il Sole
24 Ore (24 maggio 2007), entro il 2030 la
dipendenza energetica dell’Ue salirà al 70%,
mentre attualmente si attesta intorno al 50.
Ciò naturalmente mette a rischio la sicurezza dell’approvvigionamento e rende fortemente vincolante il rapporto con i
paesi produttori (Russia, Norvegia, i paesi
dell’Opec), nonché la situazione geopolitica
nei paesi di passaggio (come l’Ucraina).
Sul fronte dell’ambiente, il problema
è rappresentato dal contenimento delle
emissioni inquinanti, ritenuta la principale causa del cambiamento climatico in
atto. È chiaro che nello scenario attuale
si rende vitale il delinearsi di una politica
comune, che promuova la solidarietà e la
cooperazione fra gli stati membri, per il
raggiungimento di obiettivi condivisi.
In risposta alle esigenze del settore
energetico e nel rispetto degli impegni
46
•
n. 2, maggio-agosto 2009
sottoscritti a Kyoto, l’Europa ha adottato, in seguito al Consiglio dell’8-9 Marzo
2007 a Berlino, una propria linea in ambito energetico. Definito dai più un progetto
ambizioso, il cosiddetto pacchetto “2020-20” si pone tre obiettivi principali:
- emissioni di gas a effetto serra: l’Europa
si impegna a ridurre di almeno il 20% le
emissioni di gas serra entro il 2020, obiettivo che supera di gran lunga la soglia prevista dal protocollo di Kyoto (5% di riduzioni
per i paesi industrializzati). Inoltre, secondo
l’ultima proposta avanzata dall’Unione, tale
quota potrebbe innalzarsi al 30%, in caso di
un accordo con tutti gli altri paesi del globo;
- efficienza energetica: la riduzione dei
consumi energetici sarà del 20% rispetto
alle proiezioni tendenziali per il 2020;
- fonti rinnovabili: l’energia prodotta da
fonti rinnovabili dovrà attestarsi al 20%
della produzione totale nel 2020.
Dopo quasi due anni di lavori, lo scorso dicembre il pacchetto ha ottenuto il via
libera da Strasburgo. Oltre a confermare i
traguardi proposti nel 2007, è stato stabilito anche che, dal 2013, l’industria sarà
Gli Usa fra mercato e terrorismo
Sin dal 1950, con l’aumento dei mezzi di
trasporto, gli Usa consumano più petrolio
che carbone. È comprensibile, dunque, che
il primo evento ad avere un impatto significativo sulle loro politiche energetiche fu la
crisi petrolifera del 1973. I governi di allora mostrarono grande capacità di annuncio,
ma anche creatività nei tentativi di ridurre
Foto: iStockphoto.com (Luke1138;
gchutka; nojustice)
L’Occidente alla sfida
della questione energetica
tenuta a pagare le quote di emissione, che
saranno trattate alla borsa europea delle
emissioni. Tuttavia, si fa eccezione per
i settori produttivi più penalizzati dalla concorrenza internazionale. Le quote
per queste ultime saranno gratuite fino
al 2020. Il periodo relativamente lungo
che ha portato all’accordo finale è stato
segnato da negoziati fra paesi membri,
Parlamento e Commissione, dopo le critiche mosse da stati come la Polonia, la
Germania e, in particolare, l’Italia. Il nostro paese ha infatti ottenuto concessioni
nei settori di produzione della carta, del
vetro, della ceramica e del tondino, accordo che ha riscosso il plauso del mondo
imprenditoriale, ma anche commenti polemici delle associazioni ambientaliste.
Il voto unanime al pacchetto clima ha
indicato la volontà dell’Europa di rispettare
gli accordi di Kyoto e di assumere il ruolo di
leader nella lotta al cambiamento climatico.
Tuttavia, la sua è una posizione che non può
avere successo senza l’adesione di grandi
paesi come gli Usa o di economie emergenti come Cina, India e Brasile. A tal proposito, ricordiamo che un “grande emettitore”
come gli Stati Uniti è responsabile da solo
per il 36,2% delle emissioni mondiali.
Per coinvolgere il resto del mondo
nella rivoluzione verde, l’Europa, a quanto risulta dalla sua ultima proposta, è disposta a pagare un alto prezzo: 30 miliardi
l’anno. È questa la cifra che i paesi industrializzati, attraverso un sistema di tassazioni, dovrebbero investire a favore del
resto del mondo per promuovere la produzione di energie da fonti alternative.
La speranza, dunque, è che gli altri
paesi si convincano a seguire l’esempio
virtuoso che l’Europa si appresta a dare.
Prima fra questi l’America di Obama,
nella quale l’Ue potrebbe trovare un fondamentale interlocutore e alleato, anche
in vista della conferenza mondiale delle
Nazioni Unite sul clima programmata per
il prossimo autunno a Copenhaghen.
Primo piano
la dipendenza dal petrolio straniero: Nixon
propose che la benzina non superasse il
prezzo di un dollaro al gallone; Carter, a
sua volta, la formula “gli Usa non supereranno mai la quantità di petrolio importata
nel 1977”. Sul piano concreto, fu imposto
un limite nazionale di velocità stradale a
88 km/h; si pensò di estendere l’ora legale
a tutto l’anno; si agevolò la costruzione di
immobili termicamente isolati. Tutti questi
provvedimenti erano orientati al risparmio
energetico, piuttosto che alle energie rinnovabili, allora non sviluppate, e non rappresentavano strategie a lungo termine. Forse
perché prevalse, molto più che in Europa,
la volontà di non penalizzare la American
way of life e con essa il mercato.
Non sorprende, dunque, che la dipendenza statunitense dai combustibili fossili,
anziché diminuire, aumentò. E parallelamente crebbero i legami, anche politici, con
i maggiori produttori di petrolio – specie il
maggiore, l’Arabia Saudita. Almeno fino al
secondo grande momento di ripensamento:
l’11 settembre. Alle tradizionali critiche ai
combustibili fossili (inquinanti e alla lunga
destinati a esaurirsi) si aggiunsero nuove
preoccupazioni: il timore di finanziare indirettamente il terrorismo islamico e la dipendenza da paesi non democratici, spesso
non amici degli americani. Questa volta la
paura di danneggiare l’economia non poté
impedire interventi di vasta portata: due dei
tre Energy Policy Act federali, infatti, sono
posteriori al 2001 (2005 e 2007). Accanto
alle politiche di puro risparmio energetico,
fecero la loro comparsa tentativi di stimolare l’uso di energie rinnovabili e l’invenzione di tecnologie più efficienti. Le resistenze
a questi interventi, però, erano ancora forti.
Fece scalpore la mancata adesione al
protocollo di Kyoto, che avrebbe svantaggiato eccessivamente le imprese, così
come conservativa apparve la preferenza
di Bush per l’aumento della produzione
nazionale di combustibili fossili e di energia nucleare, piuttosto che il ricorso alle
fonti rinnovabili.
Le elezioni del 2008 hanno segnato invece una vera svolta. Per la prima volta, entrambi i principali candidati alla corsa presidenziale hanno proposto politiche orientate più radicalmente all’uso delle energie
A sinistra: il nuovo presidente degli Stati
Uniti Barak Obama ha puntato molto,
durante la sua campagna elettorale, sui
motori elettrici e le energie rinnovabili
(sotto: la Casa Bianca). Nella pagina
precedente: il Parlamento europeo a
Strasburgo.
Come un governo
può ridurre le emissioni
inquinanti
Tutti i metodi ideati dalla politica
economica accademica e dalla pratica
politica per permettere ai governanti
di controllare l’inquinamento da
combustibili fossili nei loro paesi
implicano incentivi o penalizzazioni,
ma a tutt’oggi non è chiaro quale sia il
più efficace o il meno penalizzante per
la vita economica.
Imposte: lo stato rende desiderabile
l’adozione di tecniche produttive
meno inquinanti o ad alta efficienza
energetica riducendo la pressione
fiscale solo per le imprese che le
usano.
Sussidi: lo stato sovvenziona le
imprese che danno prova di utilizzare
nei loro stabilimenti tecnologie
efficienti o basate su fonti rinnovabili.
Permessi Negoziabili di
Inquinamento (ingl. cap-and-trade):
lo stato fissa un tetto massimo alle
emissioni annuali nazionali di ciascun
inquinante. Questo “monte emissioni”
viene poi diviso in “titoli” negoziabili,
che danno diritto a ciascuna impresa
di emettere una determinata quantità
di inquinanti e che possono essere
scambiati fra le imprese con prezzi
determinati dal mercato.
rinnovabili e con programmi di risparmio
energetico a lungo termine. Entrambi, in
particolare, proponevano, come la Ue, l’introduzione di un sistema di controllo delle
emissioni di tipo cap-and-trade (in italiano, permessi negoziabili di inquinamento;
vedi box) e un sostegno massiccio all’uso
di automobili ibride a idrogeno. Fra i due,
poi, il più radicale era il candidato che poi
ha vinto, Barack Obama, che, nel suo piano
New Energy for America, a differenza del
repubblicano McCain, non solo proponeva
di non costruire nuove centrali nucleari, ma
addirittura indicava obiettivi ambiziosi e a
lungo termine sia nella riduzione del ricorso
ai combustibili fossili tramite il risparmio
energetico (azzerare la dipendenza dai paesi Opec gradualmente entro il 2030), sia
nell’aumento delle energie rinnovabili (10%
dell’elettricità da fonti rinnovabili entro il
2012, 25% entro il 2025). Il programma più
simile agli obiettivi dell’Ue che sia mai stato enunciato finora sulla politica energetica
statunitense: staremo a vedere.
panorama per i giovani
•
47
incontri
Dal Collegio
Incontro con Giampiero Cantoni
Sopra: Il Cavaliere del
Lavoro Giampiero Cantoni.
Sotto: foto di gruppo degli
studenti del Collegio con
l’Ambasciatore italiano a
Cuba Domenico Vecchioni.
Il 20 maggio è stato ospite del Collegio il Senatore
Giampiero Cantoni, Presidente della Commissione
difesa del Senato, docente
universitario e Presidente del
Comitato scientifico della
Federazione Nazionale dei
Cavalieri del Lavoro.
L’incontro è stato aperto
dal Presidente della Federa-
zione Benito Benedini, che ha
sottolineato l’importanza che
i Cavalieri del Lavoro attribuiscono all’impegno “strategico” a favore dei giovani più
meritevoli. Un impegno che
trova da quasi quarant’anni la
sua conferma più significativa
proprio nel Collegio.
Il Senatore Cantoni
ha esordito richiamando il
mutare frenetico dei tempi
sull’onda della globalizzazione e la conseguente necessità di aprirsi al mondo
puntando sull’integrazione e
cooperazione internazionale.
Emerge proprio in questa
prospettiva il “peccato originale” della scuola italiana,
eccessivamente votata all’indirizzo umanistico e troppo
slegata dalle esigenze del
mondo del lavoro. Questa
caratterizzazione è in controtendenza rispetto a quella
riscontrabile negli altri paesi
europei, negli Usa, in Cina
e India, dove si punta sul
settore scientifico e dove si
prende atto concretamente
dell’allargamento degli orizzonti socio-economici al di
là della dimensione nazionale. Per questo, fra l’altro,
è indispensabile una conoscenza adeguata della lingua
inglese, che i nostri studenti
troppo spesso non hanno. Il
Senatore ha posto l’accento
sulla necessità di affrontare
la competizione internazionale a testa alta, mirando a
essere egregi nel significato
letterale dell’essere “fuori dal
gregge”, ossia distinguendosi attraverso un percorso
consapevole di formazione
della persona. Il Cavaliere
Cantoni ha quindi illustrato
le principali dinamiche del
panorama socio-politico internazionale, evidenziando
l’importante contributo del
nostro paese nelle principali
aree di crisi.
liano a Cuba, e abbiamo la
possibilità di parlargli in
prima persona e ascoltare
risposte sincere e dirette.
Incontriamo fra i palazzi
della Capitale anche il Segretario della Conferenza
Episcopale e il Presidente
della “Fragua Martiana”,
con cui parliamo di uno
degli eroi nazionali: Josè
Martì.
E poi visitiamo Pinar del
Rio nella Valle di Vinales
(culla del migliore tabacco
del mondo); Santa Clara,
ventre della Rivoluzione
e luogo di celebrazione di
Che Guevara; Trinidad, meraviglioso incanto d’epoca
coloniale. E ancora: le meravigliose spiagge vergini
di Cayo Las Brujas (dove
abbiamo passato momenti
idilliaci fra la sabbia fine, le
palme e il mare che gareggiava col cielo per intensità!); Cienfuegos e Remedios; infine Varadero, dove
il turismo ha iniziato a corrodere la purezza originaria
dell’isola come la ruggine il
ferro, intaccandone l’autenticità.
Questo straordinario caleidoscopio di sensazioni,
colori, odori e ricordi resterà
impresso in ciascuno di noi,
e sarà difficile dimenticare il
fascino e il mistero emanati
dall’Alma de Cuba...
Viaggio a Cuba
Le sue strade spesso dissestate, i palazzi del Miramar,
il porto senza barche, mostrano come ci sia qualcosa
che noi europei non potremo
forse mai cogliere appieno.
Visitiamo piazze, musei,
i luoghi della vita di Hemingway e quelli storici della
Rivoluzione che compie 50
anni.
Siamo ospiti nella residenza di Domenico Vecchioni, Ambasciatore ita48
•
n. 2, maggio-agosto 2009
Tutti gli incontri del Collegio
Universitario “Lamaro Pozzani” di
questo periodo.
Potrete trovare maggiori informazioni
su questi eventi e sul Collegio
all’indirizzo www.collegiocavalieri.it
27.04.09. Il sisma in Abruzzo.
Il professor Enrico Spacone, docente
presso l’Università di Chieti Pescare
ed esperto in campo sismico, parla del
terremoto che ha colpito l’Abruzzo.
11.05.09. La sanità pubblica.
Il professor Walter Ricciardi, direttore
dell’Istituto di Igiene della Facoltà di
Medicina e Chirurgia dell’Università
Cattolica parla di sanità pubblica.
13.05.09. La legge sulla
procreazione assistita.
Incontro con l’avvocato Gian
Domenico Caiazza, laureato del
Collegio, che ha parlato della sentenza
della Corte Costituzionale sulla legge
40 (procreazione medicalmente
assistita).
20.05.09. Incontro con Giampiero
Cantoni.
Gli studenti del Collegio incontrano
il Senatore Giampiero Cantoni,
Cavaliere del Lavoro e Presidente
della Commissione Difesa del Senato.
21.05.09. Incontro con Giuseppe
Vacca.
Il professor Giuseppe Vacca,
Presidente della Fondazione Gramsci,
ha chiuso il 21 maggio il ciclo di
incontri con le fondazioni che operano
nel settore politico-culturale.
www.cavalieridellavoro.it
Notizie e informazioni aggiornate settimanalmente
I Cavalieri
Un archivio con l’elenco di tutti i Cavalieri del Lavoro
nominati dal 1901 a oggi e più di 550 schede biografiche
costantemente aggiornate
La Federazione
Che cos’è la Federazione Nazionale dei Cavalieri del
Lavoro, la composizione degli organi, lo statuto e le
schede di tutti i presidenti
I Gruppi
Le pagine dei Gruppi regionali, con news, eventi e tutte
le informazioni più richieste
Le attività
Gli obiettivi della Federazione, la tutela dell’ordine, i
premi per gli studenti e i convegni
Il Collegio
Il Collegio Universitario “Lamaro-Pozzani” di Roma e i
nostri studenti di eccellenza
Le pubblicazioni
I volumi e le collane pubblicati dalla Federazione, la
rivista “Panorama per i Giovani” e tutti gli indici di
“Civiltà del Lavoro”
L’onorificenza
La nascita e l’evoluzione dell’Ordine al Merito del Lavoro,
le leggi e le procedure di selezione
La Storia
Tutte le informazioni su più di cento anni di storia
...e inoltre news e gallerie fotografiche sulla vita della
Federazione.
È QUANDO TI SENTI PICCOLO CHE SAI DI ESSERE DIVENTATO GRANDE.
A volte gli uomini riescono a creare qualcosa più grande di loro. Qualcosa che prima non c’era. È questo che noi intendiamo per innovazione
ed è in questo che noi crediamo.
Una visione che ci ha fatto investire nel cambiamento tecnologico sempre e solo con l’obiettivo di migliorare il valore di ogni nostra singola
produzione.
È questo pensiero che ci ha fatto acquistare per primi in Italia impianti come la rotativa Heidelberg M600 B24. O che oggi, per primi in Europa,
ci ha fatto introdurre 2 rotative da 32 pagine Roto-Offset Komori, 64 pagine-versione duplex, così da poter soddisfare ancora più puntualmente
ogni necessità di stampa di bassa, media e alta tiratura.
Se crediamo nell’importanza dell’innovazione, infatti, è perché pensiamo che non ci siano piccole cose di poca importanza.
L’etichetta di una lattina di pomodori pelati, quella di un cibo per gatti o quella di un’acqua minerale, un catalogo o un quotidiano, un magazine
o un volantone con le offerte della settimana del supermercato, tutto va pensato in grande.
È come conseguenza di questa visione che i nostri prodotti sono arrivati in 10 paesi nel mondo, che il livello di fidelizzazione dei nostri clienti
è al 90% o che il nostro fatturato si è triplicato.
Perché la grandezza è qualcosa che si crea guardando verso l’alto. Mai dall’alto in basso.
Fly UP