panorama per i giovani - Collegio Universitario Lamaro Pozzani
by user
Comments
Transcript
panorama per i giovani - Collegio Universitario Lamaro Pozzani
Collegio Universitario “Lamaro Pozzani” - Federazione Nazionale dei Cavalieri del Lavoro panorama per i giovani Collegio Universitario “Lamaro Pozzani” - Via Saredo 74 - Roma - Quadrimestrale - Tariffa R.O.C.: “Poste italiane s.p.a. - Spedizione in Abbonamento postale - D.L. 353/2003 (conv. in L. 27/02/2004 N° 46) art. 1 comma 1, DCB Modena” - anno XLII - n. 2 - maggio-agosto 2009 INTERNET Oltre il Web 2.0 LINGUAGGI Php, Java, C e gli altri SALUTE Gli occhiali regolabili di Joshua Silver NUOVE NUOVE FRONTIERE FRONTIERE Tecnologie dell’informazione Eccellenza negli studi Più che una laurea Un impegno da vivere insieme Il Collegio “Lamaro Pozzani” ospita a Roma gratuitamente studenti, di tutte le facoltà e di tutte le regioni, che hanno superato una selezione seria e accurata, in cui contano solo la preparazione e le capacità. A loro chiediamo di frequentare con successo l’università, laureandosi in corso e con il massimo dei voti, ma anche di partecipare alle attività del Collegio. I nostri studenti sono diventati docenti e ricercatori, imprenditori e dirigenti d’azienda, professionisti, funzionari della pubblica amministrazione. Lavorano in Italia e all’estero in posizioni di responsabilità. Questi risultati sono stati raggiunti anche perché in Collegio hanno frequentato corsi di economia, diritto, informatica. Hanno viaggiato e imparato a parlare correntemente l’inglese e altre lingue straniere. E hanno incontrato e conosciuto personalità politiche, grandi studiosi, manager di successo. Vi troverete a fianco di settanta ragazze e ragazzi che saranno fra i vostri migliori amici e vi aiuteranno a considerare il Collegio la vostra “casa”. Il tempo dello studio, per un giovane universitario, non può che integrarsi con il tempo della vita: un’esperienza di libertà e responsabilità decisiva per il futuro umano, professionale e culturale di ciascuno. Collegio Universitario “Lamaro Pozzani” Federazione Nazionale dei Cavalieri del Lavoro www.collegiocavalieri.it Sommario panorama giovani per i n. 2, maggio-agosto 2009 4 14 42 44 Le nuove tecnologie dell’informazione sono l’argomento principale di questo numero di “Panorama per i giovani” (Foto: iStockphoto/ dem10). PANORAMA PER I GIOVANI Periodico della Federazione Nazionale dei Cavalieri del Lavoro - Roma Anno XLII - n. 2 - maggio-agosto 2009 3. Editoriale di Stefano Semplici Tecnologie dell’informazione 4. Tessendo la tela più accattivante La nascita, lo sviluppo e le prospettive della “rete delle reti”: Internet. di Renato Mancuso 8. Convergenza fisso-mobile I nuovi cellulari non sono semplici telefoni, ma potenti computer. di Davide Granata 10. Chi conosce cosa? Il Web 2.0 dal peer-to-peer ai social networks: intervista a Francesca Comunello. a cura di Francesco Mauceri 12. Un nuovo commercio per una nuova economia Le sfide poste dalla New Economy. 30. Scienza e informatica: una coppia vincente Le opportunità offerte agli scienziati dall’informatica. di Luca Valerio 32. Umanisti, giuristi e informazione digitale Anche letterati e filosofi stanno imparando a comunicare diversamente il loro sapere. di Maria Teresa Rachetta 34. Frequently Asked Questions Il mestiere del programmatore in un’intervista con Andrea Bastoni. a cura di Carla Giuliano 36. Super-computer del futuro Come funzionano i computer quantistici. di Emanuele Ghedin 38. Il futuro è nell’Aria La rivoluzione del WiMax. di Francesca Moretti di Giorgio Mazza 14. C’era una volta la Silicon Valley Elettronica, informatica, ingegneria aerospaziale. Breve storia di un sogno americano. 39. Arte e informatica L’arte nell’era del mondo virtuale. di Francesca Ronzio 18. A me il sorgente! Viaggio nel mondo di Gnu e del software libero. di Carmelo Di Natale 22. Mettersi in gioco Intervista a Leonardo Ambrosini, co-fondatore di Nexse, una delle imprese italiane più innovative. a cura di Carla Giuliano 26. Il tormentato dialogo fra l’uomo e la macchina Quale linguaggio di programmazione? di Renato Mancuso 28. Un mondo in 2D L’arte dell’animazione in un’intervista a Gian Marco Todesco della Digital Video. a cura di Selene Favuzzi Direttore responsabile Mario Sarcinelli Direttore editoriale Stefano Semplici Segretario di redazione e impaginazione Piero Polidoro Redazione: Paolo Busco, Carmelo Di Natale, Selene Favuzzi, Carla Giuliano, Nicola Lattanzi, Claudia Macaluso, Alfonso Parziale, Beatrice Poles, Simone Pompei, Maria Teresa Rachetta, Damiano Ricceri, Francesca Ronzio, Sara Simone, Luca Valerio, Francesca Zazzara. Direzione: presso il Collegio Universitario “Lamaro Pozzani” - Via Saredo 74 00173 Roma, tel. 0672.971.322 - fax 0672.971.326 Internet: www.collegiocavalieri.it E-mail: [email protected] Agli autori spetta la responsabilità degli articoli, alla direzione l’orientamento scientifico e culturale della Rivista. Né gli uni, né l’altra impegnano la Federazione Nazionale dei Cavalieri del Lavoro. di Selene Favuzzi 41. Post scripta di Mario Sarcinelli Potete leggere tutti gli articoli della rivista sul sito: www.collegiocavalieri.it Primo Piano 42. Il fisico che dona la vista ai poveri Joshua Silver ha inventato occhiali regolabili a basso costo. di Francesca Mancini 44. Il protocollo di Kyoto Un’intesa difficile da applicare. di Enrico Mantovano 46. L’Occidente alla sfida della questione energetica Le politiche dell’Europa e degli Stati Uniti. di Chen Lin Strobio e Luca Valerio 48. Dal Collegio Gli incontri serali del Collegio Universitario “Lamaro Pozzani”. Autorizzazione: Tribunale di Roma n. 361/2008 del 13/10/2008. Scriveteci Per commenti o per contattare gli autori degli articoli, potete inviare una e-mail all’indirizzo: [email protected] Collana di Studi e Ricerche “Dario Mazzi” La collana di Studi e Ricerche “Dario Mazzi”, nata dalla collaborazione fra il Collegio Universitario “Lamaro-Pozzani” e la casa editrice “il Mulino” di Bologna, raccoglie i risultati più significativi dei programmi didattici e di ricerca svolti dall’istituzione nell’area giuridico-economica e degli studi sociali. Nei singoli volumi confluiscono i contributi di docenti, Cavalieri del Lavoro ed esperti dei singoli settori, ma anche di quei laureandi che hanno ottenuto i migliori risultati nei diversi corsi e seminari. Non profit come economia civile a cura di S. Zamagni Bologna 1998, pp. 216 Il problema del non profit e gli aspetti giuridici ed economici delle Onlus in un volume curato dal padre della normativa italiana nel settore. Un’azienda e un’utopia. Adriano Olivetti 1945-1960 a cura di S. Semplici Bologna 2001, pp. 257 Un volume dedicato alla rilettura delle speranze e delle contraddizioni di un’epoca attraverso l’opera di uno dei suoi protagonisti più significativi e per questo più discussi. Il lavoro: un futuro possibile a cura di G. De Caprariis e S. Semplici Bologna 1999, pp. 248 La globalizzazione, la richiesta di flessibilità, la necessità di una formazione efficace, la ridefinizione del “sistema delle regole”. L’ultima parte del volume è dedicata al fenomeno del telelavoro. Il diritto di morire bene a cura di S. Semplici Bologna 2002, pp. 224 L’eutanasia: un problema che è oggi di grande rilevanza per la sfera dell’etica pubblica oltre e forse prima che per quella del diritto. Banca e finanza tra imprese e consumatori a cura di A. Guaccero e A. Urbani Bologna 1999, pp. 352 Gli anni ’90 si sono svolti all’insegna di un ampio processo di codificazione normativa nei settori bancario e finanziario. Tale processo ha avuto le sue tappe più salienti - nell’intento di una disciplina stabile - nel T.U. bancario del 1993 e nel T.U. della finanza del 1998. Italia e Mediterraneo: le occasioni dello sviluppo a cura di S. Semplici e L. Troiani Bologna 2000, pp. 256 Il Mediterraneo non è per i popoli che lo abitano una vera “casa comune”. Con la Conferenza svoltasi a Barcellona nel 1995 sono state poste le premesse per una nuova strategia di partenariato, della quale questo volume verifica alcuni degli assi portanti. Intermediari e mercati finanziari a cura di Giorgio Di Giorgio e Carmine Di Noia Bologna 2004, pp. 354 Il sistema finanziario è attraversato da una profonda evoluzione, che porta alla progressiva rimozione di barriere e a un aumento della competizione. Il volume ha l’obiettivo di esporre una serie di temi attinenti la struttura e il funzionamento dei moderni sistemi finanziari. Angelo Costa. Un ritratto a più dimensioni a cura di Francesca Fauri e Vera Zamagni Bologna 2007, pp. 296 Angelo Costa fu nominato Cavaliere del Lavoro nel 1952 e legò il successo del suo impegno imprenditoriale allo sviluppo dell’industria armatoriale italiana. Fu chiamato per ben tre volte a presiedere la Confederazione Generale dell’Industria Italiana, incidendo in profondità sulla nuova configurazione delle relazioni del mondo dell’impresa con le altre parti sociali e con la politica. Editoriale S ono passati poco più di venticinque anni dalla mia tesi però ferma da tempo all’aeroplano e non si annunciano “salti” di laurea. Ricordo le lunghe ore trascorse consultan- di analoga portata e diffusione. Quando ci si muove nello spado gli schedari delle biblioteche, cercando nei catalo- zio, d’altronde, le forze del mondo fisico impongono infine lighi delle case editrici e nelle librerie internazionali di miti difficilmente superabili. Le Ict, proprio perché hanno a che Roma le opere più recenti per la mia bibliografia, correggendo fare con i processi della conoscenza, sembrano invece rendere pazientemente il testo nel passaggio da una versione all’altra, davvero avventurosa ogni previsione su quel che sarà possibile anche quando non bastava “sbianchettare” una frase o sostituire fare di qui a pochi anni. una pagina e si doveva ribattere un intero paragrafo. Sempre con In questo numero della rivista si tenta almeno di scandagliare il dubbio di aver dimenticato qualcosa che “valeva la pena di le prospettive che si presentano oggi più promettenti e comunque leggere” e della quale nessuno si era ancora accorto. Ho fatto in strategicamente rilevanti. Farlo dal punto di vista della ridefinitempo a conoscere il piombo, la fatica e la puntigliosa attenzione zione appunto dei luoghi dell’umano significa prendere atto, per dei tipografi di una volta, anche loro costretti a sbagliare il meno restare a un esempio immediatamente evidente, che la responsapossibile, perché non si rimediava agli errori con un rapido pas- bilità per la trasmissione e formazione del sapere non è più chiusa saggio della mano sulla tastiera di un computer. E non ho alcun solo fra le mura di edifici scolastici, università e biblioteche: la rimpianto – ovviamente – per tutto questo: scelgo una busta e learning society è la “società delle reti” di cui parla Manuel Caun francobollo anziché una e-mail solo per le notizie alle quali stells, così come le persone non si incontrano più soltanto nella affido la “sostanza” di un sentimento e di un affetto, oltre che per piazza di una città, ma in quella dei social networks. Con tutte le quelle più formali e “ufficiali”. opportunità e i rischi che ciò comporta. Nel linguaggio della moNon c’è conoscenza senza comunicazione e quest’ultima dernità si è consolidata non a caso l’espressione “sfera pubblica”. cambia sostanzialmente in quantità e qualità insieme agli stru- Habermas, nel suo celebre saggio su Storia e critica dell’opiniomenti sui quali viaggia. Basti ricordare le cesure epocali segna- ne pubblica, sottolinea come pubblica sia quell’istituzione che si te dall’introduzione della scrittura e, in fondo caratterizza per la sua accessibilità a tutti e dipochi secoli fa, dall’invenzione della stampa. venta in questo modo la premessa di un potere Può essere facile affermare, proprio guardan- Non c’è condiviso e, infine, autenticamente democratido a questi precedenti, che l’impatto della conoscenza senza co. La geometria della sfera mantiene però un Information and Communication Technology comunicazione elemento di chiusura, tipicamente quello poliè radicale perché travolge la scala dei tempi e quest’ultima tico della cittadinanza, che ciascuno vive sì in dell’innovazione: la stessa generazione si è piazza, ma nella propria piazza. Questo limite cambia insieme trovata più volte a varcare la soglia dell’im“fisico” è saltato: perfino i giornali si leggono pensabile, tanto è vero che il limite dello svi- agli strumenti ormai sempre più spesso on-line; idee, articoli luppo, della pervasività del nuovo, finisce per sui quali viaggia. e scoperte si discutono su Internet e non intoressere non la capacità della scienza di prono ai tavoli di coffee-houses e salons, come durlo, ma quella dell’uomo di adattarsi a esso, a un orizzonte amavano fare gli intellettuali del Settecento. È evidente che si nel quale – per riprendere una fortunata espressione di Bauman tratta di un ampliamento delle potenzialità di partecipazione: la – diventa “liquida” non solo la sua identità, ma anche gli oggetti network society si sviluppa in modo spontaneamente plurale e e i gesti della vita quotidiana. Si compra l’ultimo modello di cel- azzera distanze che resterebbero altrimenti incolmabili. La steslulare “perché così fan tutti”, ma si continuerà a usarlo solo per sa campagna elettorale di Barack Obama ha dimostrato come telefonare. Non è questo l’unico ambito nel quale il progresso in questo modo possano cambiare (e risultare vincenti) anche le sollecita in modo così traumatico la nostra capacità di rappre- strategie della politica. Occorre però vigilare sulle nuove linee di sentare e ordinare il mondo sulla base di principi, stili, valori frattura ed emarginazione che possono crearsi. Non tutti vivono e anche abitudini ragionevolmente stabili e per questo rassicu- on-line. Ulrich Beck, descrivendo lo scenario “dalla società del ranti: si pensi solo alla crescente difficoltà di regolare secondo lavoro alla società del sapere”, vede il rischio di una “società criteri condivisi i nuovi poteri della medicina sulla vita dell’uo- neofeudale”, nella quale brokers, esperti di sistemi finanziari e mo. Ma è questo, senza alcun dubbio, il fattore di trasformazio- informatici e altri operatori di livello professionale elevato e ben ne che incide più profondamente sul rapporto fra l’individuo e retribuito “poggiano” la loro attività di global players su quella i luoghi della sua formazione, del suo lavoro, della sua stessa di una grande quantità di persone che provvedono alle pulizie, esperienza di relazione. È chiaro che un effetto simile è stato alle riparazioni, agli approvvigionamenti e alla sicurezza. C’è prodotto con la “globalizzazione” conseguente all’evoluzione un livello di accesso alle nuove tecnologie, insomma, che non anch’essa rapidissima dei mezzi di trasporto: quest’ultima, al- è colto dal numero dei telefonini. Rispetto a quest’ultimo dato, meno per quanto riguarda le innovazioni che hanno avuto un come è noto, l’Italia non teme rivali. Ma non è il dato che conta impatto diffuso sulla popolazione – e dunque senza tener conto davvero. dei razzi che hanno reso possibile l’esplorazione spaziale – è Stefano Semplici panorama per i giovani • 3 Tecnologie dell’informazione La chiamano – non senza merito – la rete delle reti. I suoi numeri raccontano la voglia di comunicare e avvolge con le sue maglie l’intero pianeta. Tra ricerche, sviluppi e colpi di scena, ecco la storia di Internet, in agile slancio verso un lieto futuro. di Renato Mancuso to messaggio di prompt era da ritenere un prodigio. Verità vuole che al Dipartimento della Difesa americano già coIl progetto Arpanet era stato voluto minciassero ad alall’inizio degli anni Sessanta per produrre una lignare, nell’indifrete in grado di dare man forte alle operazioni di ferenza di molti, le gestione della difesa statunitese ricerche per il progetto Arpanet. Era le loro shells lampeggianti a utenti più o in quegli anni, infatti, che le ricerche in meno convinti che anche il più sgrazia- computer science portate avanti per conPrima del lontano 1962, sparuti e sperduti terminali mostravano timidamente “ 4 • n. 2, maggio-agosto 2009 ” to della Bbn (Bolt, Beranek and Newman) fecero venire a J.C.R. Licklider l’idea che fosse possibile realizzare una rete capace di garantire la comunicazione tra gli utenti di svariati computer in tutto il globo. Il progetto Arpanet era stato voluto per produrre una rete in grado di dare manforte alle operazioni di gestione della difesa e quindi nacque in un ambito molto lontano da quello degli impieghi civili. La leggenda accesa dalle fobie della Guerra Fredda narra che esso mirasse alla creazione di una infrastruttura di rete che fosse capace di resistere ad attacchi nucleari, ma la verità è che nessuno poteva immaginare per quanto tempo un progetto sperimentale come Arpa si sarebbe protratto e quali Foto: iStockphoto.com (enot-poloskun; elgris; Tetra2000) Tessendo la tela più accattivante Tecnologie dell’informazione Linguaggi come il Cgi o il più recente Php consentono di rendere più dinamico il funzionamento delle pagine web, sfruttando il funzionamento dei server (sopra, una server farm). Anche la web-mail si basa su questo principio. sarebbero state le sue ricadute sulle tecnologie di rete civili. Intanto, si cominciava a pensare a una comunicazione differente da quella tradizionale e telefonica. Si cominciava a capire che non era poi così rilevante trasmettere tutti i dati su un percorso dedicato. Che non era così essenziale che le informazioni viaggiassero in ordine e in maniera continua. Entro certi limiti non era rilevante neanche che le informazioni arrivassero a destinazione. Dentro Arpanet si lavorava infatti alla prima rete a commutazione di pacchetti del mondo. Ha del paradigmatico la storia del primo messaggio scambiato sulla rete Arpanet: era una mattina del 29 ottobre 1969 e tutto sembrava messo a punto per comunicazione abbastanza ingenua e altamente inefficiente, ma non si fece aspettare molto la seconda versione – detta Slotted Aloha. E sempre in quegli anni accadeva qualcosa che sarebbe poi entrato nel patrimonio genetico di Internet così come oggi la conosciamo: nel 1972, infatti, la rete Aloha veniva messa in comunicazione con la già costituita rete Arpanet. Negli anni a seguire, cominciavano a fiorire in svariati paesi del globo tecnologie di interconnessione capaci di relazionare hosts a distanze sempre maggiori ci si avvicinava sempre più rapidamente al punto di svolta decisivo. Nel lontano 1982, infatti, per la prima volta si pronunciava la parola “Internet”, la “rete delle reti”, e venivano superate le limitazioni imposte da un canale di trasmissione imperfetto. Era stato infatti ideato qualcosa in grado di garantire che pur in presenza di perdite di informazione ed errori di trasmissione due macchine arbitrariamente distanti potessero scambiarsi byte in maniera affidabile. Era nato il Transfer Control Protocol (Tcp). Tcp è in buona sostanza un protocollo relativo a quello strato dell’architettura di ogni rete che si occupa del “trasporto” (transfer) delle informazioni. Tale strato è idealmente scollegato da quello che effettua l’“instradamento” dello stesso attraverso i vari nodi. Per assolvere tale compito, esiste quello che viene detto Internet Protocol (Ip) e che si è prepotentemente affermato come standard de facto sin dalla prima metà degli anni Ottanta. Il connubio tra Tcp e Ip definisce un’intera architettura di rete, detta Tcp/Ip, che ha ben presto soppiantato ogni rivale. Si potrà capire facilmente come, con la comunicazione garantita, si potesse ragionare finalmente su “cosa” trasmettere. Nascevano così, intorno alla metà degli funzionare. Il giovane programmatore Charley Kline si apprestava a trasferire i byte che compongono la parola “login”. Alla pressione del tasto d’invio, i segnali che codificavano le lettere “lo” vennero formati e spediti correttamente, mentre un attimo dopo tutto il sistema andò in crash, facendo sì che il primo messaggio scambiato su una rete telematica fosse un nonsense. Nel frattempo, l’esimio professore di ingegneria, nonché virtuoso Il pioniere degli anni Ottanta e Novanta surfista, Norman fu Tim Berners-Lee, che inventò il linguaggio di Abramson, averiferimento per la diffusione di contenuti ipertestuali, va cominciato a l’Html, e fondò il W3C (Web Consortium) lavorare al primo sistema di comunicazione basato su portante radio anni Ottanta, i primi protocolli destinati a nell’accogliente campus dell’Università usi applicativi. Faceva la sua apparizione delle Hawaii. Con un nome quasi evo- Ftp (File Transfer Protocol – 1985) per cativo del suo entusiasmo di essere nata, il trasferimento di file da e verso server faceva capolino la rete senza fili Aloha. remoti; apparivano Pop1 (Post Office Questa, nella sua prima versione, era ca- Protocol versione 1 – fine 1984) e Smtp ratterizzata da una gestione del canale di (Simple Mail Transfer Protocol) rispetti- “ ” panorama per i giovani • 5 tecnologie di un Web a contenuti sostanzialmente statici – successivamente definito Web 1.0 – esistessero già, tali risorse erano accessibili solo agli “addetti ai lavori”. La vera svolta in questo senso si ebbe nel 1993, con l’apparizione del primo browser capace di visualizzare pagine Html e destinato alla larga utenza. Si stima che già intorno al 1999 il numero di computer connessi alla rete Internet si aggirasse intorno ai 200 milioni. E già in quegli anni il traffico Http ricopriva più dell’80% del totale. C’era dunque chi aveva compreso che se davvero il Web godeva di una popolarità sempre crescente, allora per il suo tramite si sarebbero potuti veicolare servizi di più Se il Web 1.0 era sinonimo di ampio respiro che la diffusione di informazioni, il Web 2.0 si è basato mera consultazione soprattutto sull’interattività e il dinamismo dei di pagine informaticontenuti; il Web 3.0 sarà semantico ve. Questa considerazione determinava la creazione e per lo scambio di conte- l’inizio della rapida evoluzione che in nuti ipertestuali. meno di dieci anni ha prodotto un nuovo Nel 1991, con un annuncio ufficia- web, un web interattivo, detto Web 2.0. le, nasceva dunque il World Wide Web. La caratteristica principale del Web 2.0 è Come sempre accade, ciò che nella teoria che non si limita più, come il suo predeè ben costruito e definito, nella pratica ha cessore, a fornire informazioni, ma ospita bisogno di anni e anni per affermarsi. Si vere e proprie applicazioni che interagipuò dire infatti che, benché le principali scono con l’utente e sono in grado di for- “ 6 • n. 2, maggio-agosto 2009 ” nire contenuti sempre nuovi, interattivi e adattati alla situazione. Nella pratica, però, i due livelli sono sovrapposti ed è impossibile stabilire con chiarezza cosa sia Web 1.0 e cosa faccia invece parte del Web 2.0. In generale possiamo dire che nel Web 2.0 la pagina non contiene più solo direttive su come Foto: iStockphoto.com (ahlobystov; PumpizoldA; chromatika) vamente per la ricezione e l’invio di posta elettronica. Il pioniere di quegli anni fu Tim Berners-Lee. Già dai primi anni Ottanta aveva intuito il rapido avanzare dei bit e nel 1989 aveva proposto il primo abbozzo di un linguaggio per la formattazione dinamica di contenuti multimediali. Solo un anno più tardi tale linguaggio prendeva in maniera ufficiale e definitiva il nome di Html (Hyper Text Markup Language) e veniva dichiarato dalla W3C – consorzio per la definizione degli standard utilizzati sul World Wide Web e di cui Berners-Lee stesso era fondatore – il linguaggio di riferimento per Tecnologie dell’informazione il testo va formattato, ma include vere e proprie istruzioni eseguite a livello di server. Prima di inviare la pagina a chi la richiede, quest’ultimo si occupa di “costruirla” interpretando le istruzioni in essa contenute. Senza tale livello interattivo non si avrebbero wiki, social network, web mail, motori di ricerca e quant’altro preveda una interazione sia pur minima con l’utente. Le prime avvisaglie della mutazione imminente si ebbero già nel 1993, quando venne messa a punto dal programmatore Rasmus Lerdorf la tecnologia Cgi (Common Gateway Interface). Il meccanismo è il più semplice che si possa pensare: invece di richiedere una pagina web, si richiede esplicitamente l’esecuzione di un programma residente sul server. La pagina visualizzata non sarà altro che l’output risultante da tale esecuzione. I Cgi rivestivano nei primi anni del web dinamico un ruolo di protagonisti incontrastati, ma, oltre a essere estremamente inefficienti, aprivano sovente ampie falle nella sicurezza se erano stati mal progettati. Già dal 1995 si cominciò quindi a pensare a standardizzare in qualche modo gli script Cgi. Proprio in quegli anni lo stesso ideatore della Common Gateway Interface mise a punto un insieme di script dandogli il nome di Php (Personal Home Page). Php venne riscritto totalmente due anni dopo e divenne così il primo linguaggio dedicato alla programmazione web. Era cambiato nella forma e nella sostanza: non si trattava più di programmi esterni al server web, ma era diventato esso stesso capace di interpretare il contenuto Php innestato nelle pagine Html al fine di produrre l’output desiderato. Ecco perché, con l’uscita della terza versione, l’interpretazione del suo nome divenne un acronimo ricorsivo: Php: Hypertext Preprocessor. In concomitanza con l’ideazione di Php nascevano numerosi linguaggi basati sullo stesso criterio di fondo. A tutt’oggi i più utilizzati sono una decina, tra cui Asp (Active Server Pages) di Microsoft, Jsp (Java Server Pages) prodotto dalla Sun e l’open source e completissimo Ruby. Essi sono generalmente linguaggi di livello molto elevato: astraggono in particolare la gestione della memoria e il parsing dei dati, facilitando di molto l’interazione con i più rinomati database engine. Se quanto detto è ormai quotidiana presenza, cosa c’è da aspettarsi per un non troppo remoto futuro? Se c’è stato un Web 1.0 e si è già avvezzi a un Web 2.0, come pensare il Web 3.0? Lo chiamano “Web Semantico” e ha pretese incredibilmente avveniristiche! Eccone l’idea: il Web attuale, per come è fatto, mette a disposizione dell’uomo una gran quantità di informazioni, ma la mole di dati è talmente spropositata che il povero abitante della rete sembra venir sbatacchiato dai marosi più che essere trascinato da un dolce libeccio verso l’anelata destinazione. Si cerca allora di dare un’organizzazione strutturata dei dati con particolare attenzione alle relazioni semantiche tra essi. Facciamo un esempio: quando si chiede a qualcuno di parlare della propria casa, esso non risponderà meramente con frasi in cui si trovi la parola “casa”. Questo perché nella sua memoria egli non sta svolgendo una ricerca per keywords. Il suo cervello, infatti, possiede una quantità di dati organizzati in blocchi interconnessi (veri e propri grafi) a livello logico. Ciò gli permette di rispondere parlando dei propri figli, del cane, dei bellissimi mobili in mogano e finanche di quanto sia comoda la sua poltrona. Il grande sogno è dunque il seguente: voler aggiungere all’immenso grafo che è il Web informazioni di carattere semantico. Si potranno così programmare individui virtuali capaci di esplorare in maniera intelligente la rete e rispondere a interrogazioni complesse. Non solo, ma si potrà raccogliere il “senso” del sapere, per poi costruirvi sopra una base di conoscenza che sia consistente nei contenuti (cioè priva di contraddizioni logiche). Nulla vieterà a quel punto di sottoporre quest’ultima a un meccanismo di reasoning tramite inferenze logiche. Il risultato sarebbe nient’altro che la creazione automatica di nuova conoscenza! panorama per i giovani • 7 Tecnologie dell’informazione Il mercato delle comunicazioni e dell’informazione vede attualmente due attori fondamentali: da un lato l’informazione tradizionale, fatta di inchiostro e decoder Dtt (Digital Terrestrial Television), e dall’altro Internet, ora non più esclusiva dei pc ma accessibile anche con il più economico dei cellulari. Malgrado le apparenze e i primi esperimenti, si tratta di due mondi ancora separati, due giganti sull’attenti, che si studiano quasi che uno dei due voglia fagocitare l’altro. In realtà è proprio così, ma la “sfida” è quantomai impari: le potenzialità della rete e dei suoi derivati sono tante e tali che i mezzi tradizionali possono contare solo sulla maggiore familiarità di cui ancora godono presso le famiglie e su normative in loro favore particolarmente consolidate, specie per quanto riguarda la televisione. Non è infatti un mistero che la politica sia largamente impreparata nei riguardi di Internet: mancano normative concrete e applicabili e i pochi investimenti in infrastrutture sono sempre in ritardo. Questi inconvenienti posticipano l’esito scontato dello scontro, in cui le televisioni saranno costrette a cedere il passo a una Internet capace di offrire praticamente tutto: dall’intrattenimento, all’informazione, ai servizi di pubblica utilità, in maniera drammaticamente semplice e veloce. Ciò è possibile poiché la rete gode di una versatilità senza pari, essendo capace di fornire una molteplicità di servizi estre- Ovviamente ci sarebbe dell’altro, ma già questi piccoli esempi mostrano come il piatto sia quanto mai “ghiotto”, tanto è vero che le grandi majors dell’intrattenimento si affannano a cercare accordi di esclusiva con i licenziatari della banda larga, più preziosa del petrolio in un periodo di crisi energetica, per fornire i loro contenuti on demand, a uso e consumo degli utenti. Costituiscono validi esempi lo Skypephone – su cui H3G si è avventata a mani basse, che consente comunicazioni La politica è largamente impreparata gratuite tra i suoi nei riguardi di Internet: mancano normative possessori o a costi concrete e applicabili e i pochi investimenti in irrisori verso numeri infrastrutture sono sempre in ritardo di rete fissa o mobile – e l’iPhone, consomamente diversi l’uno dall’altro: il vero lidato status symbol ma anche terminale senso della convergenza appare immedia- tuttofare, con chiamate, videochiamate e tamente chiaro se si considera che l’avere navigazione Internet illimitata garantite in tasca un minuscolo terminale Wi-Fi da da un contratto flat mensile. qualche decina di euro equivarrà, senza Esistono dunque esempi concreti di esagerare, a portare con sé un cellulare convergenza, in verità anche piuttosto con cui chiamare gratuitamente in tutto avanzata. Tutti i produttori di contenuti il mondo, un lettore MP3 senza libreria hanno capito che è bene riversare in rete musicale che potrà accedere a qualsiasi il loro materiale; gli operatori di telefonia opera il genere umano abbia concepito, mobile reagiscono con offerte sempre più una raccolta di quotidiani che racchiude tutti i numeri pubblicati dalla stampa inQuante file potrebbero essere evitate se ternazionale, nonché (si tranquillizzino i tutti conoscessero le opportunità offerte più irriducibili tradizionalisti) il fido teleda smartphone (in alto e nella pagina visore, stavolta collegato con le emittenti seguente, due modelli), Internet e nuove di tutto il mondo. tecnologie in generale? Foto: iStockphoto.com (roundhill; GeorgePeters; fotosipsak) “ 8 • n. 2, maggio-agosto 2009 ” CONVER fisso-m Le grandi potenzialità dei nuovi cellulari, proprie finestre sul mondo: lo stato attuale prospettive di sviluppo. di Davide Tecnologie dell’informazione aggressive e persino i “dinosauri” delle pubbliche amministrazioni ne intuiscono la convenienza, fornendo servizi di buona qualità che permettono agli utenti di evitare code e agli uffici di economizzare drasticamente su costi e tempi delle attività di sportello. Non vi sono solo rose e fiori. In teoria le possibilità e i servizi ci sono tutti, ma sono mal sfruttati: ad esempio, chi avesse bisogno di effettuare un prelievo dal bancomat del centro commerciale nell’ora di punta (attività chiaramente difficile da rimpiazzare con una controparte online), si scontra ancora facilmente con una realtà fatta di snervanti file di utenti, magari interessati soltanto a conoscere il saldo della carta di credito, comodamente visualizzabile sullo schermo dell’iPhone che hanno in tasca, oppure intenti a pagare un bollettino, incombenza assolvibile dalla poltrona di casa, ottenendo peraltro una ricevuta elettronica, che nessuno sente la necessità di convertire in carta. Le RGENZA mobile non più semplici telefoni ma vere e dell’arte, i problemi da affrontare, le e Granata banche potrebbero chiudere metà dei loro della banda larga in Italia, evidenziando sportelli, riconvertendo gli impiegati ad come la copertura sia ampiamente insuffiattività di customer relationship, se solo ciente anche rispetto a obiettivi tutto somi clienti sapessero di cosa sono capaci gli mato modesti, con la conseguenza di un smartphone: il primo ostacolo al dilagare digital divide che colpisce 7,5 milioni di della convergenza è, paradossalmente, un italiani. Il lungo rapporto, tuttavia, ponenproblema di comunicazione. Fin quando i nuovi smartphone Le banche potrebbero chiudere metà saranno percepiti dei loro sportelli, riconvertendo gli impiegati solo come giocattoli in attività di customer relationship, se solo i clienti costosi per ragazzisapessero di cosa sono capaci gli smartphone ni capricciosi, non ci sarà alcuna convergenza e anzi crescerà inesorabilmente do come obiettivi l’universalità dell’acl’avversione per oggetti elettronici sem- cesso e la qualità sufficiente della rete, pre più complicati che, in fondo, “devono propone alcune interessanti “ricette” per solo telefonare”. risolvere il problema, corredate da studi di La presenza del digital divide, inoltre, fattibilità economica; data la costante crecontrasta duramente con le esigenze di scita della domanda, con opportuni piani connettività dei servizi in convergenza: il di sviluppo finanziati dal governo sarebbe vero motivo per cui quest’ultima, intesa possibile raggiungere una condizione di come libera fruizione di audiovisivi sui leadership europea entro il 2011, con rimoderni cellulari, risulta essere un obietti- torni economici decisamente interessanti. vo molto ambizioso e difficile da raggiun- L’unica azienda che attualmente dispone gere, è senza dubbio la carenza di banda di risorse sufficienti per offrire un pacchetlarga funzionante e disponibile ovunque. to realmente “convergente”, con servizi di Un documento riservato del Ministero accesso Internet, Tv digitale e telefonia, è dello Sviluppo economico recentemente Fastweb, sulla sua rete in fibra ottica stesa diffuso su Internet, noto come “rapporto nei maggiori centri urbani. Sebbene una Caio”, mette in luce lo stato disastroso stesura di fibra ottica su tutto il territorio italiano sia economicamente poco fattibile, con le tecnologie WiMax, che forniscono connettività wireless a basso costo sulle grandi distanze, è possibile estendere l’accesso a Internet veloce, raggiungendo la copertura del 100% della popolazione in due anni. I piani ci sono: non resta che sperare in una politica di sviluppo che accetti di impegnare le ingenti risorse richieste, puntando a sviluppare e diffondere in modo massiccio la banda larga in Italia. Infine, è opportuno ricordare come la fruizione dei servizi in mobilità, con particolare riferimento alle operazioni di ecommerce e home banking, debba essere accompagnata da una necessaria cultura della sicurezza informatica. Gli affidabili sistemi a disposizione dei fornitori di servizi, da soli, non garantiscono la protezione dei dati sensibili, che infatti deve essere predisposta già “a monte” dal terminale (pc o cellulare) di proprietà dell’utente, non solo con sistemi software, ma anche e soprattutto con un’adeguata cautela nella navigazione, da impiegare costantemente anche nelle operazioni più banali, che non necessariamente richiedono la cessione di dati personali. “ ” panorama per i giovani • 9 Per capire perché esistono i social networks, i software peer-to-peer e Youtube e per comprendere meglio i bisogni psicologici che soddisfano e le loro conseguenze sociali, abbiamo intervistato Francesca Comunello, laureata del Collegio “Lamaro Pozzani” e ricercatrice presso la facoltà di Scienze della Comunicazione dell’Università “La Sapienza”. a cura di Francesco Mauceri Dottoressa Comunello, una delle prime manifestazioni dell’impatto rivoluzionario di internet sono stati i P2P. A 10 anni di distanza dalla loro nascita quale definizione si può dare del fenomeno e che prospettive ha? I sistemi peer-to-peer, nelle loro diverse forme, hanno fornito l’infrastruttura tecnologica per lo sviluppo di pratiche sociali che pongono, oggi, una serie di interrogativi molto rilevanti. Il file sharing, infatti, alimenta (e si alimenta da) quella cultura della condivisione che permea tanti ambiti della cultura digitale (basti pensare alle comunità A sinistra: Youtube è uno dei siti di maggior successo per la generazione del Web 2.0. In alto a destra: il file sharing è un fenomeno sempre più diffuso, che impone nuove riflessioni. 10 • n. 2, maggio-agosto 2009 Foto: iStockphoto.com/mattjeacock;Youtube; iStockphoto.com/monkeybusinessimages Chi conosce cosa? che cooperano allo sviluppo dei software open source o ai numerosi esempi di cooperazione distribuita in rete, come ad esempio il cosiddetto crowdsourcing). Contemporaneamente, l’ampia diffusione delle pratiche di file sharing solleva una serie di questioni relative al tema della proprietà intellettuale e del copyright, che non possiamo più limitarci a tematizzare semplicemente in termini di “lotta alla pirateria”. Le attuali politiche di stigmatizzazione di comportamenti sociali pervasivi, le normative sempre più restrittive, i reiterati tentativi di indurre gli utenti, anche con maldestre campagne istituzionali, a percepire come devianti comportamenti ormai comunemente accettati, rappresentano tentativi di resistenza dei vecchi modelli, che non sono in grado di rispondere alle mutate condizioni di produzione e di consumo di contenuti culturali. Peraltro, gli studi più rigorosi condotti in proposito iniziano a concordare sul fatto che il nesso tra il file sharing e i danni economici lamentati dalle major dell’industria musicale e audiovisiva sia tutt’altro che dimostrato. Nei prossimi anni gli operatori dell’industria culturale saranno chiamati a sperimentare forme innovative di remunerazione del lavoro intellettuale. In tal senso, le licenze sviluppate a ridosso del software open source, così come dispositivi quali i Creative Commons, rappresentano senza dubbio modelli da valutare con interesse. Youtube e i social network sono fenomeni più recenti e in netta ascesa. A cosa è dovuto il loro successo? In particolare, cosa distingue dagli altri un fenomeno dilagante come Fecebook? In termini generali, Youtube e i social network sites rientrano nell’ampia – e talvolta abusata – definizione di “web 2.0”, che enfatizza la centralità dell’utente il quale diventa, talvolta, anche produttore di contenuti. Se ci interessa soffermare l’attenzione, più in particolare, sui social network sites, va innanzitutto segnalato che essi mirano, per la prima volta in modo strutturato, a mettere in relazione utenti (i loro profili, le loro conversazioni, le loro reti di contatti, i contenuti da loro creati o trovati sul web e condivisi). Uno degli elementi di maggior interesse è che questi ambienti tecnologicamente mediati consentono di articolare in modo esplicito e tracciabile le dinamiche proprie delle reti sociali che conosciamo anche offline (nel cosiddetto mondo reale). Il concetto di “rete piccolo mondo” (i “sei gradi di separazione”, cioè il fatto che due persone qualsiasi del pianeta siano collegabili attraverso un numero massimo di sei passaggi), da cui sono nati i primi social network sites, ad esempio, è stato ideato negli anni Sessanta proprio nell’ambito di ricerche relative alle relazioni sociali non tecnologicamente mediate. Oggi, le ricerche empiriche mostrano con chiarezza che, generalmente, nelle esperienze dei soggetti non sono rilevabili fratture nette tra le forme di relazione sociale alimentate attraverso le tecnologie e quelle vissute in presenza. Facebook è, attualmente, il social network site più diffuso a livello globale. In Italia, in particolare, ha avuto una crescita rapidissima nel corso di pochi mesi (ad esempio, tra maggio e settembre 2008 siamo passati da meno di un milione a quattro milioni di utenti). Rispetto agli altri social network sites, una delle principali differenze è che incoraggia l’utente a inserire i propri dati reali, e pur essendo possibile utilizzare nomi fittizi, possibilità ufficializzata da giugno 2009, il patto comunicativo ufficiale che si stringe con l’utente prevede di utilizzare il nome e le informazioni reali. Altre peculiarità riguardano la possibilità concessa a terze parti di sviluppare applicazioni supportate dall’ambiente, così come l’aggregazione, all’interno della piattaforma, di una varietà di strumenti come un sistema di messaggi (simile alla mail), la possibilità di gestire gruppi, di caricare, commentare e inserire i nomi degli amici raffigurati nelle foto, le chat, ecc. Infine, alcuni sostengono che la grafica “minimal” abbia contribuito a differenziare Facebook dal concorrente MySpace, rendendolo più vicino alle sensibilità di un pubblico leggermente più adulto (i cosiddetti “giovani adulti”). Recentemente il professor Pizzetti, garante della privacy, ha messo in guardia gli utenti dai rischi che si corrono nel mettere a disposizione di social network come Facebook informazioni personali, a volte anche sensibili. Quali sono i rischi e quali le possibili tutele approntabili per evitare di veder lesa la propria privacy? La prima considerazione che posso fare riguarda la cosiddetta alfabetizzazione degli utenti agli strumenti che utilizzano (quella che in ambito anglosassone viene definita media literacy). È evidentemente necessario che gli utenti siano consapevoli del funzionamento (dei vincoli, delle opportunità, dei bugs) degli ambienti in cui decidono di operare. Una volta garantita la consapevolezza e l’alfabetizzazione degli utenti, se prescindiamo da forme di utilizzo poco ortodosse (profili personali aperti da terzi a proprio nome), non parlerei di una vera e propria lesione della privacy, laddove gli utenti volontariamente decidono di pubblicare informazioni personali. Alcuni autorevoli studiosi a livello internazionale (tra cui Sonia Livingstone, docente della London School of Economics) ipotizzano che il concetto stesso di privacy, se applicato ai Sns, sia comunemente frainteso. Come è noto, infatti, nei Sns gli utenti sono portati a rendere visibili a un numero elevato di contatti informazioni comunemente ritenute private (età, opinioni politiche, religione, ecc.); questo non significa necessariamente che si tratti di soggetti completamente inconsapevoli o disinteressati alla propria privacy. Piuttosto, nelle parole di Livingstone, andrebbe introdotta “una definizione di privacy non legata alla diffusione di alcune tipologie di informazioni, ma piuttosto una definizione che sia centrata sulla possibilità di avere controllo su chi conosce cosa sul tuo conto”. Questa riflessione si lega da un lato alla definizione di amicizia con cui operano i soggetti e, dall’altro, al fatto che nei Sns assistiamo alla giustapposizione di porzioni di network differenti. I soggetti, cioè, operano sulla base di una definizione di amicizia molto più raffinata del dato binario (amico/non amico, o amico/top friend) generalmente supportato dai Sns, graduando il livello di intimità intrattenuto con i propri contatti, funzione raramente supportata da queste piattaforme. Accomunando dunque molti contatti alla voce “amici”, i soggetti si trovano a mostrare aspetti della propria personalità a persone che normalmente non vi avrebbero accesso, generando in alcuni casi anche un certo imbarazzo. Le “impostazioni della privacy” introdotte da Facebook dal 2008, con la possibilità di gestire i livelli di visibilità in relazione alle “liste” di amici, rappresenta un primo passo verso la soluzione di questo problema. Anche in questo caso, comunque, è la consapevolezza con cui si utilizza il mezzo a fare la differenza. panorama per i giovani • 11 Tecnologie dell’informazione Un nuovo commercio per una nuova economia Abitudini e modalità di consumo e di produzione sono state influenzate dall’avvento della New Economy. Le sfide che le imprese devono affrontare per sopravvivere nel nuovo contesto globale. Foto: iStockphoto.com/Petrovich9 di Francesca Moretti Dalla nascita del World Wide Web a oggi, l’economia ha subito un’evoluzione tale da poter essere equiparata alla rivoluzione che ha visto l’uomo trasformarsi da cacciatore a stabile agricoltore. L’avvento delle nuove tecnologie di comunicazione ha reso tutto più a portata di mano, dall’informazione ai beni di consumo, senza la necessità di doversi spostare; ogni cosa è potenzialmente reperibile stando comodamente seduti sul divano di casa propria. La variante fondamentale dalla metafora inizialmente proposta sta nel fatto che, grazie a Internet, è diventato possibile sfruttare anche le risorse non localizzate sul proprio territorio, ma che diventano comunque accessibili a chiunque disponga di un pc e di una semplice connessione di rete. La rete non rappresenta solo un ulteriore strumento di informazione e intrattenimento, al pari della radio e della televisione; è molto di più. Internet oggi permette di realizzare con rapidità e sem12 • n. 2, maggio-agosto 2009 plicità di interfaccia numerose operazioni che la precedente generazione era, ed è tuttora, abituata a svolgere uscendo di casa ogni mattina: dal semplice pagamento di una bolletta al controllo del saldo del proprio conto corrente; dall’acquisto di libri, di musica o di vestiti alla spesa di generi alimentari on line – per i più internet-addicted – con comoda consegna a domicilio. Ora tutto ciò è possibile con qualche semplice click, con rilevante risparmio di tempo e di denaro. Internet rappresenta, non solo per il consumatore ma anche per l’impresa, una risorsa che meglio di qualunque altra permette di conseguire un vantaggio competitivo, frutto di una politica di riduzione dei costi, di incremento dei ricavi, di innovazione e, conseguentemente, di creazione di valore per il consumatore. La rivoluzione informatica in corso, lungi dall’arrestarsi, ha cambiato la quotidianità, ha modificato le abitudini di acquisto e, conseguentemente, i sistemi di produzione, di marketing e di interazione con il cliente. La globalizzazione e la New Economy hanno generato una concorrenza senza limiti, dalla quale le imprese, grandi ma anche medie e piccole, possono difendersi solo mediante una maggiore visibilità sul web. L’imperativo è adeguarsi alle esigenze della moderna società della comunicazione, implementare strategie e tattiche di web marketing per poter estendere il target di riferimento aziendale, strutturare nuovi strumenti di vendita che siano efficaci e al passo con i tempi. I consumatori sono ora più liberi, effettuano i loro acquisti in un mercato globale e sono molto più esigenti, hanno aspettative sempre maggiori, alimentate anche dalla maggiore trasparenza delle informazioni relative ai prodotti, al brand, all’affidabilità del seller; con la conseguenza che ogni errore, ogni segno di debolezza dirotta repentinamente gli acquisti su altri competitor. L’e-commerce, dunque, viene modellato, trasformato e reso sempre più vicino alle esigenze degli utenti. Il progresso nelle tecnologie informatiche ha portato a un nuovo stadio evolutivo delle It denominato Web 2.0, che si differenzia dal precedente Web 1.0 per un maggiore coinvolgimento del consumatore, che, mediante feedback è chiamato a esprimere pareri e a interagire con il produttore-rivenditore, per modellare su di lui un’offerta ancor più personalizzata. L’utente diventa parte attiva del processo di produzione e, in talune circostanze, è in grado di orientare, se non condizionare, il produttore nella scelta delle specifiche – colori o accessori – del prodotto, con evidente vantaggio per entrambi. Si parla di B2C ovvero Business to consumer, per sottolineare come i modelli di business siano sempre più orientati al cliente e focalizzati alle sue esigenze. Il fatturato del commercio elettronico si attesta in Italia intorno a 5 miliardi di euro, solo l’1% delle transazioni commerciali nel loro complesso (fonte: School of Management del Politecnico di Milano, 2008). Dei 18 milioni di italiani che hanno accesso a Internet, la maggior parte l’utilizza solo per fare info-commerce, ovvero per avere informazioni più dettagliate sui prodotti e per comparare i prezzi, rimanendo ancora legata ai tradizionali canali di distribuzione; solo un terzo, infatti, completa la transazione on line. Com- Tecnologie dell’informazione Distribuzione degli acquisti via Internet altro 4% home products 12% 17% 13% grocery 11% 8% 3% 4% ticketing 5% 7% 12% abbigliamento 14% 10% editoria, musica, audiovisivo 7% 7% informatica ed elettronica 13% 14% 1% 1% 3% 66% turismo Fonte: School of Management - Politecnico di Milano parati con i dati provenienti dagli Stati Uniti – dove il commercio elettronico ha avuto le sue origini (il 94% degli utenti con accesso a Internet effettua almeno un acquisto on line l’anno) – e con i dati della Gran Bretagna (con un 6% delle vendite in rete su quelle complessive al dettaglio, contro uno 0,49% dell’Italia), i numeri relativi all’Italia dimostrano che c’è ancora molto da fare e che esistono dei margini enormi di crescita. Non dobbiamo allora stupirci se la madre dell’e-commerce, la società americana Amazon, non ha ancora preso piede in Italia preferendo il mercato asiatico, dove il livello tecnologico e le energie e le risorse investite in innovazione sono di gran lunga superiori. Dalle ricerche di Netcomm, l’associazione delle società italiane di e-commerce, emergono dati interessanti anche sulla composizione del paniere del commercio elettronico. I due terzi delle transazioni on line riguardano, infatti, il comparto dei servizi, in particolar modo quello turistico, a differenza di quanto si registra nell’Europa a 27 e negli Stati Uniti, in cui vi è un maggiore equilibrio tra le varie aree di business (vedi il grafico). 34% 34% Europa Usa Italia Per adeguarsi alle esigenze di celerità che sono ancora di più quelle che già esilegate alle transazioni on line si sono svi- stevano e che devono compiere un granluppati, inoltre, nuovi strumenti di paga- dissimo sforzo per adeguarsi ai nuovi e mento, che rimettono in discussione l’uti- ormai inevitabili sistemi di commercio. lizzo della moneta tradizionale che fino a Una riconversione, quindi, esiziale per oggi ha caratterizzato la quasi totalità delle molte ma che ha rappresentato, per quelle transazioni. Sono pochi i siti commerciali che hanno saputo cogliere l’opportuniche permettono di pagare la merce in con- tà, un trampolino che ha dato nuovo vitrassegno, essendo sempre più richiesto gore al commercio e all’economia. Non il regolamento mediante carta di credito. resta che attendere che si attivino anche Ancora più recente è l’innovativo sistema nel nostro paese sinergie su più fronti, in Paypal – ideato dal gruppo E-bay – che con- modo tale che non esistano più barriere siste in un conto intestato all’utente Internet infrastrutturali e di mentalità che limitino mediante il quale è possibile effetLe globalizzazione e la New Economy tuare il pagamenhanno generato una concorrenza senza limiti, dalla to senza dover quale le imprese possono difendersi solo mediante condividere con il una maggiore visibilità sul web venditore le informazioni personali relative alla propria carta di credito o carta lo sviluppo di un sistema commerciale e prepagata. Sicuramente un giusto incentivo di pagamento che presto o tardi diventeper incoraggiare il commercio in rete da rà, a livello globale, il principale sistema parte di tutti coloro che sono ancora restii a di commercio. Di questo sistema, grazie immergersi in un mondo di cui conoscono alla maggiore concorrenza tra le imprese poco i meccanismi e le garanzie. e alla maggior trasparenza informativa, il Sono numerose le imprese che sono consumatore sarà essenziale protagonista nate sul web, ma non dimentichiamoci e principale beneficiario. “ ” panorama per i giovani • 13 14 • n. 2, maggio-agosto 2009 C’era una volta la Silicon Valley Elettronica, informatica, ingegneria aerospaziale. Breve storia di un sogno americano. In principio fu Hewlett-Packard Company, poi furono Cisco, Yahoo! e in breve le aziende si moltiplicarono e prolificarono in un’area geograficamente limitata come quella della Valle di Santa Clara, in seguito ribattezzata Silicon Valley. Fu il giornalista Don Hoefler che, in una serie di articoli pubblicati nel 1971 dalla rivista Electronic News, utilizzò per la prima volta la dizione di Silicon Valley per descrivere quella che a lui sembrava non tanto un mero agglomerato industriale, quanto una vera e propria comunità di persone, idee, innovazioni, dove gli uomini “no- nostante la loro serrata concorrenza nelle ore di lavoro, fuori dall’ufficio rimangono grandi amici”. Gli inizi della Hewlett-Packard Company aprono, in un certo senso, la strada seguita da molte delle aziende che sorgeranno lungo la Route 128 negli anni immediatamente a ridosso della Seconda Guerra Mondiale. I due brillanti studenti della Stanford University, William Hewlett e David Packard, furono incoraggiati dal professor Frederick Emmons Terman, laureato del Mit ma docente di ingegneria elettronica presso la Stanford, panorama per i giovani • 15 Foto: iStockphoto.com/PhotoTil di Francesca Ronzio Foto: Google Maps; iStockphoto.com (mcswin; DanisTangneyJr) Tecnologie dell’informazione a fondare un’azienda per commercializzare un oscillatore radio da loro progettato durante i lavori di realizzazione della propria tesi. Il professore, però, non si limitò a parole di sostegno e a lettere di raccomandazione: fu lui a prestare ai giovani ingegneri i 538 dollari necessari per iniziare la loro attività, a trovar loro un magazzino per la sede della futura HP, nonché a svolgere un ruolo di intermediario con la Banca di Palo Alto per permettere ai suoi ragazzi di ottenere un finanziamento per gli esperimenti iniziali della loro impresa. Una curiosità: la prima ingente commessa dell’azienda fu la vendita di otto oscillatori audio per gli studi della Walt Disney. La HP, come molte altre aziende simili della zona, ebbe un vero e proprio boom con la guerra in quanto gli ordini per apparecchi di misura elettronici, rilevatori e analizzatori di segnali, nonché di altre tecnologie che si andavano perfezionando in quegli anni, diedero un’enorme spinta propulsiva allo sviluppo. Il fattore veramente peculiare è che questa spinta non si esaurì alla fine della guerra, ma anzi crebbe in maniera esponenziale facendo sì che, nel 1975, il complesso delle aziende di stanza nella Silicon Valley o lungo la Route 128 fossero più di settanta e dessero occupazione a quasi 100.000 lavoratori. 16 • n. 2, maggio-agosto 2009 Molti si chiedono quali siano stati i fattori che hanno portato a questa concentrazione di aziende e allo sviluppo di una florida economia laddove prima non c’era nulla di tutto ciò. Un fattore certamente determinante è stata la presenza della Stanford University: come si evince anche dalle brevi note sulla storia della nascita di un’azienda del calibro della HP, il ruolo carismatico della Stanford University, soprattutto nella persona del professore – e poi rettore – Terman, fu decisivo. Egli incoraggiava le aziende di elettronica e aerospaziali a localizzare i loro laboratori nell’area della Valle di Santa Clara: convinse ad esempio la National Advisory Committee for Aeronautics (poi ribattezzata Nasa) a stabilire in quest’area il Centro di ricerche Ames Research Center, che poi diventerà il fulcro di tutta la ricerca aerospaziale. L’incoraggiamento, sia spirituale che In alto a sinistra: una mappa della Silicon Valley, che corrisponde alla parte settentrionale della Valle di Santa Clara, il cui capoluogo è San José. Si possono vedere Palo Alto (sede di molti centri di ricerca), Mountain View (sede di Google) e Cupertino (sede della Apple). In alto a destra: la Stanford University. A destra: il Mit (Massachusetts Institute of Technology), l’importante università della costa orientale attorno alla quale si sono raccolte altre imprese ad alto contenuto tecnologico. Nelle pagine precedenti: un’immagine della Silicon Valley. materiale, che egli forniva ai suoi brillanti studenti fece sì che in breve tempo crebbe un ingente numero di piccole aziende che, grazie alla genialità di molte idee (schede perforate per i primi computer, transistor, il klystron, cioè una ricetrasmittente disponibile a microonde), divennero velocemente, da piccole, grandi. Si trattava di un vero e proprio circolo virtuoso in quanto generalmente gli ingegneri più validi, dopo brevi periodi di tirocinio, lasciavano le imprese più grandi per fondarne delle altre com- Tecnologie dell’informazione plementari o concorrenti delle prime. Tutto ciò avveniva anche grazie all’ingente disponibilità di capitali: grazie all’attività dei venture capitalist l’industria locale dei semiconduttori crebbe in questo periodo in maniera davvero sorprendente. Anche la stessa Stanford University seppe approfittare del talento dei suoi giovani ingegneri, investendo direttamente nelle nuove società e finanziandole in cambio di royalties sugli eventuali brevetti depositati. Questo modello fu di tale successo che ancora oggi le imprese di start up costituiscono uno dei motori principali dell’innovazione statunitense, soprattutto nell’ambito delle imprese di tipo tecnologico. Un altro elemento di indiscutibile peculiarità nella storia della Silicon Valley è stato, certamente, lo spirito di amicizia e di familiarità che regolava i rapporti tra gli addetti ai lavori a tutti i livelli della scala gerarchica. Nei primi anni Settanta un collaboratore della rivista Fortune scriveva: “Un livello di cooperazione fra le aziende semplicemente sorprendente, quasi giapponese tanto è stretto, ha aggiunto ancora più impeto alla discendenza di Santa Clara”. Fra gli anni Sessanta e i Novanta le imprese create dagli ex-alunni della Stanford hanno dato lavoro a quasi 250mila americani; il settore brevetti del Mit ha, secondo alcuni, fruttato circa 150mila posti di lavoro con un fatturato di 10 miliardi di dollari l’anno. Il “modello Mit-Stanford” è stato fondamentale nello sviluppo della Silicon Valley e, più in generale, dell’economia americana, ma nulla sarebbe potuto accadere senza la lungimiranza del professor Terman e la sua fiducia nei suoi studenti, tra i quali ricordiamo, oltre ai già citati Packard e Hewlett, Leonard Bosak e Sandra Lerner, i coniugi fondatori della Cisco Systems, Scott McNealy, Vinod Khosla a Abdy Bechtolsheim, fondatori della Sun Microsystems, a lungo la maggior rivale di Microsoft, David Filo e Jerry Yang, creatore del motore di ricerca Yahoo! e molti altri ancora. Google: società informatica con sede a Mountain View in California. Fu fondata nel 1998 da Larry Page e Sergey Brin, due studenti della Stanford University che hanno ideato e reso operativo uno tra i più potenti motori di ricerca che il World Wide Web conosca, basato sull’idea, esposta dai due padri di Google negli anni del loro dottorato, che un’attenta analisi fra le relazioni dei siti internet avrebbe potuto produrre risultati nettamente al di sopra di quelli ottenibili con gli altri motori di ricerca. Dopo aver bussato a varie porte, i due giovani informatici decisero di provarci da soli e nel giro di poco, il 7 settembre 1998, nacque all’interno del garage di un amico di entrambi, Google Inc. Il nome della società trae origine dal termine matematico “googol”, indicante la cifra formata da un 1 seguito fa 100 zeri. La società è cresciuta di anno in anno fino a quando nel 2004 è ufficialmente entrata a far parte del mondo delle aziende quotate a Wall Street. Da un punto di vista strettamente tecnico il corretto funzionamento di questo motore di ricerca si basa su oltre 10.000 computer con sistema operativo GNU/Linux, i quali permettono di ottenere i risultati delle ricerche ordinati in base a un algoritmo che tiene conto sia del contenuto delle pagine indicizzate sia dei link che fanno riferimento a quelle pagine. Google, infatti, dispone di un database di diversi terabyte (1012 byte) all’interno del quale sono indicizzati una quantità enorme di siti internet. La funzionalità e l’estrema efficienza di Google sono indiscusse: circa l’80% delle ricerche effettuate online sono realizzate con questo motore. Google è anche tanto di più: sono numerosi e variegati i servizi offerti da Google: Google Maps (che permette di visualizzare mappe e foto satellitari della superficie terrestre), Gmail, Google Reader, Google Books (ovvero il Progetto Biblioteca che è nato al fine di indicizzare e digitalizzare l’intero patrimonio librario mondiale). panorama per i giovani • 17 Tecnologie dell’informazione A me il sorgente! Viaggio nel mondo di Gnu e del software libero. Questa è la storia di un programmatore che librio di quella comunità: l’architettura ha un sogno: costruire talmente tanto soft- dell’elaboratore Digital PDP-10, di cui ware libero da rendere obsoleto e inutile il era dotato il laboratorio, era molto funsoftware proprietario. Questa è la storia di zionale alla situazione degli anni Sesun programmatore che ha gustato da stu- santa e Settanta, ma non adatta alla tecdente la possibilità di scambiare, modifi- nologia del nuovo decennio. Purtroppo care, adattare alle proprie specifiche esi- i calcolatori moderni portavano con sé genze i programmi utilizzati – in uno spi- una sgradevole novità: l’utilizzo dei loro rito positivo e collaborativo di perpetuo sistemi operativi era vincolato alla firma sviluppo del software – e che quindi non di un contratto di non diffusione da parte può rassegnarsi ad acquistare un pacchet- dell’utente. In pratica non era più possito informatico per poi non essere in con- bile modificare arbitrariamente il codice dizione di sfruttarne al massimo le poten- sorgente del sistema né condividerlo e zialità. Questa è la storia di chi crede che svilupparlo con altri programmatori. Il disporre di un programma significa anche sistema operativo di quelle macchine e soprattutto avere accesso al suo codice non era più “libero” e si apriva l’era del sorgente, ossia all’insieme delle istruzioni software “proprietario”. Il laboratorio di che consentono alla macchina di generare Intelligenza artificiale fu equipaggiato il programma eseguibile. In breve, questa con macchine su cui girava software non è la storia di Richard Stallmann, di Linus libero e quell’affiatato gruppo di hacker Torvalds, di Eric Raymond e di chi come si dissolse rapidamente. Nel 1984 anche loro, contrariamente a molte grandi azien- Richard lasciò il prestigioso Mit: non de dell’Ict, pensa che la libera modifica e riusciva ad accettare che la programmal’adattamento di un prodotto informatico zione non potesse più essere condivisiosiano naturali quanto la sua scrittura o la ne, team work, confronto; né tollerava che gli utenti dei suoi lavori dovessero sua utilizzazione. Doveva divertirsi un mondo il buon scontrarsi contro così tante limitazioni Stallmann quando, nei primi anni Settanta, al loro utilizzo. Lanciò dunque la sua oriniziava a lavorare nel laboratorio di In- gogliosa sfida al nuovo sistema: nasceva telligenza artificiale del Mit: in quell’am- il progetto Gnu (acronimo ricorsivo di biente, giovane e brillante, la condivisione Gnu’s not Unix). L’idea di Gnu è al contempo semplidel software era la norma e l’idea di utilizzare un programma senza poter accedere ce e ambiziosa: costruire e proporre al al suo sorgente era del tutto impensabile. mercato tanto nuovo software in grado Gli hacker (il termine va inteso nel signi- di sostituire quanto più possibile quello ficato originario di bravo programmatore) proprietario; tale software però doveva di quel fortunato laboratorio concepivano essere libero, ossia portabile su architetil software come un oggetto in Chi crede nell’open source crede perpetuo svilupche disporre di un programma significhi anche e po, cosicché era soprattutto avere accesso al suo codice sorgente e naturale scamsfruttarne le massime potenzialità biarsi i programmi, modificarne i sorgenti, adattarli alle proprie esigenze, ture differenti, liberamente modificabile e sperimentarvi sopra idee e linee di pro- ridistribuibile sul mercato, adattato o no, grammazione originali, correggerne i bug. senza l’imposizione di alcuna royalty verCirca dieci anni dopo, all’improvvi- so gli sviluppatori storici. L’idea di free so, un evento inatteso sconvolse l’equi- software proposta da Stallman nell’am- “ ” panorama per i giovani • 19 Foto: iStockphoto.com/Raycat di Carmelo Di Natale Tecnologie dell’informazione tuttavia non è detto che tale software sia disponibile gratuitamente. Un anno più tardi, nel 1985, veniva fondabito del progetto Gnu non è altro che la mera riproposizione di ciò che era l’infor- ta la Free Software Foundation (Fsf), un’ormatica prima dell’avvento del software ganizzazione senza fini di lucro il cui obietproprietario. Va sottolineato che software tivo principale era, e tuttora è, la produzione, libero non è, né vuole essere, sinonimo di lo sviluppo e la distribuzione di software lisoftware gratuito: il software Gnu è libero bero. Fsf si è subito preoccupata di stabilire nel senso che l’utente ha accesso al suo in modo rigoroso, giuridicamente vincolante, sotto quali condizioni il software L’idea di free software proposta da Stallman possa dirsi libero; nell’ambito del progetto Gnu non è altro che la è stato pertanto stimera riproposizione di ciò che era l’informatica lato un elenco di prima del software proprietario caratteristiche minime, reperibile senza sorgente, non è gravato da alcuna limita- difficoltà su Internet, necessarie perché un zione con riguardo all’utilizzo e alla dif- programma disponibile sul mercato sia effetfusione, può usufruirne in totale libertà; tivamente free software. In alto: il pinguino, simbolo del Linux. “ 20 • ” n. 2, maggio-agosto 2009 Il primo fondamentale problema che Stallmann e la sua Fsf dovettero presto affrontare fu quello di sviluppare un sistema operativo libero: nessuna applicazione, infatti, può operare su alcuna macchina se questa non è dotata di un sistema operativo. Tuttavia, come ogni informatico sa bene, scrivere un sistema operativo è assai complesso; oltre al kernel, il cuore del sistema che gestisce tutte le operazioni di basso livello come ad esempio la gestione delle risorse hardware, sono necessarie infatti librerie, editor di testo, compilatori ecc.: un lavoro estremamente corposo che richiede competenze diverse. Uno dopo l’altro furono sviluppati e distribuiti Emacs, Alix, Gnome, TeX, X Window, Bash, Gcc, la fondamentale libreria C di Gnu e tanto altro software indispensabile a un sistema operativo moderno e funzionale. Mancava ancora, però, il kernel! I programmatori del sistema Gnu stavano da molto tempo lavorando a Hurd (un kernel Unix-compatibile) con cui integrare il sistema, quando nel 1991 un brillante programmatore finlandese, Linus Torvalds, completava la prima versione di Linux: quella data rappresenta uno dei momenti più importanti dell’informatica moderna. Linux è un kernel potente e leggero concepito per girare in ambiente Unix, ideale per le caratteristiche e gli obiettivi del sistema Gnu; nasceva così, dal matrimonio di Gnu e di Linux, dall’incontro tra Richard e Linus, il sistema operativo Gnu/Linux, il primo sistema operativo (completo in tutte le parti essenziali) del tutto libero dall’avvento del software proprietario. Il progetto Hurd è stato naturalmente molto rallentato, ma non accantonato: si vuole infatti fare di Hurd un kernel compatibile con ambienti diversi da Unix. Oggi il sistema operativo Gnu/Linux è disponibile in una quantità enorme di release differenti aggiornate continuamente: sono reperibili (basta una ricerca con Google) Tecnologie dell’informazione “ ” chi sono Richard Matthew Stallmann è un computer scientist statunitense. Laureato in fisica ad Harvard, inizia a interessarsi all’informatica ed è assunto dal laboratorio di Intelligenza artificiale del Mit. Paladino del free software, si dimette dal Mit per dar vita al progetto Gnu. È lo sviluppatore principale del potente editor Gnu Emacs. Attualmente vive a Cambridge, nel Massachusetts. Linus Torvalds è un programmatore finlandese. Laureato all’università di Helsinki, inizia a lavorare al kernel Linux alla fine degli anni Ottanta perché insoddisfatto da Minix, un sistema operativo didattico sviluppato da un suo professore. Nel settembre 1991 Linus ne completa la prima versione, Linux 0.01. Attualmente vive in California. Eric Steven Raymond è un famoso hacker statunitense. È il profeta dell’open source e il fondatore dell’Open Source Initiative. Ha collaborato alla scrittura di Emacs ed è lo sviluppatore principale di Fetchmail, un software open source che eroga servizi di posta elettronica. Attualmente vive a Boston. Al di là dei nomi (praticamente tutto il software che l’Osi classifica come open source è considerato free software da Fsf e viceversa), l’esperienza degli ultimi vent’anni ha dimostrato che la disponibilità del codice sorgente garantisce agli utenti prestazioni migliori e meno costose computazionalmente e agli sviluppatori un enorme bacino di potenziali cosviluppatori in grado di rilevare bug, proporre miglioramenti, sperimentare il software su testing machine diverse, ecc. A differenza del software proprietario, il software libero aggiornato è però disponibile l’indomani su Internet, anziché tre o quattro anni dopo quando è pronta la nuova versione! panorama per i giovani • 21 Foto: iStockphoto.com/Eraxion Purtroppo il termine inglese free è caratterizzato dall’intrinseca ambiguità libero/gratuito, cosicché molte imprese continuano a essere scettiche nei confronti del software libero, percepito come Linux, creato dal finlandese Linus antitetico al comTorvalds, è un kernel potente e leggero, concepito mercio. Per ovper girare in ambiente Unix, ideale per le viare a questo incaratteristiche e gli obiettivi di Gnu conveniente, nel 1998 l’informatiscrive) in ogni parte del mondo ed è parti- co americano Eric Raymond insieme ad alcolarmente apprezzato in ambiente scienti- tri programmatori sconfessò il termine free fico. La reperibilità del sorgente permette di software sostituendolo con open source individuare rapidamente gli inevitabili bug software e diede vita all’Open Source Inie di correggerli in fretta. Ormai anche mol- tiative (Osi), un progetto con fini pressote aziende, inizialmente diffidenti, dotano i ché identici a quelli di Fsf. Stallmann non loro calcolatori con software libero. ha mai digerito quest’iniziativa... versioni user-friendly (Ubuntu) o per utenti più esperti (Fedora, Debian). Il sistema operativo Gnu/Linux è presente ormai su tantissimi computer (compreso quello di chi Tecnologie dell’informazione Mettersi in gioco Informatica, nuove tecnologie e comunicazione non sono soltanto discipline accademiche, ma grandi realtà difficili da emulare: in tanti hanno provato a mettere in pratica conoscenze e intuizioni per creare una realtà imprenditoriale propria. Molti ci sono riusciti, in giro per il mondo e qualcuno anche in Italia. Uno di loro è un allievo dal Collegio Universitario “Lamaro Pozzani” che in 9 anni ha costruito una realtà di rilevanza nazionale. Abbiamo incontrato Leonardo Ambrosini per farci raccontare la sua storia. a cura di Carla Giuliano Ingegner Ambrosini, lei è uno dei fondatori di Nexse srl, una delle imprese più innovative nel campo dell’informatica e delle nuove tecnologie. Ci racconta di cosa si occupa esattamente la sua azienda? “Nexse”, come si può leggere sul nostro sito (www.nexse.com), è un termine attinto dal vocabolario etrusco, che più o meno significa “colui che è connesso”, da cui sembra derivi l’odierno “nesso”. Per noi che realizziamo “codice” per servizi in “connettività”, tale nome ben enfatizza il “nesso” con le nostre origini storiche, avvalorato dal fatto che il complicato vocabolario etrusco ancora oggi non è stato del tutto de-codificato. La nostra è una società di ingegneria informatica costituita da quattro ingegneri e un fisico nel 2000, che progetta, realizza e integra applicazioni e servizi per Internet e telefonia mobile ad alto contenuto tecnologico e innovativo, per grandi società di servizi, industria, utility, finance, trasporti, operatori di telefonia e pubblica amministrazione. Dal 2000 a oggi siamo cresciuti costantemente in personale e fatturato, grazie anche alla nicchia di mercato vivace e in espansione in cui operiamo (la convergenza dei servizi internet e mobili), raggiungendo un fatturato annuo di 5 milioni di euro. Il nostro gruppo conta ormai più di 90 dipendenti, principalmente ingegneri informatici, ed è ancora in crescita. Diventare imprenditori a 28 anni e rischiare in proprio: un azzardo o una scelta calcolata? Quali sono state le 22 • n. 2, maggio-agosto 2009 difficoltà più grandi? Quelle più inattese? Il gruppo iniziale di soci è ancora unito? Dopo quanto avete ripagato il vostro investimento iniziale? Un azzardo, senza dubbio. Quando ho occasione di presentare la storia dell’azienda, la prima caratteristica che mi piace sottolineare è che è stata avviata (e continua tutt’oggi a essere gestita) con capitali propri, senza alcun ricorso a risorse economiche esterne, quali banche, incubatori, venture capitalist o finanziatori. Insomma, a distanza di anni oggi posso serenamente affermare che si è trattato di un vero e proprio “azzardo” imprenditoriale, perseguito con istinto e contro ogni regola di business administration: ma è stato proprio tale azzardo la chiave del successo, consentendo all’azienda di muoversi libera da vincoli di obiettivi o debiti e di adattarsi rapidamente alle continue evoluzioni delle tecnologie informatiche e delle esigenze di mercato. Naturalmente tutto ciò è stato reso possibile dal particolare settore industriale in cui ci moviamo, i cui investimenti iniziali sono prevalentemente rivolti all’acquisizione di knowhow e capitale umano, e da un’oculata e prudente gestione delle risorse. E dopo circa tre anni l’investimento iniziale è stato ripagato. Le difficoltà più grandi e inattese? Sicuramente la gestione del personale: agli inizi di quest’avventura era per me inimmaginabile prevedere le difficoltà e le energie nel creare percorsi di crescita professionale soddisfacenti, conciliando le aspirazioni dei variegati caratteri delle persone con le altalenanti e imprevedibili esigenze di mercato e con i mutamenti tecnologici. A volte, più che ingegnere informatico, mi trovo a svolgere il ruolo di... “ingegnere psicologico”! La compagine sociale è rimasta invariata nel tempo: tutti i soci partecipano con un proprio specifico ruolo alla gestione aziendale che, nel frattempo, si è estesa in “gruppo” con la creazione di ulteriori aziende peculiari e distinte: WLab, Nexse Technology srl (specializzata in tecnologie Microsoft) e la neo-costituita Nexse Solutions srl (operante nell’ambito della sicurezza e della difesa). Il suo campo affronta ogni pochi mesi una continua mutazione, a volte appare quasi frenetico. Si lanci in una previ- sione: di cosa si occuperà di qui a tre anni? tecnologie emergenti in ambito wireless e mobile, che per noi sono il futuro. Per una realtà delle nostre dimensioni tre anni sono troppi: in un ambito in così rapida evoluzione è più opportuno fare previsioni a 6-12 mesi e l’innovazione è l’unica strada per tentare di precorrere i tempi, anche se di poco, rispetto alla concorrenza. E l’unico mezzo per fare innovazione è la ricerca. Per questo Nexse ha dato vita a una consolidata collaborazione con le Università di Roma “La Sapienza”, “Tor Vergata”, “RomaTre” e il centro ricerche Enea (Cre-Casaccia), con cui ha promosso un laboratorio di ricerca applicata – WLab appunto – per esplorare nuove opportunità e servizi principalmente nelle Nel suo bilancio professionale quali sono state le soddisfazioni maggiori? Quanto sono costate, se sono costate, in termini di sacrifici personali? A nove anni di distanza rifarebbe tutto o sceglierebbe una vita più tranquilla? Rifarei tutto, le soddisfazioni sono state e continuano a essere superiori ai pur numerosi sacrifici personali. Chi intraprende questa strada lo fa proprio perché non desidera una “vita più tranquilla”, ma tenta di ritagliarsela il più possibile rispondente alle proprie aspirazioni e attitudini. Tra i riconoscimenti professionali che abbiamo ricevuto citerei il premio Unioncamere per la Giovane Impresa Innovativa, del 2004, il Premio Perotto 2008 per il sistema “Remote Grocery Shopping via NFC” e il piazzamento tra i 10 finalisti mondiali al Nfc Forum Global Competition 2008. Nexse è nata come un progetto di gruppo e continua a esserlo, attraverso la sua composizione societaria. Considera questo un punto di forza o una debolezza da superare prima o poi? Che cosa ha determinato il successo del gruppo iniziale? La composizione, le competenze, i caratteri... Sarebbe stato possibile creare Nexse, o una parte delle sue attività, da solo? Avrebbe preferito che andasse così? panorama per i giovani • 23 Foto: iStockphoto.com/mikdam Tecnologie dell’informazione Tecnologie dell’informazione e ceti sociali deboli); la seconda è data dall’impatto sulle risorse naturali in termini di sostenibilità. Il mondo intero sta prendendo coscienza di queste problematiche che, se non risolte, porteranno a un declino anziché a un ulteriore progresso. La tecnologia dell’informazione ha un ruolo nello sviluppo energetico? Potrebbe essere usata (anche solo attraverso i suoi algoritmi, per esempio, di ricerca operativa) per ridurre gli sprechi nella distribuzione? L’informatica riveste un ruolo importante in tale settore ed è già ampiamente utilizzata nella gestione e automazione delle centrali, degli impianti e delle reti di distribuzione, oltre ai sistemi di simulazione e di analisi dei dati. In particolare, Nexse ha collaborato a lungo con Wind nell’ambito di un importante progetto di telelettura dei contatori Enel; da tempo partecipa a un gruppo di ricerca di Enea su algoritmi di ottimizzazione dei sistemi di controllo delle centrali elettriche, ottenendo anche finanziamenti pubblici per il loro sviluppo (è in cantiere la costituzione di un’apposita società, Nexse Energy). Impossibile creare Nexse da solo; l’azienda è come una squadra la cui rosa cresce nel tempo: solamente se la formazione iniziale è estremamente affiatata e ben distribuita riuscirà a convincere e ad attrarre nuovi elementi. Inoltre una delle maggiori soddisfazioni professionali è data proprio dalla gratificazione di confrontarsi con gli altri nelle scelte più difficili e di condividerne successi e fallimenti. Ritiene che esperienze particolari del suo curriculum come essere stato allievo del Collegio Universitario “Lamaro Pozzani” o particolari periodi lavorativi prima di fondare Nexse siano stati determinanti per il suo successo? Perché? Sì, assolutamente: il Collegio Universitario ha rappresentato un valore aggiunto importante nella mia formazione culturale e mi piace ricordare che di fatto l’impresa è una sorta di “collegio”, con le sue regole e i suoi obiettivi, che crede e coopera a un’iniziativa comune con spirito d’eccellenza e competitività. Poi le esperienze accumulate nei primi anni di lavoro han24 • n. 2, maggio-agosto 2009 no consentito di approfondire le peculiari specificità delle aziende e del mercato Ict, le tendenze tecnologiche e le prime fondamentali relazioni professionali, rivelatesi poi determinanti nella nascita e nella crescita di Nexse. La tecnologia, con il suo inarrestabile sviluppo, per lei semplifica la vita o la complica? La sua corsa avrà un termine (catastrofico oppure no) oppure sarà infinita? In una parola, cosa pensa del progresso? E ritiene che sia possibile renderlo sostenibile? Domanda obbligata: che ne pensa di Youtube, Facebook e in generale di Internet 2.0? Sono un rischio per privacy ed equilibri, oppure un’opportunità? Come sarà Internet 3.0? Siamo solo agli inizi, probabilmente tra due o tre anni Youtube o Facebook saranno soppiantati da altri originali e attraenti strumenti. Ma sono certo che, qualunque sia la loro evoluzione, entro pochi anni rappresenteranno per tutti (non solo per i giovani o i giovanissimi) un mezzo quotidiano ed essenziale di comunicazione, un po’ come avviene oggi con il cellulare e gli sms. Come sarà Internet 3.0? Secondo me questo tipo di terminologia non esisterà più, sostituita dalla totale convergenza Credo semplicemente che il progresso sia una naturale e inarrestabile evoluzione dell’umanità, spinta sia da desiderio del nuovo sia da interessi econoImpossibile creare Nexse da solo: è mici. Di sicuro come una squadra la cui rosa cresce nel tempo; è dovrà affrontare gratificante confrontarsi con gli altri, e condividere due gravi quecon loro fallimenti e successi stioni: la prima è rappresentata dal crescente divario fra coloro che pos- tra telefonia, Internet e media, accessibisono usufruire delle nuove tecnologie e le ovunque e capace di fornire servizi e coloro che ne sono esclusi (paesi poveri informazioni, i più disparati. Parlare di “ ” Tecnologie dell’informazione internet sarà un po’ come citare oggi Tacs e Iridium, termini dimenticati ma in voga nel decennio scorso. Qual è la sua posizione sull’applicazione del diritto d’autore/proprietà intellettuale/creative commons in campo informatico? E sul software open source? È il futuro o resterà una nicchia? E per le società del campo rappresenta una minaccia o un’opportunità? Un programma software è una sorta di opera creativa, un po’ come un quadro, un libro o una canzone. Ma per sua natura non è e non potrà essere protetto dal diritto d’autore. Oggi è possibile brevettare un algoritmo o, meglio, un processo informatico. Ma quel che conta è la sua “Nexse” è una parola che viene dall’ancora misterioso vocabolario etrusco (in basso, un antico bassorilievo proveniente da questa civiltà) e significa “connessione”. Nella pagina precedente: Leonardo Ambrosini (in primo piano) con i soci di Nexse nella rituale foto che ogni anno scattano a Piazza del Popolo a Roma nell’anniversario della fondazione della loro società. implementazione (ossia la realizzazione essere estesa e adottata liberamente da per il tramite di un programma software) chiunque, con la certezza che proprio la e lo stesso algoritmo/processo può essere sua crescente diffusione ne garantisce implementato in tanti modi e tecnologie la robustezza, l’affidabilità e la sicurezdifferenti, pur ottenendo risultati analo- za. Una vera e propria “rivoluzione inghi. Ciò costituisce un limite allo sfruttamenCredo che il progresso sia to economico del sofuna naturale e inarrestabile evoluzione tware, ma allo stesso dell’umanità e che sia spinto dal desiderio del tempo ne rappresenta nuovo e da interessi economici la sua forza, in quanto ogni sviluppatore di fatto è libero di creare quello che vuole. dustriale”, silenziosa ma inesorabile e Il software open-source è la diretta e straordinaria. Per Nexse rappresenta una più evidente conseguenza di quanto ac- fondamentale opportunità di lavoro, in cennato poco fa. Ormai adottato in tutti quanto siamo uno dei principali system i principali ambiti produttivi, costituisce integrators italiani di piattaforme basate una valida alternativa ai pacchetti com- su software open-source. merciali (uno su tutti il sistema operativo Linux in alternativa a Windows), rappre- Ci racconta qualcosa che non avrebbe sentando una novità assoluta nella sto- mai pensato possibile nel suo campo e che ria dei servizi: semplificando, possiamo invece si è trovato a vedere realizzato? dire che mai prima d’ora si era assistito a un modello produttivo in cui gruppi di Non avrei mai immaginato di dedicarpersone sparsi per il mondo cooperano mi all’acquisto di immobili attraverso (prevalentemente a titolo gratuito) alla un’asta on-line, nel lontano 2004, corealizzazione di un prodotto (in questo modamente seduto in ufficio tra una ricaso un’applicazione software) che può unione e l’altra, supportato dall’assenza di altri compratori evidentemente ignari o spaventati da tale strumento; non avrei mai immaginato di vedere oggigiorno tanti colleghi e amici possedere costosissimi smart-phone (cellulari simili a palmari) molto più potenti del mio Pc di allora, ma di cui ignorano gran parte delle potenzialità; non avrei immaginato che il livello raggiunto dall’offerta di servizi applicativi e dispositivi hardware fosse di gran lunga superiore alle capacità di utilizzo da parte di noi utenti, che continuiamo a comprare e ad aggiornarci più per un fattore di status che di effettiva necessità. Un po’ come avere una Ferrari per andare in ufficio... potere del marketing, sprovvedutezza della gente. “ ” Foto: iStockphoto.com/image_of_life Oggi qual è il suo sogno professionale? Ogni primo agosto c’è un appuntamento molto semplice ma speciale. Con i miei soci ci incontriamo per una foto di rito a Piazza del Popolo a Roma, il luogo dove nove anni fa nacque il progetto Nexse. Mi piacerebbe rinnovare questo simpatico appuntamento ancora per molti anni, con il medesimo entusiasmo che ci ha contraddistinto sinora. panorama per i giovani • 25 Tecnologie dell’informazione Il tormenta fra l’Uomo e Tra gli innumerevoli linguaggi ormai affer tecnologica premierà? O meglio, esiste un un buon prodotto software? Cosa sia un linguaggio di programmazione è presto detto: una macchina viene schematizzata, secondo una diffusa notazione, come uno stack di macchine virtuali (Vm). Sul fondo risiede la “macchina fisica”, che è meramente l’insieme di circuiti elettronici di cui è composta. Gli strati per così dire superiori, invece, non esistono nella realtà, non sono palpabili e sono detti strati “logici”. Questi ultimi si introducono per poter astrarre dal funzionamento dei singoli transistor e poter vedere la macchina al livello di “quel che fa” più che di “come è fatta”. Il risultato è che l’utente finale, allorché col proprio mouse stuzzicherà le icone del suo desktop, non dovrà preoccuparsi del parapiglia di circuiti elettronici che sta attivando per vedere illuminarsi una stringa di testo. Ora, il linguaggio di programmazione non costituisce altro che uno dei tanti livelli di astrazione. Più ci si pone in alto nella pila di astrazione, più comunicare con la mac26 • n. 2, maggio-agosto 2009 china diventa intuitivo ed assistito da interfacce. Ma allora perché non lavorare sempre al più alto livello possibile? Semplice: perché più si sale nella gerarchia degli strati virtuali, più è ristretta la visione della macchina. Il che vuol dire che in un ambiente grafico ci si muove allegramente, ma si riduce notevolmente il grado di interazione con la macchina stessa. Proprio a questa visione si riconduce il modo di catalogare i linguaggi di programmazione in linguaggi di “alto livello” o “basso livello”. “C” è sicuramente il linguaggio di più basso livello tra quelli comunemente utilizzati. Java, invece, astrae da qualsiasi cosa: dal disco alla memoria; dallo schermo al sistema operativo. Esso si pone di gran lunga più in alto di C nella gerarchia. C++ si trova per così dire in mezzo e costituisce un compromesso tra le potenzialità di C e il comportamento amichevole verso il programmatore tipico di Java. C è estremamente performante: il codice generato programmando in C non è sovraccaricato con tutti i fronzoli dei suoi discendenti orientati agli oggetti. È insomma una sorta di linguaggio macchina aggraziato che dispone di strumenti che permettono di trapassare gli strati di virtualizzazione e accedere direttamente all’hardware. Di Java si può affermare tutto il contrario: con pochissime righe di codice si creano programmi in grado di essere eseguiti su qualsiasi macchina. Questa possibilità è garantita dall’inserimento di uno strato di virtualizzazione della piattaforma intermedio, detto Java Virtual Machine (Jvm). È semplicissimo costruire interfacce grafiche e applicazioni che sfruttino connessioni di rete, database e quant’altro. Il prezzo da pagare è sempre e comunque la per- Foto: iStockphoto.com (enpt-poloskun; edfuentesg) di Renato Mancuso Tecnologie dell’informazione ato dialogo la Macchina rmatisi, quale è quello che l’evoluzione na scelta sempre vincente per sviluppare formance e sovente anche l’incapacità di comunicare con la piattaforma sottostante. Allora, quale linguaggio è destinato ad affermarsi nel lungo periodo? Si potrà chiudere un occhio sulle performance e occuparsi solo della portabilità? O viceversa? Quando si intende produrre un software, si utilizzano modelli di sviluppo articolati in fasi consecutive, durante le quali si definisce la struttura del prodotto in maniera iterativa e si procede per raffinamenti sempre successivi. La fase di stesura del codice corrisponde a una delle ultime di questo processo e va sotto il nome di “implementazione”. Ora, quando il software è stato ben definito e il progetto dettagliato è pronto, si devono fare i conti con le tecnologie che si hanno a disposizione per scegliere – tra l’altro – il linguaggio di programmazione più opportuno rispetto alle esigenze di sviluppo. Come è intuibile, tali esigenze sono di tipo sempre differente, perché in generale differenti sono le specifiche su cui si vuole che il software venga costruito. Questo implica che semplicemente non esiste un scelta ottima. In alcuni casi sviluppare velocemente un software che sia facilmente integrabile costituisce l’opzione vincente; altre volte, invece, il programma dovrà sfruttare appieno le potenzialità del sistema su cui viene installato. Nel ristretto ambito di un dato contesto di sviluppo, quindi, le scelte dei linguaggi sono piuttosto chiare, alla luce dell’esperienza maturata e dei vantaggi osservati. Linguaggi di alto livello come Java o Php o Asp sono notevolmente utilizzati nella produzione di applicazioni Web. Essi mettono a punto un buon layer di interazione tra applicativo e Web server, consentendo una rapida scrittura di codice che rispetti canoni di sicurezza, dinamicità dell’output prodotto e integrazione con altre tecnologie Web. Non solo: ora che le virtual machines in grado di eseguire codice Java hanno raggiunto un buon grado di ottimizzazione e riescono agevolmente a operare anche su macchine dalle prestazioni mediobasse, quali i personal-computer, sta prendendo piede la tendenza a codificare in questo linguaggio anche software piuttosto corposi: dal photo-editing (Iris) agli ambienti di sviluppo integrati (NetBeans). Scegliere un linguaggio di programmazione del livello più basso possibile è invece praticamente obbligatorio nel caso di sviluppo di software critico. Ancora adesso, la parte fondamentale di un sistema operativo anche evoluto viene scritta in C. In primo luogo perché sarebbe impossibile scrivere uno dei primi strati di virtualizzazione dell’hardware, quale è il sistema operativo, presupponendo l’esistenza di un’ulteriore strato intermedio. In secondo luogo perché, quand’anche lo si facesse, il risultato finale sarebbe di qualità così scadente da non essere nemmeno lontanamente utilizzabile. Basti pensare che è addirittura sconsigliato l’impiego di C++ per la stesura di simili componenti software . Per concludere, portiamo un esempio esplicativo: la scrittura di codice estremamente performante è importante nel caso si debba implementare un sistema per la gestione di basi di dati (Dbms, Data Base Management System). Tali software possiedono restrizioni molto forti sui tempi di servizio e il numero di richieste per unità di tempo da soddisfare. L’ottimizzazione in questi casi è praticamente vitale. MySql, uno dei più celebri Dbms open-source, è infatti scritto in C e C++, ma se si va a vedere qual è l’interfaccia ai dati che esso offre, ci si imbatte in un linguaggio di alto livello come Sql (Structured Query Language), a sua volta utilizzato all’interno di altri linguaggi per realizzare la comunicazione con database remoti e non. Quello che si può dire, in sostanza, è che l’esistenza di una molteplicità di linguaggi con le più diverse caratteristiche ha un ovvio motivo di esistere. Non solo, ma è inaccettabile l’idea che questa varietà sia destinata a scemare nel tempo. La tendenza più prevedibile è tutt’altra: che si creino mezzi di integrazione tra tecnologie di sviluppo sempre più evoluti e che siano in grado di bilanciare pregi e svantaggi derivanti dall’uso dei numerosi linguaggi in gioco. panorama per i giovani • 27 Foto: The 3 Wise Men (Copyright Animagicstudio / Carrere Group / Telemadrid) Tecnologie dell’informazione Un mondo in 2D Software che aiutano gli animatori a realizzare le loro affascinanti opere. Intervista a Gian Marco Todesco, direttore Ricerca e Sviluppo della Digital Video. di Selene Favuzzi Vengo accolta in uno studio luminoso, dall’arredamento semplice ed essenziale, con quel leggero disordine da luogo vivo, non mera postazione asettica e impersonale. Fuori dalla porta tanti computer e gente che lavora, moltissimi i giovani. È quasi difficile immaginare che grazie a loro siano stati realizzati capisaldi dell’animazione, come Balto, Anastasia o alcuni capolavori dello Studio Ghibli, come La città incantata, La principessa Mononoke, Il castello errante di Howl. Mentre sto per cominciare l’intervista arriva un pacco: sono due volumi che arrivano dalla Germania, dove l’anno scorso, “l’Anno della Matematica”, era stata indetta una “call for videos”. Fra le pagine a colori vi è anche un iperdodecaedro firmato Todesco. Il nostro intervistato strappa il cartone come un bambino che scarti un regalo, e si emoziona entusiasta nel guardare le stupende figure che animano quelle pagine. Iniziamo adesso però l’intervista… 28 • n. 2, maggio-agosto 2009 In che cosa si è laureato e come ha iniziato a lavorare? Mi sono laureato in fisica e sono entrato nell’Infn (Istituto Nazionale di Fisica Nucleare), dove ho partecipato alla creazione di “Ape”, un calcolatore che sfrutta circuiti realizzati appositamente, e la potenza di calcolo globale fornita da molteplici processori che lavorano insieme, per raggiungere svariati miliardi di calcoli al secondo. Quindi ha sin da subito capito quali erano le sue aspirazioni? Assolutamente sì. È dalla seconda superiore che ho compreso quello che realmente volevo fare; infatti la mia tesi di laurea aveva come oggetto l’informatica. In cosa consiste allora il suo lavoro come direttore del reparto R&S? Principalmente nel coordinare il lavoro di tutti gli operatori informatici che cercano di migliorare e far evolvere i nostri software o produrne di nuovi; nel gestire al meglio le relazioni con l’esterno della società e con i potenziali clienti. Qual è il lavoro svolto più in generale dalla vostra società? La Digital Video Spa realizza animazioni in 2D. Si tratta di prodotti di qualità che presuppongono gran cura e attenzione ai minimi particolari. Per fare questo, il principale prodotto della nostra azienda è Toonz. Ci sono circa altri cinque o sei software alternativi a Toonz. Siamo solo una ventina di informatici, ma il mercato di utenza è globale. Tecnologie dell’informazione su due file di binari collegate da innumerevoli scambi. Ovvero? Uno dei vostri principali clienti è lo Studio Ghibli, legato al nome del quasi leggendario regista giapponese Hayao Miyazaki. Che tipo di rapporto è il vostro? Oserei definirlo quasi un rapporto di stimolo reciproco, una crescita in parallelo Lo Studio Ghibli acquista numerose licenze di utilizzo del programma, e noi cerchiamo in cambio di realizzare i miglioramenti che uno studio di tale importanza richiede. È un’interazione continua e costante. Circa ogni anno infatti esce una nuova versione del software. Per noi è fondamentale capire cosa vogliono i nostri clienti, e volgere in tale direzione i nostri sforzi, soprattutto quando si parla di professionisti di straordinario talento come Miyazaki. La qualità del nostro prodotto è sensibilmente aumentata. Quindi vi è un confronto continuo... ma nella gestione di un rapporto così importante, qual è lo spazio attribuito alla dimensione umana? È il più ampio possibile, i contatti infatti non avvengono meramente via Internet, ma sono molto numerosi gli incontri personali. Da poco ad esempio sono stato in Giappone per vedere in prima persona l’ambiente lavorativo degli animatori, per cercare di capire effettivamente quale sia la loro tecnica produttiva (risalendo in parte alla lontana epoca del lavoro a mano), ovvero quali siano gli strumenti, quanti i fogli che tengono sempre sul tavolo... Direi quasi un modo per restituire un ambiente familiare, dove non si sentano spersi e possano prendere pieno possesso del proprio spazio e della propria importanza... Esattamente, cerchiamo di realizzare una metafora digitale, che metta intuitivamente a suo agio il disegnatore che andrà a utilizzare il nostro programma. Quali sono le abilità che dovrebbe possedere un programmatore di software per animazione digitale? E cosa consiglierebbe a una ragazzo che voglia intraprendere questa strada? Trovare persone brave non è semplicissimo, la capacità fondamentale è infatti quella di saper risolvere problemi complessi con le proprie conoscenze ovviamente limitate, riuscire ad arrivare a risultati ignoti con dei frammenti noti. Ci vuole una giusta proporzione di competenze, fantasia, intuito matematico e ragione. Poiché la chiave per questo lavoro è il software, chi possieda una buona base nelle cosiddette “scienze dure”, è più avvantaggiato. Vorrei però sottolineare come il lavoro del programmatore sia diametralmente opposto rispetto a quello dell’animatore. Come conciliare dunque arte e tecnica? È proprio ciò di cui si occupa il nostro studio, ovvero gettare un ponte fra due sponde lontanissime... a tratti solido, a tratti più traballante, ma pur sempre un canale per far fluire l’energia creativa, motore indiscusso del nostro lavoro. panorama per i giovani • 29 Foto: Le Prophetie des Grenouilles (Copyright Folimage) In queste pagine: alcune immagini realizzate con Toonz e gli altri software prodotti da Digital Video. In basso a sinistra: Gian Marco Todesco. Tecnologie dell’informazione Scienza e informatica: una coppia vincente La scienza ha dato vita alle tecnologie informatiche, ma queste ricambiano fornendo agli scienziati opportunità straordinarie nella ricerca e nel lavoro. Basta saperle sfruttare. Foto: iStockphoto.com (theasis; AlexRaths) di Luca Valerio Se fino ad alcuni anni fa a lavorare con computer e affini erano destinati, verosimilmente, solo informatici e programmatori, oggi questo non è più vero. Gli appassionati e i professionisti nelle discipline scientifiche e tecniche sanno bene che l’informatica è uno strumento di lavoro irrinunciabile anche solo per avvicinarsi al loro mondo. Mentre i laureati in discipline umanistiche si trovano il più delle volte ad aver a che fare con l’informatica come utenti, gli scienziati si trovano più spesso nel ruolo di sviluppatori e creatori di risorse informatiche – che si parli di hardware o di software. L’informatica, infatti, da un lato permette agli scienziati di comunicare contenuti scientifici sia fra di loro sia a un pubblico non esperto, dall’altro è il principale strumento con cui le conoscenze scientifiche vengono applicate e messe al servizio della società nel suo complesso. La circolazione delle informazioni L’impatto dell’informatica sul mondo della ricerca scientifica è ben evidenziato 30 • n. 2, maggio-agosto 2009 dall’invenzione dei database online di letteratura scientifica. L’esempio più rappresentativo è quello di PubMed, il database online di citazioni e abstract di riviste biomediche creato dalla U.S. National Library of Medicine, che permette di raccogliere rapidamente la bibliografia completa e aggiornata di tutte le ricerche compiute su qualsiasi argomento. PubMed considera solo le riviste che selezionano le ricerche da pubblicare in base ad alcuni criteri di rigore metodologico, il che garantisce la loro qualità. Oggi PubMed rappresenta uno strumento di lavoro insostituibile per chiunque sia impegnato nel campo della biologia e della medicina, in tutto il mondo e a qualsiasi livello. PubMed, però, non esaurisce il mondo dei database. Dal 2000, gli esempi di motori di ricerca per articoli scientifici si L’informatica è ormai uno strumento fondamentale per la ricerca scientifica, per esempio per quella farmaceutica. In alto, sotto il titolo: il modello, elaborato al computer, di una proteina. Nel box: alcune immagini di Helsinki, Bombay e New York. sono moltiplicati: fra i più famosi, Google Scholar, Scirus, CiteSeen. Anche se molti di essi continuano a concentrarsi sul settore biomedico, sono oggi coperti tutti i settori della ricerca scientifica. L’informatica come tecnica Oltre che supporto per la ricerca scientifica vera e propria, l’informatica – o, più precisamente, l’insieme di strumenti materiali e immateriali cui si riferisce l’espressione Information and Communication Technology (Ict) – è uno strumento quotidiano anche di quei laureati in discipline scientifiche o tecniche che vogliono applicare le loro competenze nel mondo del lavoro. In prima linea ci sono, ovviamente, coloro che dedicano il loro tempo e le loro competenze in maniera esclusiva all’informatica – cioè quelli che sono variamente definiti informatici e programmatori. In questo campo c’è un po’ di confusione. Quale studente di liceo scientifico o di istituto tecnico, per esempio, non si è mai chiesto la differenza fra laurea in Scienze dell’informazione e laurea in Ingegneria informatica? La questione non è affatto banale. Lo dimostra l’incertezza mostrata dal Ministero dell’Istruzione, l’Università e la Ricerca quando si è trattato, nel 2002, di stabilire se i laureati in informatica potessero accedere al concorso per l’iscrizione all’Albo professionale degli ingegneri – incertezza risolta (a favore degli informatici) solo dopo mesi di dibattito. Tecnologie dell’informazione I paesi che scommettono sull’Ict La Finlandia è considerata il più grande esempio di information society: oltre il 20% del Pil deriva da prodotti Ict, con programmi governativi ad hoc per l’informatizzazione della società dal 1995. India L’India è il paese al mondo in cui, secondo l’Ocse, la spesa per la ricerca in Ict è aumentata con il ritmo maggiore fra il 2003 e il 2008: oltre il 30% annuo. E nel 2006 il volume delle esportazioni di prodotti Ict era superiore di dieci volte a quello della Cina. Stati Uniti Gli Usa mantengono anche in questo settore il loro ruolo di leader: nel 2006, dei 950.000 ricercatori in Ict impegnati nei paesi Ocse, la metà lavora negli Stati Uniti. Foto: iStockphoto.com (Arsty; ewenjc; NatalieHerbert) Finlandia Le differenze fra i due curricula, tuttavia, rimangono. Possono essere utili a farsi un’idea le seguenti considerazioni, puramente orientative: - chi desidera lavorare nella robotica, nell’automazione o nella gestione di reti e network dovrebbe preferire Ingegneria informatica (o anche, nel secondo caso, Ingegneria delle telecomunicazioni); - chi preferisce la pura programmazione di software, oppure avere a che fare con web e database, può scegliere Scienze dell’informazione. Oltre ai professionisti dell’informazione, tutti i laureati in materie scientifiche hanno probabilità altissime di aver a che fare con software e hardware in modo diretto. Il settore privato dei paesi ad alto reddito sforna prodotti informatici a ritmi crescenti. A farlo sono soprattutto le imprese attive nel campo dell’Information Technology, ma anche quelle operanti negli altri settori. Una ricerca Ocse del 2008 ha evidenziato come fino a un quarto delle attività di Ricerca e Sviluppo globali nel campo dell’Information Technology provenga da imprese impegnate in settori diversi dall’informatica in senso stretto. Il software prodotto può essere usato per migliorare i processi organizzativi e gestionali dell’azienda, per gestire i flussi finanziari, per affrontare il product development (sviluppo del prodotto) in ogni tipo di attività industriale. Sono soprattutto gli ingegneri industriali e gestionali, nonché i laureati in economia, a dover tener conto di questo dato. Il lavoro dei laureati in scienze pure consiste spesso nel produrre software che possa rappresentare i fenomeni da essi studiati. Che si dedichino alla ricerca di base o a quella applicata nelle imprese, i matematici e i fisici usano più spesso il computer che carta e penna. Non a caso, anche i corsi di laurea universitari in queste discipline includono ormai fra gli insegnamenti essenziali o opzionali alcuni fondamenti di informatica – un’opportunità da non sottovalutare. Anche la biologia, da sempre considerata come la più “qualitativa” fra le discipline scientifiche, è stata cambiata dall’avvento dell’informatica. Oggi i biologi molecolari usano il computer non solo per interpretare i risultati dei loro esperimenti, ma anche per eseguire gli esperimenti stessi. L’esempio più eclatante è quello della proteomica e della farmacologia. La prima studia il rapporto tra la forma e la funzione delle proteine; poiché queste ultime sono il prodotto della traduzione del Dna, la proteomica è considerata il passo successivo alla genomica e all’interpretazione del Dna, che hanno monopolizzato l’attenzione negli scorsi vent’anni. La farmacologia ha trovato nel computer un mezzo insostituibile per studiare le caratteristiche delle molecole che potrebbero essere usate come farmaci: le tecniche di computer-aided drug design (progettazione di farmaci basata sul computer) permettono di “progettare” un farmaco, atomo per atomo, sulla base delle interazioni chimiche e del risultato terapeutico che si vuole ottenere. Il che aumenta enormemente la probabilità che i farmaci, al momento fatidico degli esperimenti sugli animali e delle prove sull’uomo, funzionino meglio o abbiano meno effetti collaterali. Fra i percorsi di studio che più facilmente portano a usare queste tecniche, accanto ai “tradizionali” Farmacia e Chimica e Tecnologie farmaceutiche, due corsi di laurea la cui popolarità è in costante crescita: Biotecnologie e Ingegneria biomedica. Molte università offrono già curricula specializzati nell’applicazione dell’informatica alle scienze biomediche – la cosiddetta bioinformatica. Oggi più che mai, occuparsi di scienza significa occuparsi di tecnologie informatiche: scommettere su questo tipo di competenze può essere l’arma vincente per aver successo in un mercato del lavoro costituito sempre più da nicchie di specializzazione. panorama per i giovani • 31 Tecnologie dell’informazione La salute nel mondo Umanisti, giuristi e informazione digitale Anche letterati e filosofi stanno imparando a comunicare diversamente il loro sapere. Le prospettive dell’informatica giuridica. Foto: iStockphoto.com (clu; artubo) di Maria Teresa Rachetta La portata davvero globale della rivoluzione digitale ha investito anche i campi apparentemente meno legati all’innovazione tecnologica, quelli che ancora qualcuno ama denominare studia humanitatis, con una designazione tecnicizzatasi nel Duecento sulla base di alcuni passi di Cicerone e di Gellio. Per i primi umanisti il termine delimitava i campi del sapere che oggi si indicano come letteratura, storia e filosofia. Riflettendo sull’origine ultima del termine, non ci si può esimere dall’aggiungere a questi almeno il diritto, la cui pratica, proprio ai tempi di Cicerone, era riservata agli uomini liberi e di altissimo rango ed educazione, i quali fornivano i loro pareri gratuitamente. Oggi queste discipline, oltre alle opportunità di crescita e occupazione tra32 • n. 2, maggio-agosto 2009 nistiche non esiste obsolescenza delle informazioni) comportano anche gravi rischi: la necessaria organizzazione e gerarchizzazione delle informazioni nella prospettiva dell’informatizzazione può provocare la perdita di informazioni, tralasciate o rese irraggiungibili da una collocazione non adeguata, o condizionare gravemente la disponibilità dei dati, mediante una gerarchizzazione operata secondo criteri non del tutto adeguati o poco economici. È quindi evidente che le discipline umanistiche richiedono all’informatico non un semplice ruolo sussidiario, ma un contributo consapevole delle specificità delle discipline e della tipologia dei dati trattati. Un contributo di questo genere non può prescindere da una conoscenza della disciplina umanistica scelta, di livello universitario. Allo stesso tempo, un progetto digitale in ambito umanistico deve ambire a una lunga durata esattamente come le opere cartacee, che, nel caso per esempio di molti dei grandi dizionari e dei repertori, rimangono nell’uso frequente degli studiosi per periodi che superano abbondantemente il secolo. Di conseguenza si rende necessario un costante aggiornamento delle tecnologie in modo da far sì che l’opera resista al veloce mutare dei formati e dei supporti. Nel concreto, l’attività dell’informatica umanistica (in inglese Humanities Computing o Digital Humanities) si divide in un campo strettamente teorico, nel quale si indagano gli approcci e i paradigmi nuovi che la tecnologia può fornire nell’affrontare i problemi storici degli studi umanistici, e uno pratico, con un’attività di integrazione delle nuove tecnologie nella ricerca e nella didattica e nella divulgazione umanistica. Gli esempi dizionali nell’ambito della ricerca, della didattica e delle professioni, forniscono occasioni di professionalizzazione differenti, che rispondono alla richiesta di figure con solide competenze umanistiche affiancate (e non sostituite) da conoscenze avanzate nel settore informatico. L’applicazione dell’informatica non L’applicazione può essere scissa da una generale riconsiderazione dell’informatica delle conoscenze pregresse entro tali discipline, infatti, non può essere scissa da una complessiva riconsiderazione del- dei progetti in corso attualmente in questo le conoscenze pregresse. ambito possono essere davvero numeroI vantaggi che l’informatica of- si anche se ci si limita solo a quanto sta fre nell’ambito della gestione dei dati, avvenendo in Italia, nonostante la veloce aspetto fondamentale in presenza di un espansione della disciplina faccia sì che patrimonio pregresso praticamente ster- tra questi possano essere ancora annoveminato e irriducibile (nelle materie uma- rati i pionieri. “ ” Tecnologie dell’informazione La letteratura Ovvia e popolare applicazione, anche nella forma delle grandi raccolte su cd, sono i corpora letterari: ampie raccolte di testi in formato digitale, intere letterature nazionali o l’intera opera di un determinato autore. Il primo esempio in Italia fu, nel 1993, la Liz (Letteratura Italiana Zanichelli), comprendente più di 1.000 opere italiane dal Duecento a Pirandello e D’Annunzio, tutte digitalizzate e “interrogabili” per il tramite di un motore di ricerca. Proprio da un corpus di testi simile, altrettanto vasto ma più concentrato nel tempo (con data termine il 1375, l’anno di morte di Giovanni Boccaccio), nasce il progetto denominato con l’acronimo Tlio (Tesoro della Lingua Italiana delle Origini). I testi del corpus sono interamente interrogabili on line (all’indirizzo http:// www.ovi.cnr.it/), ma il progetto prevede anche una lemmatizzazione sistematica delle forme che darà origine al Vocabolario Storico Italiano. Ad occuparsi della stesura è l’Accademia della Crusca, già responsabile, nel 1612, del primo vocabolario di una lingua europea di cultura, che dimostra con questo progetto (che è parzialmente già consultabile sul sito e che lo sarà sempre di più man mano che verranno stese nuove voci) di essere ancora una volta, a distanza di quasi quattro secoli, all’avanguardia. le aree professionali 1 Editoria elettronica. Figure che operano in ambienti digitali per la gestione e la pubblicazione di informazioni strutturate e non strutturate (testi e dati). 2 Industria culturale. Figure che operano per l’industria culturale, della formazione e dell’intrattenimento e in particolare per quei settori che si basano sull’espressione creativa con l’uso di tecnologie informatiche. 3 Management della conoscenza. Figure che operano nella creazione, conservazione e diffusione di conoscenza all’interno delle organizzazioni pubbliche e private. raccomandata con ricevuta di ritorno tradizionale. Più in generale, il “processo telematico”, per ora attivo solo in poche sedi, come parte del più vasto sistema di e-Government della giustizia civile italiana, consiste nella possibilità data alle parti, al giudice e alla cancelleria di formare, comunicare e notificare gli atti processuali mediante documenti informatici. Oltre a permettere alle parti di costituirsi in giudizio senza più recarsi fisicamente in cancelleria, la trasmissione informa- tica della documentazione permetterà ai difensori, al giudice e alla cancelleria di consultare on line le carte processuali, con evidente risparmio di tempo e di energie soprattutto se si considera l’ingente mole dei materiali di cui si sta parlando. Tale sistema, almeno per il momento, si affiancherà e non si sostituirà alle vecchie modalità legate al documento cartaceo per rendere il passaggio al nuovo (ma ancora per molti ostico) sistema informatico il meno traumatico possibile. Il diritto Le applicazioni dell’informatica al diritto hanno implicazioni che riguardano solo gli addetti ai lavori, del tutto simili a quelle sopra esemplificate. Un esempio di ciò è il sistema Italgiure, un archivio digitalizzato e interrogabile di sentenze e massime della Cassazione che ora affianca i voluminosi e numerosi tomi che riempiono gli studi degli avvocati (consultabile, una volta sottoscritto un abbonamento, all’indirizzo www.italgiure.giustizia.it). A questo tipo di applicazioni se ne aggiungono tuttavia altre, di maggiore impatto presso l’opinione pubblica perché volte a rendere più facili e veloci le procedure inerenti all’esercizio o all’esecuzione di un obbligo di legge. La “posta elettronica certificata” è uno strumento che permette di dare a un messaggio di posta elettronica lo stesso valore di una panorama per i giovani • 33 Tecnologie dell’informazione A sinistra: un “nerd”, lo stereotipo del ragazzo con la testa fra le nuvole e appassionato di informatica; ma la realtà professionale del programmatore è molto diversa. ai sistemi operativi, alla creazione di complessi sistemi di gestione delle transazioni bancarie) e in risposta a questa varietà è difficile individuare un’unica categoria di programmatore o di esperto informatico. A livello funzionale chi lavora in questo campo o fa il programmatore o fa l’analista. Di solito un analista è stato in passato programmatore e ha sviluppato nel tempo oltre alle competenze di base quelle che riguardano l’architettura complessiva di un progetto, la sua fattibilità gestionale e la capacità di dettare le linee guida che poi il programmatore seguirà. Ovviamente quindi l’analista guadagnerà di più, ma farà anche un lavoro molto diverso e con tante variabili in più. Come si diventa programmatori? Solo attraverso l’università o ci sono altri modi? A colloquio con Andrea Bastoni, laureato del Collegio “Lamaro Pozzani” e dottorando dell’Università “Tor Vergata”. a cura di Carla Giuliano Chi per passione smanetta sui pc e si avvicina al mondo della programmazione spesso si chiede se possa tramutare questa attività in un lavoro e in chance di carriera. Proviamo a dare una risposta a tali quesiti in una serie di Frequently Asked Questions (Faq), sigla ben nota a chi si diletta di computer, tastiere, codici e affini. Che lavoro fa chi professionalmente “pro34 • n. 2, maggio-agosto 2009 gramma”? Quanto guadagna? Si lavora più in proprio o più come dipendente? Il programmare può essere inteso, in senso ampio, come il cercare di offrire soluzioni a esigenze e problemi del mondo reale. Gli ambiti di interesse della programmazione, dell’informatica e dell’information technology in genere sono molteplici (dallo sviluppo di applicativi per cellulari Che differenza c’è tra un informatico e un ingegnere informatico? Un ingegnere informatico è prima di tutto un ingegnere, quindi ha una formazione di base in matematica, geometria, fisica, chimica... Non è solo questione di formazione ma anche di forma mentis: generalizzando, un ingegnere informatico è Foto: iStockphoto.com (Foxtalbot; TommL) Frequently Asked Questions Per diventare programmatori l’università non è necessaria, ma qui bisogna fare una precisazione: per imparare a scrivere un determinato codice per una singola finalità, che spesso interessa solo alcuni tipi di aziende, l’università è inutile; ci sono corsi professionalizzanti organizzati dalla regione, dalla provincia e da altri enti oppure dalle stesse aziende. Bisogna però essere consapevoli che seguendo quella strada ci si ferma lì. Il tempo investito è minore, ma anche il risultato. L’università apre la mente non solo con la formazione ma attraverso le esperienze e prepara per tutti i campi in cui la formazione che offre può essere poi utilizzata. E poi, dopo la laurea, l’inserimento nel mondo del lavoro può avvenire a un livello di poco inferiore a chi magari ha più esperienza e meno titoli, ma la carriera successiva è molto più rapida e stimolante. Tecnologie dell’informazione più orientato a un processo di produzione industriale, mentre un informatico è più interessato agli algoritmi matematici e a tutto ciò che sta dietro le strutture logiche che vengono usate in programmazione. luppati in un’ottica rivolta al futuro. C, Java... sono ancora i linguaggi più usati? Quale potrebbe essere (o già è) il prossimo linguaggio della programmazione? In realtà, lo stereotipo del nerd che sta chiuso in una stanza “e tutto il mondo fuori” esiste solo nei film! Nella pratica il grado di consapevolezza e di feedback che il programmatore può avere dipende da progetto a progetto: ci sono casi in cui lo sviluppatore si occupa solo di determinate classi e non ha idea di quale sarà il loro utilizzo pratico e casi in cui invece il coinvolgimento è totale. In generale comunque, più si sale nella gerarchia più la comprensione del progetto nella sua interezza è alta. Ovviamente l’analista che deve dettare le linee guida ha la visione completa. In realtà, la tendenza oggi non è creare un nuovo linguaggio, ma cercare di raggiungere un livello di astrazione superiore rispetto al codice: si sta andando verso lo sviluppo di ambienti e modelli che permettano di definire la semantica del programma, astraendo dalle differenze legate ai linguaggi di programmazione sottostanti (sintassi). A ogni modo linguaggi di programmazione come C o Java esistono per motivi diversi e sono basati su logiche diverse: quelli come Java e C++ o C# sono basati sul paradigma di programmazione orientata agli oggetti, che permette di gestire in modo più efficiente la complessità delle strutture logiche usate nella programmazione. Non c’è quindi una vera competizione, quanto piuttosto una compenetrazione, soprattutto nelle intenzioni e nei lavori che sono svi- Quanta realtà di quella che simula vede il programmatore? Quanto gli è possibile osservare gli effetti del suo lavoro? Cosa ha significato l’arrivo dell’open source nel mondo della programmazione? Gli equilibri possono cambiare? L’open source ha cambiato molto nel mondo della programmazione, non solo a livello psicologico ma anche aziendale: ad esempio, non tutti sanno che su Gnu/Linux lavorano a tempo pieno per svilupparlo soprattutto professionisti che sono stipendiati da società come Red Hat, Ibm, Intel, Oracle. Sembrerebbe un controsenso ma in realtà è la dimostrazione di quanto l’open source abbia cambiato le cose: anche le realtà motivate dal profitto vogliono dire la loro in un progetto worldwide come Linux e sono disposte a pagare per questo. Qual è la situazione in Italia a livello di ricerca nel campo dell’ingegneria informatica? Non è questione di livello di ricerca nel campo dell’informatica ma di ricerca in generale: in Italia le eccellenze ci sono e sono tante, ma i fondi a loro disposizione sono scarsi. Quei pochi gruppi di ricerca che hanno anche i finanziamenti si trovano con quattro o cinque ricercatori a competere con gruppi americani di 40 o 50. Non è facile. Ed è anche giusto ricordare che in Italia non c’è Microsoft, non c’è Google, non c’è Ibm, non c’è Intel, non c’è Oracle (o almeno ci sono, ma qui hanno principalmente le sedi commerciali e il marketing). Le grandi realtà di ricerca privata informatica sono fuori dal paese. panorama per i giovani • 35 Foto: iStockphoto.com (ChepeNicoli; dlexis33; Trifonov_Evgenij) Tecnologie dell’informazione La salute nel mondo Sono passati esattamente settanta anni dalla nascita di quello che è stato universalmente riconosciuto come il primo computer della storia – lo Z1 costruito dal tedesco Konrad Zuse nel 1939 – e da allora gli enormi sforzi profusi in termini di sviluppo e distribuzione hanno portato il computer a essere uno strumento indispensabile per un quarto della popolazione mondiale. Lo Z1 aveva una velocità di clock di circa un hertz, ovvero era in grado di eseguire un’operazione elementare (precisamente una commutazione tra due livelli logici) in un secondo, mentre la frequenza di un microprocessore singolo in un computer degli ultimi anni varia tra i due e i quattro gigahertz, il che significa che gli innumerevoli miglioramenti susseguitisi a un ritmo forsennato per settanta anni hanno portato a una potenza di calcolo un miliardo di volte maggiore rispetto a quella originaria. Sarà possibile nei prossimi anni migliorare di altrettante volte le prestazioni dei computer attuali? A sentire le cifre precedenti nessuno, probabilmente, si sognerebbe nemmeno di porsi una simile domanda, considerato anche che un limite alla velocità di calcolo di un microprocessore è dato dall’incapacità di raffreddarsi che interviene a frequenze troppo alte e ne compromette le prestazioni. Ci sono invece buone possibilità che la risposta sia positiva grazie ai principi della meccanica quantistica, che permetterebbero di costruire macchine, i computer quantistici appunto, che rivoluzionando totalmente il funzionamento degli odierni calcolatori sarebbero in grado di sfiorare velocità inimmaginabili con la tecnologia attuale. I nostri computer sono infatti basati sul bit, che rappresenta l’unità di informazione della computazione classica, il quale può assumere due valori, 0 o 1, che corrispondono, a livello materiale, rispettivamente a una tensione pari a 0 volt e a 5 volt del transistor, il meglio noto interruttore acceso/spento. Il quanto di informazione della computazione quantistica è invece il qubit (quantum binary digit), il quale tuttavia non presenta un analogo a livello materiale, ma può essere considerato come un oggetto matematico con determinate proprietà rintracciabili nella rappresentazione matematica che modellizza i fenomeni 36 • n. 2, maggio-agosto 2009 che occorrono in meccanica quantistica. Il vantaggio di lavorare con un oggetto astratto quale il qubit è quello di poter I principi della meccanica quantistica che intervengono nella definizione del qubit sono i principi di sovrapposizio- Super-computer DEL FUTURO Come funzionano i computer quantistici, quanto sono veloci, quale impatto avranno sul mondo della computazione pratica. di Emanuele Ghedin sviluppare una teoria computazionale quantistica che non dipenda dal particolare sistema di realizzazione. Lo svantaggio è che non si sa se esista e su cosa si basi un tale sistema. Tuttavia le molteplici applicazioni pratiche della meccanica quantistica (laser, microscopio elettronico, risonanza magnetica nucleare) fanno ben sperare su un’effettiva progettazione di un computer basato sul qubit. ne e di correlazione (o entanglement). Il primo sancisce l’esistenza di stati (uno stato quantico è la configurazione di una particella o di un loro insieme, matematicamente rappresentato da una funzione a valori complessi detta funzione d’onda) intermedi tra due stati ammissibili del sistema; a livello matematico è ammissibile ogni combinazione lineare a coefficienti complessi, le cui somme dei quadrati dei moduli siano pari ad uno, di due valo- Tecnologie dell’informazione La salute nel mondo Sopra: un processore, il cuore dei computer attuali. In alto: il mainframe di un grande centro di ricerca. ri ammissibili. Il secondo afferma che lo stato quantico di un insieme dipende dagli stati di ciascun elemento dell’insieme stesso, anche se tali elementi sono separati spazialmente. In accordo al principio di sovrapposizione, il qubit, oltre ai due stati del bit classico 0 e 1, ammetterebbe un’infinità di stati intermedi, il che consentirebbe una computazione talmente veloce da permettere di eseguire, in pochi secondi, calcoli per la cui esecuzione i computer classici impiegherebbero parecchi anni. È stato stimato che un computer quantistico a 500 qubit avrebbe la stessa po- tenza di calcolo di un analogo computer classico dotato approssimativamente di 10150 processori. Appare chiaro come, nonostante con i computer quantistici non abbia più senso considerare la velocità di clock quale metro di valutazione della rapidità di calcolo (dato che non esistono degli stati, e quindi dei livelli logici, completamente determinati di cui calcolare la velocità di commutazione), essi racchiudano una potenzialità computazionale spaventosa, sulle cui conseguenze occorrerebbe riflettere adeguatamente. Una simile potenza di calcolo, ad esempio, sarebbe più che sufficiente a rompere in breve tempo le chiavi di criptazione con le quali vengono resi indecifrabili tutti i dati sensibili che viaggiano sulle reti informatiche, rendendo impossibile la trasmissione di dati sicuri che è, tra le altre cose, alla base delle transazioni economiche del sistema bancario. L’algoritmo di criptazione più largamente utilizzato è infatti l’Rsa, il quale sfrutta un’importante proprietà matematica posseduta dai numeri primi; essi possono essere moltiplicati con un algoritmo molto rapido, ma, a partire da un numero intero, risalire alla sua fattorizzazione in numeri primi è un problema la cui risoluzione richiede a un computer attuale migliaia di anni di calcolo (relativamente a numeri molto grandi). È dunque molto facile criptare un messaggio, ma è praticamente impossibile decrittarlo, il che rende tale algoritmo sicuro. Con l’ipotetico avvento dei computer quantistici tutto ciò verrebbe a cadere, dato che esiste un algoritmo di fattorizzazione degli interi, l’algoritmo di Shor, eseguibile unicamente dai computer quantistici, che ha un tempo di risoluzione sufficiente a rendere vulnerabile la criptazione tramite l’Rsa. Non bisogna tuttavia allarmarsi prima del tempo. Nonostante a livello teorico la computazione quantistica rappresenti un argomento già molto sviluppato, sul piano pratico la costruzione dei computer quantistici è ancora molto lontana. Tuttavia, è molto probabile che si tratti solo di una questione di tempo e che prima o poi il primo computer quantistico faccia la sua comparsa, decretando uno dei più grandi avanzamenti nella scienza applicata, in grado di rivoluzionare completamente il mondo della computazione pratica. panorama per i giovani • 37 Tecnologie dell’informazione La salute nel mondo Il futuro è nell’Aria Il WiMax: si prevede un grande sviluppo della tecnologia capace di portare ovunque l’adsl e di ridurre il digital divide. di Giorgio Mazza da Jvc. Grazie a strategie di mercato più lungimiranti, la Jvc riuscì a produrre apparecchi meno costosi che conquistarono il mercato, anche se inferiori nella resa. Le nuove tecnologie tentano di acquisire la più Il WiMax consentirà di connettersi con velocità ampia porzione nelle zone rurali e negli spazi aperti delle città di mercato possibile, contenendo i nuove tecnologie. Spesso è accaduto, prezzi. Nonostante ciò, difficilmente arriperò, che queste innovazioni non si sia- vano ad avere uno sviluppo capillare sul no sviluppate nella direzione della mas- territorio, poiché, per limitare i costi, risima efficienza e funzionalità e che si sia sultano spesso fruibili solo dove esistono piuttosto puntato, sulla scia delle logiche infrastrutture e tecnologie precedenti. Questa spirale porta, inevitabilmente, di mercato, a ottenere prodotti dal basso costo e di facile utilizzo, talvolta anche a ad acuire il digital divide, ossia il divario discapito della qualità. tra coloro che possono accedere alle nuoL’esempio più celebre è quello del ve tecnologie dell’informazione (Internet sistema di registrazione Betamax, svilup- a banda larga e i servizi a essa connessi) pato da Sony a metà degli anni Settanta. e coloro i quali, invece, ne sono esclusi. Seppur di grande qualità, esso cedette il Secondo molti studiosi, il digital divide passo al Vhs, lanciato l’anno seguente comporta anche in Italia l’esclusione di Negli ultimi trent’anni le innovazioni nell’informatica e nelle telecomunicazioni si sono susseguite con una rapidità senza eguali per l’avvento di sempre più Foto: iStockphoto.com/hsandler “ 38 • ” n. 2, maggio-agosto 2009 milioni di cittadini dall’accesso alle tecnologie a banda larga e l’impossibilità per molte aziende e organizzazioni locali di ottenere una connessione adsl via cavo. È proprio guardando a questo divario che appare straordinariamente interessante, anche per la sua realizzabilità in ambiente sia urbano sia rurale, la tecnologia WiMax, acronimo di Worldwide Interoperability for Microwave Access. Il WiMax, tecnicamente uno standard della tecnologia wireless, offre numerosi vantaggi per quanto riguarda la copertura e la capillarità del servizio, pur assicurando velocità di trasmissione elevate (fino a 70 Mbit/s per i dati condivisi in aree metropolitane). La copertura del territorio con questa tecnologia è realizzabile grazie al collegamento dei diversi terminali di utente con una stazione radio-base, posta a qualche decina di chilometri di distanza, la quale è connessa, via cavo, alla rete Internet. Sono così assicurati collegamenti a banda larga anche in ambienti rurali o comunque non raggiunti dalla fibra ottica. Nonostante i dati dichiarati dal WiMax Forum (raggio di copertura di circa 50km per ogni stazione radio) siano stati decisamente ridimensionati da diversi test, questa tecnologia continua a presentare l’innegabile vantaggio di poter collegare, con relativa semplicità, anche zone impervie, con collegamenti radio privi di visibilità diretta. WiMax, inoltre, possiede altre due caratteristiche che le permettono di essere considerata una delle tecnologie con le maggiori potenzialità di sviluppo. La prima è quella di essere uno “standard”, cioè di godere dell’enorme vantaggio di essere indipendente dal tipo di apparato e dal provider. La seconda è quella di essere compatibile con la navigazione mediante cellulare e notebook, garantendo così connessioni in ambienti mobili fino a 120 km/h. Pertanto, se le stazioni radio si diffondessero in maniera capillare all’interno dei grandi centri abitati, il WiMax offrirebbe, oltre ai vantaggi per gli ambienti rurali, anche la possibilità di connettersi a Internet in ogni punto della città, con un qualsiasi dispositivo mobile. In questo senso, fa ben sperare l’assegnazione delle frequenze WiMax, avvenuta nel febbraio 2008. A fronte di un investimento di circa 136 milioni di euro, le aziende Aria spa e Linkem si sono ag- Tecnologie dell’informazione giudicate la quasi totalità delle frequenze e promettono di offrire, nel prossimo futuro, servizi e tariffe competitivi. Indice del grande sviluppo di queste aziende è anche la scelta del comitato organizzatore dei mondiali di nuoto di Roma 2009 di assegnare a Linkem l’incarico di fornire la copertura wireless, con tecnologia WiMax, ai 70.000mq del Villaggio Olimpico di Roma, nel quale si svolgerà l’evento. La diffusione del WiMax porterebbe allo sviluppo di una grande quantità di servizi oggi poco diffusi a causa delle connessioni stabili e veloci da essi richieste. Un esempio è sicuramente la Web Tv, la televisione fruibile via Internet in streaming, tramite la tecnologia peer-topeer. Al momento essa non ha incontrato grande successo, poiché è necessario possedere una connessione adsl via cavo per poter usufruire di questo servizio, peraltro disponibile solo in alcune aree metropolitane e a prezzi ancora elevati. Si pensa che la Web Tv, in futuro, avrà una forte diffusione grazie alla grande disponibilità di contenuti, al numero illimitato di canali e alla spiccata interattività di questo servizio, che permette di creare il proprio palinsesto televisivo. Attualmente, in Italia, il servizio televisivo che offre una copertura continua insieme alla migliore qualità di immagine è la televisione digitale satellitare. Si riceve via etere attraverso un’antenna parabolica e, nella maggior parte dei casi, a pagamento. La diffusione della tecnologia satellitare è dovuta principalmente all’assenza di alternative, anche se, con il recente passaggio della Tv pubblica dalle trasmissioni analogiche a quelle digitali, il servizio erogato da quest’ultima è destinato a migliorare. La rappresentazione dei segnali in forma digitale, infatti, permette di trasmettere, senza errori, una maggior quantità di dati all’interno di ogni singola trasmissione, ampliando l’offerta con un numero maggiore di canali, oppure proponendo contenuti aggiuntivi, quali sottotitoli o testi informativi riguardanti i programmi. Benché, quindi, il passaggio al cosiddetto digitale terrestre non porti un apprezzabile miglioramento della qualità delle immagini, esso offrirà comunque una scelta più vasta e una maggiore interattività, che, di riflesso, faranno da ostacolo alla diffusione dei servizi televisivi sul Web. Arte informatica L’arte nell’era del mondo virtuale... schegge di creatività sparse per la Rete. di Selene Favuzzi Cosa contraddistingue l’opera d’arte? Cosa fa sì che un pezzo di carta possa meritare una cornice imponente e un faretto tutto suo in un museo? Dove cercare l’istante in cui la materia cessi d’essere mero accumulo di segni per divenire ineffabile? Secondo il filosofo Walter Benjamin, l’opera d’arte era in passato caratterizzata da un’aura indefinibile dal sapore raro e vago d’originalità. La tecnica s’esplicava ogni volta in modi differenti, e la fruizione era limitata a poche persone, una cerchia ristretta di privilegiati che potevano beneficiarne. Egli porta un esempio a sostegno della sua tesi: è opera d’arte anche il simulacro, che riposa nascosto nell’intimo ventre del tempio, visibile solo per il sacerdote e circondato pertanto da un alone di profonda sacralità. La riproducibilità dell’opera ne distrugge per sempre e irrimediabilmente ne disperde l’autenticità: la sua ineffabile aura. Questa, come descritta nel celebre saggio del 1937 L’opera d’arte nell’era della sua riproducibilità tecnica, corrisponde all’hic et nunc, all’esistenza unica e irripetibile nel luogo in cui si trova. La riproduzione in serie, corrispondente alla massificazione della cultura e allo sviluppo di nuove e sbalorditive tecniche, ha quindi minato per sempre l’originalità dell’opera d’arte? Eppure non sono caratterizzate da straordinaria serialità anche l’arte ceramica, sia greca sia orientale, o gli intrecci decorativi bizantini, o un edificio di culto indiano, ridondante di statue? Individualismo, serialità, virtuosismi tecnici e rispetto della più consolidata tradizione infatti sono indistinguibili in ognuna di queste opere e danno origine a un fluire continuo. L’arte si connota quindi di nuove e inedite valenze, una volta entrata nel campo della riproducibilità. Essa ha infatti una diffusione molto più ampia, e può potenzialmente raggiungere chiunque. È come se si arricchisse d’una nuova dimensione, acquisendo una vastissima gamma di nuove possibilità. L’arte informatica, che ha quasi quindici anni, va interpretata partendo da queste premesse. Essa nacque nel 1995, quando un artista sloveno di Lubiana, Vuk Cosić diede inizio alla Net.Art. panorama per i giovani • 39 Immagini: Selene Favuzzi Tecnologie dell’informazione La salute nel mondo Così chiamò una forma particolare e del tutto nuova di creatività, che si serviva della Rete non solo come mezzo di promozione, ma bensì di produzione, rendendola strumento attivo; un’entità viva e pulsante con un pubblico potenzialmente più vasto di quello che avevano avuto i più grandi capolavori della storia dell’arte! Recentemente si sono sviluppate gallerie on-line che espongono le opere di artisti informatici. Persino alcuni “guru” dell’arte, generalmente dietro compenso, visionano le opere e scrivono pagine di critiche (diffuse, ovviamente, con posta elettronica) su immagini che non esistono nella realtà! Non le puoi toccare, sentirne la ruvidezza, ammirarne i dettagli, quasi immaginare il sudore dell’artista; né il tuo occhio troverà imperfezioni o correzioni, né una sola scheggia mancante della tavola, o filo fuori posto della tela... No, questa opera non invecchierà. Non si colorerà della gialla patina del tempo, né della grigia e sottile polvere che cela meraviglie. Vivrà in eterno? Pur se così fosse vivrebbe sempre sotto 40 • n. 2, maggio-agosto 2009 una tremenda spada di Damocle, minaccia costante di svanire in un istante, un solo attimo dopo la pressione sul tasto Delete. È infatti il pubblico della Rete, il popolo virtuale, strana identità imprevedibile, a decretare il successo o il fallimento di un’opera, e tutto con un click del suo mouse. Quasi dotato di ius vitae necisque, diritto di vita o di morte, egli decide se porre il “pollice verso” o no. E cambia così la storia dell’arte: il processo creativo si compie di fronte a uno schermo piatto, non c’è più la tavolozza, né lo strumento musicale di legno o metallo, né la tela; la mercificazione dell’opera tocca il culmine e l’artista è il programmatore, il manipolatore di byte; l’arte viene totalmente astratta dalle convenzioni della realtà, dello spazio e del tempo, forse persino dai canoni dell’estetica tradizionale. In un vortice sempre più turbinoso si mescolano, indissolubili, astrazione, concretezza, fantasia visionaria e distaccata ragione. Siamo forse alla presenza dell’ultima e fondamentale avanguardia del XX secolo? È infatti insito in essa il proposito di superare e stravolgere il comune concetto di arte: ha una forte carica utopica, ma è inserita all’interno della “rivoluzione digitale” della società, e quindi fortemente legata a essa; si è opposta all’attribuzione dell’aura all’opera d’arte, alla sua museificazione e soprattutto al suo valore economico e di mercato, abbattendo la differenza tra copia e originale, creando così un “esercito di uguali”, frammenti di creatività sparsi per la Rete... Dove andranno queste schegge? Dove finiranno i frammenti di questo relitto, ossa dell’enorme carcassa della storia? Resteranno incagliati nell’immaginario come Guernica di Picasso? Commuoveranno ora e sempre come Amore e Psiche di Canova, o la Pietà di Michelangelo? Potrà cadere una lacrima calda e sincera da occhi che specchiano lo sguardo in uno schermo piatto e sottile? Forse l’indefinibile dell’arte deve restare tale, forse c’è davvero un incanto che affascina e strega l’animo di chi guarda: un mistero profondo e remoto che stupisce e commuove, e ora e sempre cela il perché. …Ai posteri... post scripta L a mia vita si è accompagnata, dalla giovinezza all’età matura e oltre, al prodigioso sviluppo dell’Ict. Delle macchine a schede perforate sentii parlare negli anni ’50, nel decennio successivo cominciai a leggere delle meravigliose “stupide” che l’Ibm stava sviluppando; secondo la leggenda, il vero fondatore di Big Blue, Thomas J. Watson, riteneva che avrebbero avuto ben scarso mercato... Agli inizi degli anni ’70 andai a dirigere un dipartimento di elaborazione automatica dei dati, con calcolatori della serie Ibm 360, macchine gigantesche che destavano nell’ignaro visitatore un attonito stupore, soprattutto quando apprendeva che una di esse stava scambiando dati e messaggi con tutte le sedi provinciali della Banca d’Italia. Passato ad altri incarichi, per molti anni mi dimenticai dei computer e continuai a scrivere con la stilografica. Allorché sul finire degli anni ’90 mi ritrovai senza segretaria, cominciai a utilizzare un portatile per redigere i miei “pezzi”. Scoprii nell’arco di pochi mesi la posta elettronica, un mezzo di comunicazione che trovo più civile del telefono; se quest’ultimo col suo squillo è spesso inopportuno, la mail educatamente attende che la si apra. La perdita di collaboratori in grado di procurare dati o fare ricerche in biblioteca mi spinse a utilizzare Internet per estrarre dai siti ufficiali di enti e organizzazioni le informazioni necessarie per tenermi aggiornato, per scrivere i miei articoli. Come Le Bourjois gentilhomme di Molière, sono così diventato senza saperlo un utilizzatore di Web 1.0, cioè di pagine informative. Ancora maggiore è stata la mia sorpresa nell’apprendere leggendo questo fascicolo che, attraverso la web mail, wiki o il motore di ricerca di Google, sono anche venuto in contatto con Web 2.0; quest’ultima, prevedendo un’interazione sia pur minima con l’utente, permette l’uso di linguaggi di grande potenza e astrazione. Oggi si parla già di Web 3.0, attraverso il quale si spera di dare risposte strutturate sulla base di relazioni semantiche, per ridurre la mole “atomistica” e sterminata di informazioni disponibili su un dato argomento. È un mondo che si evolve rapidamente e che esercita un fascino crescente su tutti coloro, soprattutto giovani, che vi si avvicinano, che lo sviluppano, che lo usano e talvolta ne abusano, ad esempio gli hacker. All’entusiasmo per le meraviglie che l’intelligenza umana e la tecnologia sono in grado di produrre a ritmo pressoché con- tinuo, si accompagna una disattenzione per i mutamenti che le innovazioni determinano nei comportamenti sociali. La Ict ha contribuito alla crisi economica e finanziaria in corso. Come? Ad esempio, attraverso l’uso delle carte di credito che si sono potute diffondere grazie all’imprevidenza, da un lato, di chi allegramente accumulava saldi debitori che non era in grado di onorare al peggiorare della congiuntura economica e, dall’altro, all’avidità di quanti hanno puntato sulla cultura del debito delle famiglie per accrescere i propri guadagni. Il Fmi calcola che negli Stati Uniti le inadempienze su un totale di credito al consumo di 1.914 miliardi di dollari hanno già toccato il 14 % e ritiene che la morosità aumenterà ancora. In Europa le insolvenze da carte di credito hanno raggiunto il 7% su 2.467 miliardi di dollari, con il Regno Unito nella situazione più critica a causa di un indebitamento delle famiglie pari al 170 % del reddito disponibile. Vi sono altri aspetti sociali di cui preoccuparsi: siamo sicuri che il tempo che dedichiamo a Internet e soprattutto ai social network sia ben impiegato? Di recente, Bill Gates, il mago di Microsoft, nel chiudere il proprio profilo su Facebook ha dichiarato: “Mi sono reso conto che si trattava di un’enorme perdita di tempo”. Infatti, la sua lista di contatti in attesa di approvazione era diventata ingestibile... Ho il timore che anche molti blogger dedichino alla loro creatura più tempo di quanto sia giustificato da una funzione informativa sempre più frammentata. Infine, v’è un altro aspetto socialmente importante e al tempo stesso terrificante: possono gli sviluppi dell’intelligenza artificiale che si sono avuti e che si stanno profilando rappresentare una minaccia per la società e per la sua organizzazione? Gli esperti di computer science, di intelligenza artificiale e di robotica riunitisi di recente (Asilomar Conference Grounds) a Monterey Bay in California hanno dato poco peso alla possibilità che si sviluppino superintelligenze altamente centralizzate, nonché all’idea che l’intelligenza possa sgorgare spontaneamente da Internet. Però hanno ammesso che robot in grado di uccidere autonomamente sono già tra noi o presto lo saranno! Sebbene l’argomento mi sembri più adatto per un “giallista” che per una centrale di polizia, una mente o un’organizzazione criminale non potrebbe avvalersi dell’intelligenza artificiale per raggiungere i propri fini antisociali? Mario Sarcinelli panorama per i giovani • 41 Il fisico che dona la vista ai poveri Joshua Silver, professore in pensione dell’Università di Oxford, ha ideato occhiali regolabili dal portatore e a basso costo. Così anche i poveri del mondo possono riavere il dono della vista. di Francesca Mancini La gentile prontezza con cui Joshua Silver ha risposto alla mia email non ha che accresciuto la mia ammirazione. L’ammirazione verso questo fisico più che sessantenne che da vent’anni porta avanti il suo ambizioso progetto di ridare la vista a tutti quei milioni di poveri nel 42 • n. 2, maggio-agosto 2009 mondo che non possono permettersi un paio di occhiali. Come ricorda il professor Silver, la lampadina gli si accese nel pomeriggio del 23 marzo 1985, quando, discutendo oziosamente con un suo collega di lenti ottiche, si chiese se fosse possibile fab- bricare degli occhiali auto-regolabili. Occhiali che non richiedessero la costosa consulenza di un optometrista e che sfruttassero semplici principi fisici per regolare la loro potenza ottica. A glimpse of the obvious, una “geniale ovvietà” la definì. Ma lasciamo che siano le sue stesse parole a descriverci la sua “ovvia invenzione”: “Le lenti sono membrane riempite di un fluido – olio di silicone trasparente con un indice di rifrazione relativamente elevato – e collegate a una siringa. Se il fluido è pompato nella lente la superficie della membrana diventa convessa, la lente acquista potere ottico positivo e diventa più spessa nel centro. Se il fluido è aspirato dalla lente, la superficie della membrana diventa concava, la lente acquista potere ottico negativo e diventa più sottile nel centro”. Una volta terminata la regolazione, che dura al massimo un minuto in totale, si sigilla la sacca stringendo una vite e si rimuove la siringa. Semplice no? Con questo geniale stratagemma si può variare il potere di rifrazione delle lenti da -6 a +6 diottrie e si possono correggere quindi tutte le forme di ametropia eccetto l’astigmatismo. Cosa ha fatto Joshua Silver in seguito al suo colpo di genio? Certamente non è rimasto con le mani in mano né ha ceduto alla seducente sirena del facile guadagno vendendo la sua idea al miglior offerente. Anni fa, infatti, una società nel settore dell’ottica gli offrì una cospicua somma per ottenere l’autorizzazione a sfruttare la sua tecnologia, ma Silver declinò. Non sapeva infatti quale uso sarebbe stato fatto della sua scoperta, che egli intendeva consacrare esclusivamente alla causa della filantropia. Pertanto nel 1996, forte del suo brevetto americano (01/02/1990 n° 4890903), fondò la società Adaptive Eyecare, in collaborazione col Dipartimento per lo Sviluppo Internazionale del Governo del Regno Unito. L’utopico obiettivo di questa società è racchiuso nelle parole “corrective eyewear available for everyone, everywhere” (occhiali da vista disponibili per tutti, ovunque), che campeggiano a grandi lettere sulla homepage della Ae. In effetti in poco più di un decennio sono già stati distribuiti 30.000 occhiali in 15 paesi nell’Europa dell’Est e in Africa. Foto: Centre for Vision in the Developing World (Oxford University) Primo piano Primo piano Silver ricorda il suo primo tentativo “sul campo”, il primo paio d’occhiali che miracolosamente ridiede la vista. Avvenne in Ghana. Qui il fisico filantropo incontrò Henry Adjei-Mensah, un sarto che a soli 35 anni era costretto ad andare in pensione perché non riusciva più a vedere il filo da inserire nella cruna dell’ago. Avrebbe potuto lavorare altri 20 anni, ma il suo banale difetto di presbiopia lo costringeva all’inattività. Gli diedero gli occhiali e un enorme sorriso apparve sul suo viso. Ora poteva di nuovo cucire e rapidamente si rimise all’opera. Questa è solo una delle numerose, toccanti vicende che vive ogni giorno l’altruismo fattivo di Silver e dei suoi collaboratori. Collaboratori come il maggiore Kevin White, a capo di un progetto umanitario del Dipartimento della Difesa degli Stati Uniti, che nel 2005 portò alla Sotto: il professor Silver prova i suoi occhiali con alcuni collaboratori del Centre for Vision in the Developing World dell’Università di Oxford (www.vdw.ox.ac.uk). In alto a destra: uno schema che spiega il funzionamento degli Adspecs. Sotto il titolo: un uomo indossa gli occhiali inventati dal professor Silver. Manopola di regolazione Lenti a fuoco variabile (piene di fluido) Pompa Valvola di chiusura distribuzione di 20.000 occhiali in Angola e altri paesi dell’Africa, in Georgia e altre nazioni dell’Europa dell’Est. Sulle montature c’era scritto da un lato “dal Popolo degli Stati Uniti”. White venne a conoscenza degli Adspecs (contrazione inglese per “occhiali regolabili”) in modo piuttosto casuale e curioso. Si trovava in Marocco per una distribuzione di occhiali usati organizzata dal Lions Club. Vide che ben poche persone avevano tratto giovamento da quella elargizione, per la difficoltà di trovare le lenti che correggevano esattamente il loro difetto visivo. Pensò dunque che poteva esservi un modo più semplice per risolvere il problema: in effetti vi era. Tramite Google scoprì gli occhiali di Joshua Silver. Un incontro personale col fisico fugò ogni dubbio di White, che chiese al suo superiore di intraprendere la consegna di migliaia di Adspecs. La proposta venne accolta con tale sollecitudine da stupire White, che disse di “non aver mai visto militari muoversi così rapidamente”. Un altro filantropo che ha a cuore il progetto di Silver è il businessman indiano trapiantato nel Regno Unito Mehmood Khan. Egli gestisce una società, la Rasuli Kanwar Khan Trust, la quale porta avanti un programma umanitario in 500 villaggi nei distretti dello stato dell’Haryana, nel nord dell’India. Khan si appresta a coordinare in questa zona la consegna di ben un milione di paia di occhiali, qui ribattezzati Diy (do it yourself). Come egli afferma, i bisognosi non mancano, visto che soltanto in un distretto abita circa mezzo milione di persone. Vari riconoscimenti internazionali attestano i benefici degli Adspecs. Essi possono infatti fregiarsi del titolo di “prodotto del Millennio”, ossia uno dei migliori prodotti British per design, creatività e innovazione. Altro importante premio è quello assegnato nel 2005 al Professor Silver dalla Tech Awards. Questa associazione internazionale premia ogni anno 15 innovatori che in tutto il mondo adoperano la tecnologia al servizio dell’umanità sulle più urgenti problematiche relative a educazione, uguaglianza, ambiente, salute e sviluppo economico. E in effetti come non concordare sulla straordinaria portata sociale che gli Adspecs hanno e avranno negli anni a venire? Milioni di adulti saranno sottratti all’inattività lavorativa e all’esclusione sociale, milioni di bambini avranno la possibilità di studiare come i loro coetanei benestanti dalla vista naturalmente o artificialmente acuta. Paragonati a questi grandiosi obiettivi di lunga durata, i pochi difetti degli occhiali di Silver appaiono quasi risibili. Anzitutto, il design ancora goffo li fa sembrare usciti dal fondo di un cassetto di Woody Allen. Sul prezzo invece le obiezioni dei detrattori possono apparire più fondate. I 19 dollari attuali, infatti, sono ben al di fuori della portata del pubblico per cui gli occhiali sono stati concepiti. Nel prossimo futuro Silver intende tagliare i costi fino a raggiungere la cifra di uno, due dollari al massimo. Non si sa infine quanto siano durevoli questi occhiali, per quanto tempo mantengano il loro potere correttivo, perché l’olio di silicone o la forma della sacca possono col tempo alterarsi. Certo, di una cosa Silver è sicuro e lo dice in questi termini: “Ho sempre visto benissimo e questo è forse il segno che Dio mi manda per farmi capire che sto facendo qualcosa di buono”. panorama per i giovani • 43 ai tempi delle nevicate irachene Nel 1997 veniva sottoscritto il Protocollo di Kyoto, il più importante accordo internazionale per la riduzione dell’inquinamento da gas serra. Negli ultimi dodici anni la sua applicazione ha incontrato ostacoli e suscitato polemiche. Ma anche qualche speranza. di Enrico Mantovano Se San Giovanni ritornasse per caso sulle strane lande di questo mondo, forse avrebbe qualcosa da ridire rispetto all’abuso del termine “Apocalisse” negli ultimi tempi. Il deserto che avanza, estati torride, distese di calura conquistatrici delle fiorenti e fresche boscaglie che furono. Il cambiamento climatico globale sembra essere sotto gli occhi e sulla pelle di tutti, almeno inseguendo le concitate affermazioni dei tuttologi di turno che affollano parodiche tribune televisive. Si suda, più per la paura che per un effettivo riscaldamento del nostro bistrattato pianeta: d’altronde vorrà pur dire qualcosa se nel gennaio 2008, dopo secoli e secoli di arsura, la neve è placidamente scesa sui 44 • n. 2, maggio-agosto 2009 tetti dorati di Baghdad, lasciando a bocca aperta e con il naso all’insù le frotte di catastrofisti patentati che già preannunciavano il suicidio della Terra. Eppure, l’aumento esponenziale dei casi di tumore in determinate aree fortemente industrializzate del mondo è un segnale profondo e inequivocabile del fatto che il rapporto tra l’essere umano e l’ambiente che lo circonda raramente è equilibrato. Queste alterazioni dell’ordine fisico naturale comportano una serie di situazioni problematiche con cui l’universo giuridico internazionale è venuto solo recentemente a contatto, fronteggiando una condizione che in vaste zone del globo ha assunto proporzioni inaccettabili. In que- sto senso, un punto di snodo può essere rintracciato in quello che è avvenuto nella città giapponese di Kyoto l’11 dicembre 1997, dove quasi 160 paesi hanno sottoscritto il più importante trattato della storia delle organizzazioni internazionali in materia di inquinamento e riscaldamento globale. Di fronte alla spinta sempre maggiore dell’opinione pubblica mondiale e alle necessità strettamente materiali delle grandi potenze, la Conferenza Cop3 nell’ambito della Convenzione quadro delle Nazioni Unite sui cambiamenti climatici (Unfccc) ha condotto a un compromesso di base tra le nazioni industrializzate per porre un freno al pendio lungo il quale l’umanità corre costantemente il rischio di precipitare. I tempi tecnici di applicazione del protocollo sono un emblema della difficoltà di ricercare una soluzione comune su un argomento che tocca in maniera così consistente l’animo (e il portafogli) dell’intera comunità mondiale. Basti pensare che il trattato è entrato in vigore ben otto anni dopo la sua stesura, quando la Russia ha sciolto le riserve, pronunciandosi definitivamente per la ratifica in una giornata diventata ormai storica per il diritto internazionale e non solo, il 16 febbraio 2005. Foto: iStockphoto.com (beright; gioadventures; bpowersworld) Il protocollo di Kyoto Primo piano A sinistra: il traffico di Pechino; la Cina e l’India producono il 40% delle emissioni di gas serra mondiali. In basso: il tempio Kinkakuji a Kyoto, città in cui è stato firmato l’importante protocollo. L’elemento fondamentale, la ratio trascinante del protocollo, ruota intorno all’obbligo per i paesi industrializzati di ridurre l’emissione di elementi inquinanti in misura non inferiore al 5% rispetto ai dati registrati nel 1990. Questa svolta deve riguardare l’abbattimento di agenti nocivi come il biossido di carbonio e una serie di altri gas serra (metano, ossido di diazoto, idrofluorocarburi, perfluorocarburi, esafluoro di zolfo) in un arco di tempo compreso tra il 2008 e il 2012. Quello che è considerato per certi versi come uno degli aspetti più originali del trattato, è il ricorso a una serie di meccanismi di mercato, i cosiddetti “meccanismi flessibili”, il cui obbiettivo dichiarato è l’abbattimento delle emissioni al minor costo possibile, giungendo in pratica a massimizzare le riduzioni ottenibili a parità d’investimento. Il più importante tra essi è il “meccanismo di sviluppo pulito”. Nelle intenzioni dei redattori, l’importanza del Protocollo passava attraverso il più largo consenso possibile: la clausola per la sua validità era la ratifica di non meno di 55 nazioni firmatarie, in aggiunta alla condizione secondo cui gli stati coinvolti dovessero rappresentare almeno il 55% delle emissioni inquinanti globali: si spiega così il ritardo nell’approvazione del trattato, entrato in vigore solo nel novembre 2004 quando anche la Russia ha perfezionato la sua adesione. Infatti, solo nel territorio ex-sovietico si produce il 17,6% delle emissioni mondiali: se fino al 2001, i paesi sottoscrittori del trattato non arrivavano a 40, la svolta del 2004 ha provocato un deciso aumento del numero delle nazioni aderenti. Nell’aprile 2007 se ne contavano ben 169. In questa lista manca però un nome importante: gli Stati Uniti, responsabili del 36,2% delle emissioni mondiali, pur avendo sottoscritto il protocollo sotto la presidenza Clinton, non hanno mai esplicitamente ratificato il trattato, ritirando l’adesione nei mesi successivi all’accordo iniziale. Bisogna sottolineare che a Kyoto sono stati portati avanti orientamenti quanto meno discutibili, dispensando, ad esempio, i paesi in via di sviluppo dalla riduzione delle emissioni nocive, per non ostacolare una loro presunta crescita economica con oneri aggiuntivi. Lascia perplessi anche il trattamento riservato alle due superpotenze, l’India e la Cina, che si sono affacciate sul mercato globale in maniera preponderante nell’ultimo decennio. Esse, nonostante la enorme popolazione e la sottoscrizione del trattato, secondo il protocollo non sono tenute a ridurre le emissioni di anidride carbonica perché non vengono considerate come co-autrici del presunto cambiamento climatico odierno. Da qui l’opposizione alle clausole di Kyoto e il rifiuto americano, non del tutto ingiustificato considerando che questi due paesi sono responsabili del 40% dell’emissione globale di gas serra. Un trattamento decisamente più restrittivo è previsto invece dal trattato con riferimento ai paesi considerati più industrializzati e avanzati, tra cui l’intera Unione Europea, nei confronti dei quali il termine di riduzione dell’emissione di elementi nocivi sale all’8%. Per quello che riguarda il periodo anteriore al 2008, gli stati contraenti si sono impegnati a ottenere entro il 2005 concreti progressi nell’adempimento degli impegni assunti, fornendone ovviamente adeguate prove. Il protocollo stabilisce il 1995 come anno base di riferimento su cui valutare una eventuale diminuzione di emissioni nocive, proponendo una serie di strumenti pratici con cui raggiungere gli obbiettivi previsti. Tra i più importanti, risalta con evidenza la necessità di un impulso alle politiche nazionali di riduzione delle emissioni, a cui si deve accompagnare necessariamente, nelle intenzioni dei sottoscrittori, un costante miglioramento dell’efficienza energetica, la promozione di forme di agricoltura sostenibili e soprattutto lo sviluppo e la promozione di fonti energetiche rinnovabili. Tuttavia, i paesi realmente soggetti a vincolo di emissione sono oggi una quarantina, le cui emissioni totali di CO2 nel 1990 sono ammontate a 13.728 miliardi di tonnellate: emergono in questo senso una serie di problematiche che il diritto internazionale non è ancora riuscito a risolvere compiutamente, primo tra tutti l’irrogazione di sanzioni agli stati inadempienti o lo scambio dei diritti di emissione. Con tutti i suoi limiti, quello compiuto a Kyoto rimane un passo fondamentale della politica globale in materia di inquinamento: il Protocollo si erge come un approccio più unico che raro di azione mondiale in difesa dell’ambiente, nonostante le precarietà insita alla struttura del diritto internazionale, mutevole e instabile per sua natura. Una soluzione effettiva e priva di elementi ideologici è possibile, evitando di inquadrare un tema che incide così profondamente sulla vita quotidiana di ogni cittadino del mondo nell’ottica di una sterile lotta demagogica. Si potrebbe sempre correre il rischio di predicare l’esplosione incandescente del nostro pianeta, chiudendo le finestre mentre grossi fiocchi di neve fanno sorridere i pastori di Baghdad, in uno strano mattino di gennaio. panorama per i giovani • 45 Primo piano Gli ultimi vent’anni hanno portato vere e proprie rivoluzioni nel campo climatico, economico e politico, che non hanno mancato di ripercuotersi con un impatto senza precedenti sulle politiche energetiche dei due (ancora per poco) principali attori dell’economia mondiale: l’Europa e gli Stati Uniti d’America. di Chen Lin Strobio e Luca Valerio L’Europa in prima linea Allo stato attuale, l’Europa è costretta ad affrontare il problema energetico sotto diversi aspetti. Innanzitutto, la sua forte dipendenza dall’estero. Da un allarme lanciato da Il Sole 24 Ore (24 maggio 2007), entro il 2030 la dipendenza energetica dell’Ue salirà al 70%, mentre attualmente si attesta intorno al 50. Ciò naturalmente mette a rischio la sicurezza dell’approvvigionamento e rende fortemente vincolante il rapporto con i paesi produttori (Russia, Norvegia, i paesi dell’Opec), nonché la situazione geopolitica nei paesi di passaggio (come l’Ucraina). Sul fronte dell’ambiente, il problema è rappresentato dal contenimento delle emissioni inquinanti, ritenuta la principale causa del cambiamento climatico in atto. È chiaro che nello scenario attuale si rende vitale il delinearsi di una politica comune, che promuova la solidarietà e la cooperazione fra gli stati membri, per il raggiungimento di obiettivi condivisi. In risposta alle esigenze del settore energetico e nel rispetto degli impegni 46 • n. 2, maggio-agosto 2009 sottoscritti a Kyoto, l’Europa ha adottato, in seguito al Consiglio dell’8-9 Marzo 2007 a Berlino, una propria linea in ambito energetico. Definito dai più un progetto ambizioso, il cosiddetto pacchetto “2020-20” si pone tre obiettivi principali: - emissioni di gas a effetto serra: l’Europa si impegna a ridurre di almeno il 20% le emissioni di gas serra entro il 2020, obiettivo che supera di gran lunga la soglia prevista dal protocollo di Kyoto (5% di riduzioni per i paesi industrializzati). Inoltre, secondo l’ultima proposta avanzata dall’Unione, tale quota potrebbe innalzarsi al 30%, in caso di un accordo con tutti gli altri paesi del globo; - efficienza energetica: la riduzione dei consumi energetici sarà del 20% rispetto alle proiezioni tendenziali per il 2020; - fonti rinnovabili: l’energia prodotta da fonti rinnovabili dovrà attestarsi al 20% della produzione totale nel 2020. Dopo quasi due anni di lavori, lo scorso dicembre il pacchetto ha ottenuto il via libera da Strasburgo. Oltre a confermare i traguardi proposti nel 2007, è stato stabilito anche che, dal 2013, l’industria sarà Gli Usa fra mercato e terrorismo Sin dal 1950, con l’aumento dei mezzi di trasporto, gli Usa consumano più petrolio che carbone. È comprensibile, dunque, che il primo evento ad avere un impatto significativo sulle loro politiche energetiche fu la crisi petrolifera del 1973. I governi di allora mostrarono grande capacità di annuncio, ma anche creatività nei tentativi di ridurre Foto: iStockphoto.com (Luke1138; gchutka; nojustice) L’Occidente alla sfida della questione energetica tenuta a pagare le quote di emissione, che saranno trattate alla borsa europea delle emissioni. Tuttavia, si fa eccezione per i settori produttivi più penalizzati dalla concorrenza internazionale. Le quote per queste ultime saranno gratuite fino al 2020. Il periodo relativamente lungo che ha portato all’accordo finale è stato segnato da negoziati fra paesi membri, Parlamento e Commissione, dopo le critiche mosse da stati come la Polonia, la Germania e, in particolare, l’Italia. Il nostro paese ha infatti ottenuto concessioni nei settori di produzione della carta, del vetro, della ceramica e del tondino, accordo che ha riscosso il plauso del mondo imprenditoriale, ma anche commenti polemici delle associazioni ambientaliste. Il voto unanime al pacchetto clima ha indicato la volontà dell’Europa di rispettare gli accordi di Kyoto e di assumere il ruolo di leader nella lotta al cambiamento climatico. Tuttavia, la sua è una posizione che non può avere successo senza l’adesione di grandi paesi come gli Usa o di economie emergenti come Cina, India e Brasile. A tal proposito, ricordiamo che un “grande emettitore” come gli Stati Uniti è responsabile da solo per il 36,2% delle emissioni mondiali. Per coinvolgere il resto del mondo nella rivoluzione verde, l’Europa, a quanto risulta dalla sua ultima proposta, è disposta a pagare un alto prezzo: 30 miliardi l’anno. È questa la cifra che i paesi industrializzati, attraverso un sistema di tassazioni, dovrebbero investire a favore del resto del mondo per promuovere la produzione di energie da fonti alternative. La speranza, dunque, è che gli altri paesi si convincano a seguire l’esempio virtuoso che l’Europa si appresta a dare. Prima fra questi l’America di Obama, nella quale l’Ue potrebbe trovare un fondamentale interlocutore e alleato, anche in vista della conferenza mondiale delle Nazioni Unite sul clima programmata per il prossimo autunno a Copenhaghen. Primo piano la dipendenza dal petrolio straniero: Nixon propose che la benzina non superasse il prezzo di un dollaro al gallone; Carter, a sua volta, la formula “gli Usa non supereranno mai la quantità di petrolio importata nel 1977”. Sul piano concreto, fu imposto un limite nazionale di velocità stradale a 88 km/h; si pensò di estendere l’ora legale a tutto l’anno; si agevolò la costruzione di immobili termicamente isolati. Tutti questi provvedimenti erano orientati al risparmio energetico, piuttosto che alle energie rinnovabili, allora non sviluppate, e non rappresentavano strategie a lungo termine. Forse perché prevalse, molto più che in Europa, la volontà di non penalizzare la American way of life e con essa il mercato. Non sorprende, dunque, che la dipendenza statunitense dai combustibili fossili, anziché diminuire, aumentò. E parallelamente crebbero i legami, anche politici, con i maggiori produttori di petrolio – specie il maggiore, l’Arabia Saudita. Almeno fino al secondo grande momento di ripensamento: l’11 settembre. Alle tradizionali critiche ai combustibili fossili (inquinanti e alla lunga destinati a esaurirsi) si aggiunsero nuove preoccupazioni: il timore di finanziare indirettamente il terrorismo islamico e la dipendenza da paesi non democratici, spesso non amici degli americani. Questa volta la paura di danneggiare l’economia non poté impedire interventi di vasta portata: due dei tre Energy Policy Act federali, infatti, sono posteriori al 2001 (2005 e 2007). Accanto alle politiche di puro risparmio energetico, fecero la loro comparsa tentativi di stimolare l’uso di energie rinnovabili e l’invenzione di tecnologie più efficienti. Le resistenze a questi interventi, però, erano ancora forti. Fece scalpore la mancata adesione al protocollo di Kyoto, che avrebbe svantaggiato eccessivamente le imprese, così come conservativa apparve la preferenza di Bush per l’aumento della produzione nazionale di combustibili fossili e di energia nucleare, piuttosto che il ricorso alle fonti rinnovabili. Le elezioni del 2008 hanno segnato invece una vera svolta. Per la prima volta, entrambi i principali candidati alla corsa presidenziale hanno proposto politiche orientate più radicalmente all’uso delle energie A sinistra: il nuovo presidente degli Stati Uniti Barak Obama ha puntato molto, durante la sua campagna elettorale, sui motori elettrici e le energie rinnovabili (sotto: la Casa Bianca). Nella pagina precedente: il Parlamento europeo a Strasburgo. Come un governo può ridurre le emissioni inquinanti Tutti i metodi ideati dalla politica economica accademica e dalla pratica politica per permettere ai governanti di controllare l’inquinamento da combustibili fossili nei loro paesi implicano incentivi o penalizzazioni, ma a tutt’oggi non è chiaro quale sia il più efficace o il meno penalizzante per la vita economica. Imposte: lo stato rende desiderabile l’adozione di tecniche produttive meno inquinanti o ad alta efficienza energetica riducendo la pressione fiscale solo per le imprese che le usano. Sussidi: lo stato sovvenziona le imprese che danno prova di utilizzare nei loro stabilimenti tecnologie efficienti o basate su fonti rinnovabili. Permessi Negoziabili di Inquinamento (ingl. cap-and-trade): lo stato fissa un tetto massimo alle emissioni annuali nazionali di ciascun inquinante. Questo “monte emissioni” viene poi diviso in “titoli” negoziabili, che danno diritto a ciascuna impresa di emettere una determinata quantità di inquinanti e che possono essere scambiati fra le imprese con prezzi determinati dal mercato. rinnovabili e con programmi di risparmio energetico a lungo termine. Entrambi, in particolare, proponevano, come la Ue, l’introduzione di un sistema di controllo delle emissioni di tipo cap-and-trade (in italiano, permessi negoziabili di inquinamento; vedi box) e un sostegno massiccio all’uso di automobili ibride a idrogeno. Fra i due, poi, il più radicale era il candidato che poi ha vinto, Barack Obama, che, nel suo piano New Energy for America, a differenza del repubblicano McCain, non solo proponeva di non costruire nuove centrali nucleari, ma addirittura indicava obiettivi ambiziosi e a lungo termine sia nella riduzione del ricorso ai combustibili fossili tramite il risparmio energetico (azzerare la dipendenza dai paesi Opec gradualmente entro il 2030), sia nell’aumento delle energie rinnovabili (10% dell’elettricità da fonti rinnovabili entro il 2012, 25% entro il 2025). Il programma più simile agli obiettivi dell’Ue che sia mai stato enunciato finora sulla politica energetica statunitense: staremo a vedere. panorama per i giovani • 47 incontri Dal Collegio Incontro con Giampiero Cantoni Sopra: Il Cavaliere del Lavoro Giampiero Cantoni. Sotto: foto di gruppo degli studenti del Collegio con l’Ambasciatore italiano a Cuba Domenico Vecchioni. Il 20 maggio è stato ospite del Collegio il Senatore Giampiero Cantoni, Presidente della Commissione difesa del Senato, docente universitario e Presidente del Comitato scientifico della Federazione Nazionale dei Cavalieri del Lavoro. L’incontro è stato aperto dal Presidente della Federa- zione Benito Benedini, che ha sottolineato l’importanza che i Cavalieri del Lavoro attribuiscono all’impegno “strategico” a favore dei giovani più meritevoli. Un impegno che trova da quasi quarant’anni la sua conferma più significativa proprio nel Collegio. Il Senatore Cantoni ha esordito richiamando il mutare frenetico dei tempi sull’onda della globalizzazione e la conseguente necessità di aprirsi al mondo puntando sull’integrazione e cooperazione internazionale. Emerge proprio in questa prospettiva il “peccato originale” della scuola italiana, eccessivamente votata all’indirizzo umanistico e troppo slegata dalle esigenze del mondo del lavoro. Questa caratterizzazione è in controtendenza rispetto a quella riscontrabile negli altri paesi europei, negli Usa, in Cina e India, dove si punta sul settore scientifico e dove si prende atto concretamente dell’allargamento degli orizzonti socio-economici al di là della dimensione nazionale. Per questo, fra l’altro, è indispensabile una conoscenza adeguata della lingua inglese, che i nostri studenti troppo spesso non hanno. Il Senatore ha posto l’accento sulla necessità di affrontare la competizione internazionale a testa alta, mirando a essere egregi nel significato letterale dell’essere “fuori dal gregge”, ossia distinguendosi attraverso un percorso consapevole di formazione della persona. Il Cavaliere Cantoni ha quindi illustrato le principali dinamiche del panorama socio-politico internazionale, evidenziando l’importante contributo del nostro paese nelle principali aree di crisi. liano a Cuba, e abbiamo la possibilità di parlargli in prima persona e ascoltare risposte sincere e dirette. Incontriamo fra i palazzi della Capitale anche il Segretario della Conferenza Episcopale e il Presidente della “Fragua Martiana”, con cui parliamo di uno degli eroi nazionali: Josè Martì. E poi visitiamo Pinar del Rio nella Valle di Vinales (culla del migliore tabacco del mondo); Santa Clara, ventre della Rivoluzione e luogo di celebrazione di Che Guevara; Trinidad, meraviglioso incanto d’epoca coloniale. E ancora: le meravigliose spiagge vergini di Cayo Las Brujas (dove abbiamo passato momenti idilliaci fra la sabbia fine, le palme e il mare che gareggiava col cielo per intensità!); Cienfuegos e Remedios; infine Varadero, dove il turismo ha iniziato a corrodere la purezza originaria dell’isola come la ruggine il ferro, intaccandone l’autenticità. Questo straordinario caleidoscopio di sensazioni, colori, odori e ricordi resterà impresso in ciascuno di noi, e sarà difficile dimenticare il fascino e il mistero emanati dall’Alma de Cuba... Viaggio a Cuba Le sue strade spesso dissestate, i palazzi del Miramar, il porto senza barche, mostrano come ci sia qualcosa che noi europei non potremo forse mai cogliere appieno. Visitiamo piazze, musei, i luoghi della vita di Hemingway e quelli storici della Rivoluzione che compie 50 anni. Siamo ospiti nella residenza di Domenico Vecchioni, Ambasciatore ita48 • n. 2, maggio-agosto 2009 Tutti gli incontri del Collegio Universitario “Lamaro Pozzani” di questo periodo. Potrete trovare maggiori informazioni su questi eventi e sul Collegio all’indirizzo www.collegiocavalieri.it 27.04.09. Il sisma in Abruzzo. Il professor Enrico Spacone, docente presso l’Università di Chieti Pescare ed esperto in campo sismico, parla del terremoto che ha colpito l’Abruzzo. 11.05.09. La sanità pubblica. Il professor Walter Ricciardi, direttore dell’Istituto di Igiene della Facoltà di Medicina e Chirurgia dell’Università Cattolica parla di sanità pubblica. 13.05.09. La legge sulla procreazione assistita. Incontro con l’avvocato Gian Domenico Caiazza, laureato del Collegio, che ha parlato della sentenza della Corte Costituzionale sulla legge 40 (procreazione medicalmente assistita). 20.05.09. Incontro con Giampiero Cantoni. Gli studenti del Collegio incontrano il Senatore Giampiero Cantoni, Cavaliere del Lavoro e Presidente della Commissione Difesa del Senato. 21.05.09. Incontro con Giuseppe Vacca. Il professor Giuseppe Vacca, Presidente della Fondazione Gramsci, ha chiuso il 21 maggio il ciclo di incontri con le fondazioni che operano nel settore politico-culturale. www.cavalieridellavoro.it Notizie e informazioni aggiornate settimanalmente I Cavalieri Un archivio con l’elenco di tutti i Cavalieri del Lavoro nominati dal 1901 a oggi e più di 550 schede biografiche costantemente aggiornate La Federazione Che cos’è la Federazione Nazionale dei Cavalieri del Lavoro, la composizione degli organi, lo statuto e le schede di tutti i presidenti I Gruppi Le pagine dei Gruppi regionali, con news, eventi e tutte le informazioni più richieste Le attività Gli obiettivi della Federazione, la tutela dell’ordine, i premi per gli studenti e i convegni Il Collegio Il Collegio Universitario “Lamaro-Pozzani” di Roma e i nostri studenti di eccellenza Le pubblicazioni I volumi e le collane pubblicati dalla Federazione, la rivista “Panorama per i Giovani” e tutti gli indici di “Civiltà del Lavoro” L’onorificenza La nascita e l’evoluzione dell’Ordine al Merito del Lavoro, le leggi e le procedure di selezione La Storia Tutte le informazioni su più di cento anni di storia ...e inoltre news e gallerie fotografiche sulla vita della Federazione. È QUANDO TI SENTI PICCOLO CHE SAI DI ESSERE DIVENTATO GRANDE. A volte gli uomini riescono a creare qualcosa più grande di loro. Qualcosa che prima non c’era. È questo che noi intendiamo per innovazione ed è in questo che noi crediamo. Una visione che ci ha fatto investire nel cambiamento tecnologico sempre e solo con l’obiettivo di migliorare il valore di ogni nostra singola produzione. È questo pensiero che ci ha fatto acquistare per primi in Italia impianti come la rotativa Heidelberg M600 B24. O che oggi, per primi in Europa, ci ha fatto introdurre 2 rotative da 32 pagine Roto-Offset Komori, 64 pagine-versione duplex, così da poter soddisfare ancora più puntualmente ogni necessità di stampa di bassa, media e alta tiratura. Se crediamo nell’importanza dell’innovazione, infatti, è perché pensiamo che non ci siano piccole cose di poca importanza. L’etichetta di una lattina di pomodori pelati, quella di un cibo per gatti o quella di un’acqua minerale, un catalogo o un quotidiano, un magazine o un volantone con le offerte della settimana del supermercato, tutto va pensato in grande. È come conseguenza di questa visione che i nostri prodotti sono arrivati in 10 paesi nel mondo, che il livello di fidelizzazione dei nostri clienti è al 90% o che il nostro fatturato si è triplicato. Perché la grandezza è qualcosa che si crea guardando verso l’alto. Mai dall’alto in basso.