Comments
Transcript
La differenza tra web 1.0, web 2.0 e web 3.0
La differenza tra web 1.0, web 2.0 e web 3.0 Sempre più spesso si sente parlare di web 1.0 e web 2.0 senza sapere esattamente di cosa si tratti e fondamentalmente che differenza ci sia tra i due. Visto che ormai si parla già di web 3.0, è il caso di fare un pò di luce su questo argomento. Partiamo con le definizioni: Web 1.0 Le informazioni sono pubblicate in maniera statica, immaginate come un vostro foglio di word con testo e immagini, portato su web. L’utente arriva sulla pagina, legge e se ne va senza nessuna interazione. Attualmente il 70% degli utenti è ancora abituato a questo tipo di navigazione. Web 2.0 Il termine venne coniato da Tim O’Reilly alla prima conferenza sul web 2.0. Per la prima volta si iniziò a dare grande importanza all’usabilità e al modo di condividere i contenuti. Il webmaster non è che una parte del sito, che, nei casi più importanti, è composto da comunità di migliaia di utenti (si pensi a Wikipedia). Web 3.0 Come ogni rivoluzione, si cerca ora, con il web 3.0, di raffinare l’enorme cambiamento che ha portato il web 2.0: Il web 3.0 infatti, non sarà altro che un evoluzione del suo predecessore. Attualmente non è ancora tutto chiaro ma da quel che si legge sulla rete, ma possiamo immaginarci uno scenario in cui le informazioni in rete vanno sempre di più agglomerate verso un unico database, e consultate da più pagine web grazie a tecnologie tipo XML, WSDL e derivate. Si parla altresì di intelligenze artificiali grazie ad algoritmi sempre più sofisticati che permetteranno un orientamento migliore in una rete sempre più affollata. Infine il web 3.0 si muoverà verso il 3D, con una rete non più fatta di pagine, ma di veri e propri spazi in cui “muoverci” per trovare quello che cerchiamo. (in questo l’esperienza di second life credo sia stata determinante). Per finire ecco qualche esempio: WEB 1.0 DoubleClick Ofoto Britannica Online Siti personali Screen scraping Pubblicazione Sistemi di gestione dei contenuti WEB 2.0 Google AdSense Flickr Wikipedia Blogging Web services Partecipazione Wikis Come si può vedere ho evidenziato le due voci “pubblicazione” e “partecipazione” perchè fondamentalmente è questa la differenza sostanziale. Mentre nel Web 1.0 è il webmaster il solo interlocutore con i suoi utenti, nel Web 2.0 sono il webmaster e gli utenti a comunicare. "Cos'è esattamente il web 3.0?", chiese uno spettatore a nientemeno che Eric Schmidt. La risposta dell'allora CEO di Google fu: "Web 3.0 è un termine di marketing. E io credo che lei abbia appena inventato il web 3.0." Non male! Ma dopo questa battuta, Schmidt tentò comunque di definire il concetto come un legame più stretto fra applicazioni, in modo che esse siano disponibili facilmente ovunque e possano interagire a vicenda senza problemi. Una risposta che, a dire il vero, appare un po' fumosa. Era il 2007. Ma a quattro anni di distanza, il terzo gradino del www si fa attendere: non solo, si fa attendere anche una sua chiarificazione. Come sottolinea anche la voce di Wikipedia, con web 3.0 si intendono ancora cose piuttosto diverse, e un'intesa definitiva sul termine non c'è ancora. Alcuni si riferiscono al 3.0 come al web tridimensionale; altri preferiscono pensarlo come il web degli oggetti; altri ancora dicono che tutto dipende solo dalla prossima variazione di investimenti economici, o dal prossimo step di hardware. Tuttavia, sembra che la maggior parte degli esperti converga verso l'idea della connessione semantica. La progressione delle tre fasi della rete può essere descritta in questo modo: - Web 1.0: piattaforme di pubblicazione base (dall'editore all'utente in via unidirezionale) e generica messa online dei dati. - Web 2.0: aumento delle potenzialità di banda e avvento del social (contenuti user-generated, partecipazione diretta, ecc.). - Web 3.0: componente semantica e collegamenti fra i dati gestiti direttamente dai computer. Come dice Nicholas Carr, per la prospettiva semantica il web 3.0 è "macchine che parlano fra macchine". Un esempio. Con il pieno sviluppo delle potenzialità 3.0, i fraintendimenti di ricerca tenderanno a scomparire. Il potenziamento semantico consentirebbe a una macchina di interpretare come un essere umano (o quasi) una stringa: e quindi di coglierne il significato al volo, evitando problemi di omonimia, mancato riconoscimento di funzioni logiche complesse, eccetera. Insomma, se con l'avvento del 2.0 erano gli esseri umani a condividere le informazioni, con il web 3.0 saranno in primo luogo le macchine. Tutto molto interessante, certo. Ma fattibile? Il problema del sogno semantico è il problema dell'Intelligenza Artificiale: affinché emerga una rete evoluta in termini di significato, occorre credere che le macchine sapranno realmente maneggiare dei significati. Tradotto in soldoni da Jonathan Richards, "il web 3.0 significa dare a internet stessa un cervello". I casi sono due, quindi: o prendiamo sul serio questa provocazione - e crediamo all'idea che un giorno l'Intelligenza Artificiale emerga davvero - oppure parole come "web 3.0" e compagnia servono solo a riempirsi la bocca. Come diceva Schmidt, sono puri termini di marketing Intelligenza Semantica e Web 3.0 Intelligenza Semantica Nel mondo informatico, si parla di intelligenza semantica per indicare quelle tecnologie in grado di trasformare informazioni non strutturate, ad esempio i contenuti di un sito web, in un insieme (database) di informazioni strutturate che può essere interpretato ed elaborato automaticamente sulla base delle proprietà semantiche dei dati. In altre parole, l'intelligenza semantica è in grado di lavorare con i "concetti": ciò è reso possibile dalla combinazione di analisi semantica e codici di mark-up, che riescono a tradurre in linguaggio informatico i domini della conoscenza (ottenendo le ontologie, uno schema concettuale esaustivo e rigoroso che rappresenta tutte le entità di contenuto rilevanti all'interno di un determinato dominio e le relazioni esistenti fra di esse). Web 3.0 L'intelligenza semantica è il paradigma alla base della fase 3.0 del Web, oggi in piena evoluzione. In questa estensione, il World WideWeb si trasforma in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini e così via) diventano interpretabili, cioè vengono associati a informazioni e metadati che ne specificano il contesto semantico in un formato adatto all'interrogazione, all'interpretazione e, più in generale, all'elaborazione automatica. Per fare ciò Il web semantico si basa sul paradigma che qualunque tipo di fonte, e in particolare le fonti informative non strutturate, siano codificate tutte con gli stessi criteri. I documenti dovranno quindi condividere la lingua in cui sono scritti, secondo ad es. il Web Ontology Language (OWL), un linguaggio di markup che rappresenta esplicitamente significato e semantica dei termini con vocabolari e relazioni tra i termini, e l'RDF (Resource Description Framework, lo strumento base proposto dal W3C per la codifica, lo scambio e il riutilizzo di metadati strutturati e che consente l'interoperabilità tra applicazioni che si scambiano informazioni sul Web.) Con l'interpretazione del contenuto dei documenti che il Web Semantico propugna, saranno possibili ricerche molto più evolute delle attuali ed altre operazioni specialistiche come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice link ipertestuale. Ad es, se oggi una ricerca su Google tramite la parola "libro" restituisce le occorrenze del termine, in un contesto semantico la stessa ricercà sarà in grado di restituire il documento che effettivamente corrisponde ad un libro. Xmanager come Semantic Content Xmanager lavora in modo semantico secondo un percorso di sviluppo che prevede: Manager L'utilizzo di un modello relazionale dei dati. Con Xmanager l'utente è in grado di trasformare il dato da non strutturato a strutturato assegnandoli un modello che ne definisce gli attributi e ne ricostruisce le relazioni logiche con altre tipologie di dati; il dato è modellabile in maniera totalmente libera e flessibile, la struttura delle informazioni può variare a seconda delle esigenze e della destinazioni d'uso. Pochi sono oggi i CMS che lavorano con dati relazionali. L'implementazione di un dato propriamente e pienamente semantico. In altre parole, Xmanager è in grado di produrre in ouyput un dato che potrà essere letto automaticamente dalle macchine (machine-readable) e da applicazioni esterne. Cioà avviene in due step: o All'interno del codice html Xmanager incorpora dei tag che danno informazioni semantiche codificate secondo gli standard condivisi del Web 3.0 come ad es. i microformats (una parte di mark up che consente espressioni semantiche in una pagina web HTML) o Il dato utilizzato da Xmanager, oltre ad essere relazionale, diventa di fatto un'ontologia, caratterizzata da relazioni di livello più alto e capace di dare origine a "ragionamenti automatici" e inferenze che estraggono dal dato proprietà non esplicite. Alla fine di questo percorso di sviluppo la modellazione del dato diventerà più facile e flessibile e soprattutto aperta a infinite possibilità di riutilizzazione e condivisione delle informazioni e della conoscenza sulla rete. Web 3.0: il futuro dei siti web è semantico Non accade tutti i giorni che tre colossi dell'informatica, o meglio del web, si muovano di comune accordo per presentare quella che potrebbe essere forse la maggiore rivoluzione del web dalla sua nascita ai nostri giorni. I tre giganti dei motori di ricerca, Google, Bing e Yahoo, lo scorso 2 giugno hanno infatti lanciato il progetto Schema.org. Ecco perché, nonostante la notizia in Italia sia passata piuttosto in sordina, sono state fondate le basi per il futuro Web 3.0. Il progetto "Schema.org" in termini tecnici è un modello standard di markup semantico dei siti web. In poche parole significa che nel momento in cui un sito internet adotti il modello di Schema.org, questo sarà in grado di trasmettere ai motori di ricerca un enorme numero di informazioni, molto più precise e dettagliate di quanto non faccia attualmente. Quale tipo di informazioni? Facciamo un esempio: The Regista: Blues John Landis Brothers (nato il (Commedia) 3 agosto, 1950) Guarda il Trailer Oggi se un sito internet riporta, ad esempio, i dati di un film famoso i motori di ricerca analizzano il contenuto del testo delle sue pagine e registreranno una serie di parole (The, Agosto, Brothers, 1950, Blues, John, Trailer, Landis, nato, etc…) senza però capirne effettivamente il significato e le relazioni. Possiamo interrogare i motori di ricerca chiedendo di "The Blues Brothers" o di "John Landis" e ci verrà riportata la pagina contenente quello che stiamo cercando, ma non possiamo fare a Google una domanda diretta come: "chi è il regista di The Blues Brothers?" e aspettarci una risposta coerente nella maggior parte dei casi. Sullo stesso sito internet, le stesse informazioni, se si adotta il modello semantico di Schema.org, invece daranno modo di capire effettivamente ai motori di ricerca che stiamo parlando di The Blues Brothers, un film del genere Commedia, che il suo regista è John Landis (nato nel 1950) e che esiste un link al suo trailer. Questo significa che un domani potremo chiedere al motore di ricerca quale sia il regista di The Blues Brothers e ricevere come risposta: "John Landis" con un link al nostro sito per approfondire la questione. Tutto qui? Sì, si tratta di informazioni che le macchine possono capire e catalogare. Adesso immaginate di poter porre diverse domande ai motori di ricerca come: "Qual è il consumo elettrico della lavatrice XY?" oppure: "Quanto è lungo quel modello di automobile? Che consumi ha?". Le risposte che otterremo saranno molto vicine a quelle che darebbe un essere umano e in effetti il web risponderà come una sorta di grande "intelligenza artificiale". Un sito di e-commerce non presenterà più una serie di prodotti "anonimi" ai motori di ricerca, ma sarà in grado di far identificare in maniera univoca i prodotti, associando: brand, costruttore, caratteristiche tecniche, recensioni e tutta una nuova serie di dati e attributi che oggi sfuggono alla catalogazione. Se un domani cercassimo in rete informazioni su una macchina fotografica "Nikon D90" non ci verrebbero presentate per errore schede tecniche di altre fotocamere Nikon e così via. Al contrario Google, ad esempio, potrebbe arricchire ulteriormente la ricerca fornendoci informazioni addizionali su quello stesso prodotto attingendo da siti diversi. Non solo prodotti però: la ricerca si estenderà anche a persone, luoghi, eventi, aziende, opere d'arte, etc… Anche il noto Wolfram|Alpha, un motore di ricerca intelligente che propone direttamente una risposta invece che offrire una lista di collegamenti ad altri siti web, si avvantaggerà enormemente di questa rivoluzione. Dai siti web agli smartphone, l'intelligenza artificiale al potere Tutte queste informazioni non sarebbero solo a disposizione dei motori di ricerca classici come Google, ma entrerebbero a far parte dell'intelligenza di altri dispositivi come ad esempio gli smartphone. Ci sono già servizi sperimentali di "intelligenza artificiale" nei nostri smartphone. Siri su iPhone 4s di Apple (che tra l'altro si avvantaggia del già citato Wolfram|Alpha) è sicuramente il capostipite di queste nuove A.I. divenute mainstream, ma anche Google sta cercando di arrivare sul mercato con un sistema analogo per il suo Android. Si parla infatti di "Alfred" un progetto di Clever Sense recentemente acquistato da Google o di "Majel", nome in codice che deriva dal nome dell'attrice americana che impersonava "la voce" del computer della Federazione nella serie televisiva di "Star Trek". In entrambi i casi sono tentativi di competere con l'intelligenza artificiale di Siri su iPhone 4s. Naturalmente non sono mancate polemiche su questioni relative all'implementazione tecnica di Schema.org (microdata, microformats, RDFa) o alle implicazioni che riguarderanno la nostra privacy in rete o critiche sulla poca documentazione disponibile e sull'effettiva volontà degli attori (Google, Bing, Yahoo!) di voler fare realmente sul serio riguardo al progetto. Il cambiamento però è epocale, l’ultima volta che si è registrato un accordo unanime tra i motori di ricerca è stata con la dichiarazione delle sitemap.xml, nel 2006. Una maniera condivisa di segnalare tutte le pagine presenti in un sito internet, un grande passo avanti per chi si occupa dello sviluppo di siti web. L'evoluzione del web: rimanere competitivi C'è anche un lato poco piacevole che bisognerà tenere ben presente: sfide cognitive come queste e il fatto di vedere i siti internet non più solo come pagine ma come dati provocano innovazioni che a volte possono essere anche potenzialmente distruttive. Se i motori di ricerca diventano fornitori di risposte impressions e click cambieranno profondamente grazie all'aumentata trasparenza delle informazioni. Advertising, intermediari delle informazioni e SERP subiranno mutamenti notevoli. Il web evolve in maniera non del tutto prevedibile, è un ecosistema e, a seconda del contesto in cui si opera, se non ci adegua alla svelta, si può rischiare di sparire dalla faccia dei motori di ricerca. Ecco perché è importante per un'azienda implementare da subito la tecnologia offerta da Schema.org, anche se i reali benefici si manifesteranno meglio con il passare del tempo. D'altronde evolvere e assicurarsi di essere davanti ai propri competitor è sempre una cosa positiva oltre che una legge di natura per la sopravvivenza.