...

La differenza tra web 1.0, web 2.0 e web 3.0

by user

on
Category: Documents
4

views

Report

Comments

Transcript

La differenza tra web 1.0, web 2.0 e web 3.0
La differenza tra web 1.0, web 2.0 e web 3.0
Sempre più spesso si sente parlare di web 1.0 e web 2.0 senza sapere esattamente di cosa si tratti e
fondamentalmente che differenza ci sia tra i due. Visto che ormai si parla già di web 3.0, è il caso di fare un pò di luce
su questo argomento.
Partiamo
con
le
definizioni:
Web 1.0 Le informazioni sono pubblicate in maniera statica, immaginate come un vostro foglio di word con testo e
immagini, portato su web. L’utente arriva sulla pagina, legge e se ne va senza nessuna interazione. Attualmente il
70% degli utenti è ancora abituato a questo tipo di navigazione.
Web 2.0 Il termine venne coniato da Tim O’Reilly alla prima conferenza sul web 2.0. Per la prima volta si iniziò a dare
grande importanza all’usabilità e al modo di condividere i contenuti. Il webmaster non è che una parte del sito, che,
nei casi più importanti, è composto da comunità di migliaia di utenti (si pensi a Wikipedia).
Web 3.0 Come ogni rivoluzione, si cerca ora, con il web 3.0, di raffinare l’enorme cambiamento che ha portato il web
2.0: Il web 3.0 infatti, non sarà altro che un evoluzione del suo predecessore. Attualmente non è ancora tutto chiaro
ma da quel che si legge sulla rete, ma possiamo immaginarci uno scenario in cui le informazioni in rete vanno sempre
di più agglomerate verso un unico database, e consultate da più pagine web grazie a tecnologie tipo XML, WSDL e
derivate. Si parla altresì di intelligenze artificiali grazie ad algoritmi sempre più sofisticati che permetteranno un
orientamento migliore in una rete sempre più affollata. Infine il web 3.0 si muoverà verso il 3D, con una rete non più
fatta di pagine, ma di veri e propri spazi in cui “muoverci” per trovare quello che cerchiamo. (in questo l’esperienza
di second life credo sia stata determinante).
Per finire ecco qualche esempio:
WEB 1.0
DoubleClick
Ofoto
Britannica Online
Siti personali
Screen scraping
Pubblicazione
Sistemi di gestione dei contenuti
WEB 2.0
Google AdSense
Flickr
Wikipedia
Blogging
Web services
Partecipazione
Wikis
Come si può vedere ho evidenziato le due voci “pubblicazione” e “partecipazione” perchè fondamentalmente è
questa la differenza sostanziale.
Mentre nel Web 1.0 è il webmaster il solo interlocutore con i suoi utenti, nel Web 2.0 sono il webmaster e gli utenti
a comunicare.
"Cos'è esattamente il web 3.0?", chiese uno spettatore a nientemeno che Eric Schmidt. La risposta dell'allora CEO di
Google fu: "Web 3.0 è un termine di marketing. E io credo che lei abbia appena inventato il web 3.0."
Non male! Ma dopo questa battuta, Schmidt tentò comunque di definire il concetto come un legame più stretto fra
applicazioni, in modo che esse siano disponibili facilmente ovunque e possano interagire a vicenda senza
problemi. Una risposta che, a dire il vero, appare un po' fumosa.
Era il 2007. Ma a quattro anni di distanza, il terzo gradino del www si fa attendere: non solo, si fa attendere anche
una sua chiarificazione.
Come sottolinea anche la voce di Wikipedia, con web 3.0 si intendono ancora cose piuttosto diverse, e un'intesa
definitiva sul termine non c'è ancora. Alcuni si riferiscono al 3.0 come al web tridimensionale; altri preferiscono
pensarlo come il web degli oggetti; altri ancora dicono che tutto dipende solo dalla prossima variazione di
investimenti economici, o dal prossimo step di hardware.
Tuttavia, sembra che la maggior parte degli esperti converga verso l'idea della connessione semantica.
La progressione delle tre fasi della rete può essere descritta in questo modo:
- Web 1.0: piattaforme di pubblicazione base (dall'editore all'utente in via unidirezionale) e generica messa online
dei dati.
- Web 2.0: aumento delle potenzialità di banda e avvento del social (contenuti user-generated, partecipazione
diretta, ecc.).
- Web 3.0: componente semantica e collegamenti fra i dati gestiti direttamente dai computer. Come dice Nicholas
Carr, per la prospettiva semantica il web 3.0 è "macchine che parlano fra macchine".
Un esempio. Con il pieno sviluppo delle potenzialità 3.0, i fraintendimenti di ricerca tenderanno a scomparire. Il
potenziamento semantico consentirebbe a una macchina di interpretare come un essere umano (o quasi) una
stringa: e quindi di coglierne il significato al volo, evitando problemi di omonimia, mancato riconoscimento di
funzioni logiche complesse, eccetera.
Insomma, se con l'avvento del 2.0 erano gli esseri umani a condividere le informazioni, con il web 3.0 saranno in
primo luogo le macchine.
Tutto molto interessante, certo. Ma fattibile?
Il problema del sogno semantico è il problema dell'Intelligenza Artificiale: affinché emerga una rete evoluta in
termini di significato, occorre credere che le macchine sapranno realmente maneggiare dei significati. Tradotto in
soldoni da Jonathan Richards, "il web 3.0 significa dare a internet stessa un cervello".
I casi sono due, quindi: o prendiamo sul serio questa provocazione - e crediamo all'idea che un giorno l'Intelligenza
Artificiale emerga davvero - oppure parole come "web 3.0" e compagnia servono solo a riempirsi la bocca. Come
diceva Schmidt, sono puri termini di marketing
Intelligenza Semantica e Web 3.0
Intelligenza Semantica
Nel mondo informatico, si parla di intelligenza semantica per indicare quelle tecnologie in grado di trasformare
informazioni non strutturate, ad esempio i contenuti di un sito web, in un insieme (database) di informazioni
strutturate che può essere interpretato ed elaborato automaticamente sulla base delle proprietà semantiche dei
dati. In altre parole, l'intelligenza semantica è in grado di lavorare con i "concetti": ciò è reso possibile dalla
combinazione di analisi semantica e codici di mark-up, che riescono a tradurre in linguaggio informatico i domini
della conoscenza (ottenendo le ontologie, uno schema concettuale esaustivo e rigoroso che rappresenta tutte le
entità di contenuto rilevanti all'interno di un determinato dominio e le relazioni esistenti fra di esse).
Web 3.0
L'intelligenza semantica è il paradigma alla base della fase 3.0 del Web, oggi in piena evoluzione. In questa
estensione, il World WideWeb si trasforma in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini
e così via) diventano interpretabili, cioè vengono associati a informazioni e metadati che ne specificano il contesto
semantico in un formato adatto all'interrogazione, all'interpretazione e, più in generale, all'elaborazione automatica.
Per fare ciò Il web semantico si basa sul paradigma che qualunque tipo di fonte, e in particolare le fonti informative
non strutturate, siano codificate tutte con gli stessi criteri. I documenti dovranno quindi condividere la lingua in cui
sono scritti, secondo ad es. il Web Ontology Language (OWL), un linguaggio di markup che rappresenta
esplicitamente significato e semantica dei termini con vocabolari e relazioni tra i termini, e l'RDF (Resource
Description Framework, lo strumento base proposto dal W3C per la codifica, lo scambio e il riutilizzo di metadati
strutturati e che consente l'interoperabilità tra applicazioni che si scambiano informazioni sul Web.)
Con l'interpretazione del contenuto dei documenti che il Web Semantico propugna, saranno possibili ricerche molto
più evolute delle attuali ed altre operazioni specialistiche come la costruzione di reti di relazioni e connessioni tra
documenti secondo logiche più elaborate del semplice link ipertestuale. Ad es, se oggi una ricerca su Google tramite
la parola "libro" restituisce le occorrenze del termine, in un contesto semantico la stessa ricercà sarà in grado di
restituire il documento che effettivamente corrisponde ad un libro.
Xmanager
come
Semantic
Content
Xmanager lavora in modo semantico secondo un percorso di sviluppo che prevede:
Manager
L'utilizzo di un modello relazionale dei dati. Con Xmanager l'utente è in grado di trasformare il dato da non
strutturato a strutturato assegnandoli un modello che ne definisce gli attributi e ne ricostruisce le relazioni
logiche con altre tipologie di dati; il dato è modellabile in maniera totalmente libera e flessibile, la struttura
delle informazioni può variare a seconda delle esigenze e della destinazioni d'uso. Pochi sono oggi i CMS che
lavorano con dati relazionali.
L'implementazione di un dato propriamente e pienamente semantico. In altre parole, Xmanager è in grado
di produrre in ouyput un dato che potrà essere letto automaticamente dalle macchine (machine-readable) e
da applicazioni esterne. Cioà avviene in due step:
o All'interno del codice html Xmanager incorpora dei tag che danno informazioni semantiche
codificate secondo gli standard condivisi del Web 3.0 come ad es. i microformats (una parte di mark
up che consente espressioni semantiche in una pagina web HTML)
o Il dato utilizzato da Xmanager, oltre ad essere relazionale, diventa di fatto un'ontologia,
caratterizzata da relazioni di livello più alto e capace di dare origine a "ragionamenti automatici" e
inferenze che estraggono dal dato proprietà non esplicite.
Alla fine di questo percorso di sviluppo la modellazione del dato diventerà più facile e flessibile e soprattutto aperta
a infinite possibilità di riutilizzazione e condivisione delle informazioni e della conoscenza sulla rete.
Web 3.0: il futuro dei siti web è semantico
Non accade tutti i giorni che tre colossi dell'informatica, o meglio del web, si muovano di comune accordo per
presentare quella che potrebbe essere forse la maggiore rivoluzione del web dalla sua nascita ai nostri giorni. I tre
giganti dei motori di ricerca, Google, Bing e Yahoo, lo scorso 2 giugno hanno infatti lanciato il progetto Schema.org.
Ecco perché, nonostante la notizia in Italia sia passata piuttosto in sordina, sono state fondate le basi per il futuro
Web 3.0.
Il progetto "Schema.org" in termini tecnici è un modello standard di markup semantico dei siti web. In poche parole
significa che nel momento in cui un sito internet adotti il modello di Schema.org, questo sarà in grado di trasmettere
ai motori di ricerca un enorme numero di informazioni, molto più precise e dettagliate di quanto non faccia
attualmente.
Quale tipo di informazioni? Facciamo un esempio:
The
Regista:
Blues
John
Landis
Brothers
(nato
il
(Commedia)
3
agosto,
1950)
Guarda il Trailer
Oggi se un sito internet riporta, ad esempio, i dati di un film famoso i motori di ricerca
analizzano il contenuto del testo delle sue pagine e registreranno una serie di parole (The,
Agosto, Brothers, 1950, Blues, John, Trailer, Landis, nato, etc…) senza però capirne
effettivamente il significato e le relazioni.
Possiamo interrogare i motori di ricerca chiedendo di "The Blues Brothers" o di "John Landis"
e ci verrà riportata la pagina contenente quello che stiamo cercando, ma non possiamo fare
a Google una domanda diretta come: "chi è il regista di The Blues Brothers?" e aspettarci
una risposta coerente nella maggior parte dei casi.
Sullo stesso sito internet, le stesse informazioni, se si adotta il modello semantico di
Schema.org, invece daranno modo di capire effettivamente ai motori di ricerca che stiamo
parlando di The Blues Brothers, un film del genere Commedia, che il suo regista è John
Landis (nato nel 1950) e che esiste un link al suo trailer.
Questo significa che un domani potremo chiedere al motore di ricerca quale sia il regista di The Blues Brothers e
ricevere come risposta: "John Landis" con un link al nostro sito per approfondire la questione.
Tutto qui? Sì, si tratta di informazioni che le macchine possono capire e catalogare. Adesso immaginate di poter
porre diverse domande ai motori di ricerca come: "Qual è il consumo elettrico della lavatrice XY?" oppure: "Quanto è
lungo quel modello di automobile? Che consumi ha?".
Le risposte che otterremo saranno molto vicine a quelle che darebbe un essere umano e in effetti il web risponderà
come una sorta di grande "intelligenza artificiale".
Un sito di e-commerce non presenterà più una serie di prodotti
"anonimi" ai motori di ricerca, ma sarà in grado di far
identificare in maniera univoca i prodotti, associando: brand,
costruttore, caratteristiche tecniche, recensioni e tutta una
nuova serie di dati e attributi che oggi sfuggono alla
catalogazione.
Se un domani cercassimo in rete informazioni su una macchina fotografica "Nikon D90" non ci verrebbero
presentate per errore schede tecniche di altre fotocamere Nikon e così via. Al contrario Google, ad esempio,
potrebbe arricchire ulteriormente la ricerca fornendoci informazioni addizionali su quello stesso prodotto attingendo
da siti diversi.
Non solo prodotti però: la ricerca si estenderà anche a persone, luoghi, eventi, aziende, opere d'arte, etc…
Anche il noto Wolfram|Alpha, un motore di ricerca intelligente che propone direttamente una risposta invece che
offrire una lista di collegamenti ad altri siti web, si avvantaggerà enormemente di questa rivoluzione.
Dai siti web agli smartphone, l'intelligenza artificiale al potere
Tutte queste informazioni non sarebbero solo a disposizione dei motori di ricerca classici
come Google, ma entrerebbero a far parte dell'intelligenza di altri dispositivi come ad
esempio gli smartphone.
Ci sono già servizi sperimentali di "intelligenza artificiale" nei nostri smartphone. Siri su
iPhone 4s di Apple (che tra l'altro si avvantaggia del già citato Wolfram|Alpha) è
sicuramente il capostipite di queste nuove A.I. divenute mainstream, ma anche Google
sta cercando di arrivare sul mercato con un sistema analogo per il suo Android.
Si parla infatti di "Alfred" un progetto di Clever Sense recentemente acquistato da Google o di "Majel", nome in
codice che deriva dal nome dell'attrice americana che impersonava "la voce" del computer della Federazione nella
serie televisiva di "Star Trek". In entrambi i casi sono tentativi di competere con l'intelligenza artificiale di Siri su
iPhone 4s.
Naturalmente non sono mancate polemiche su questioni relative all'implementazione
tecnica di Schema.org (microdata, microformats, RDFa) o alle implicazioni che
riguarderanno la nostra privacy in rete o critiche sulla poca documentazione disponibile e
sull'effettiva volontà degli attori (Google, Bing, Yahoo!) di voler fare realmente sul serio
riguardo al progetto.
Il cambiamento però è epocale, l’ultima volta che si è registrato un accordo unanime tra i
motori di ricerca è stata con la dichiarazione delle sitemap.xml, nel 2006. Una maniera
condivisa di segnalare tutte le pagine presenti in un sito internet, un grande passo avanti
per chi si occupa dello sviluppo di siti web.
L'evoluzione del web: rimanere competitivi
C'è anche un lato poco piacevole che bisognerà tenere ben presente: sfide cognitive come queste e il fatto di vedere
i siti internet non più solo come pagine ma come dati provocano innovazioni che a volte possono essere anche
potenzialmente distruttive.
Se i motori di ricerca diventano fornitori di risposte impressions e click cambieranno profondamente grazie
all'aumentata trasparenza delle informazioni. Advertising, intermediari delle informazioni e SERP subiranno
mutamenti notevoli.
Il web evolve in maniera non del tutto prevedibile, è un ecosistema e, a
seconda del contesto in cui si opera, se non ci adegua alla svelta, si può
rischiare di sparire dalla faccia dei motori di ricerca.
Ecco perché è importante per un'azienda implementare da subito la
tecnologia offerta da Schema.org, anche se i reali benefici si
manifesteranno meglio con il passare del tempo.
D'altronde evolvere e assicurarsi di essere davanti ai propri competitor è
sempre una cosa positiva oltre che una legge di natura per la sopravvivenza.
Fly UP