[ crosspost su VoIT ]

Partiamo col dire che c’e’ stato un po’ di casino in seguito a questa vicenda:
-> Un franco scambio di opinioni fra Google e Tim Berners-Lee sul Semantic Web

Anche Danny e molti altri su PlanetRDF si sono mossi, e a livello italiano e’ partita pure una campagna:
-> The summer of incompetence


logo della campagna incompetente? semantico!

E’ interessante notare che una disciplina per certi versi complessa come il Web semantico, possa essere attaccata dalla solita questione della preparazione tecnica: la relativa facilita’ di appredimento dell’HTML collegata alla presenza di generatori automatici di codice, secondo i puristi, ha aiutato a denigrare l’ambiente Web.

Senza entrare in un discorso ben piu’ ampio, Google probabilmente pensa che l’utente medio non abbia compentenze, e non pretende che una corretta compresione delle tecnologie semantiche ( ben piu’ difficili rispetto al Web standard ), possa arrivare alla massa.

Ci si riferisce che attualmente il movimento del Semantic Web dipende molto da coloro che lo adottano, e quindi dalla sensibilita’ e dalla conoscenza degli utenti finali.

Anche perche’ il 2006 e il 2007 sono anni fondamentali in questo frangente: stanno facendo la loro comparsa infatti alcuni tool che rendono trasparente la loro tecnologia semantica sottostante.

Quindi potenzialmente l’utente puo’ iniziare a breve a contribuire attivamente all’evoluzione del Web, come d’altronde ha sempre fatto.

Infatti il Web2.0 e il Semantic Web sono molto piu’ simili di quello che sembra e cercano di rispondere ad esigenze sempre piu’ sentite della comunita’.

Le tecnologie loose-coupled e il loro abbinamento in determinati contesti, necessitano di una certa flessibilita’ mentale per esprimere la loro reale potenzialita’…
In contesti piu’ o meno diversi da quelli pensati originariamente…
( e’ notevole leggere il principio del Least Power che ha guidato la creazione del Web e di HTML )

L’innovazione che permette il principio end-to-end alla base di Internet in questo caso e’ veramente eccezionale: spostare le complessita’ agli estremi e’ qualcosa di grandioso, davvero…

E’ qui che si puo’ spiegare tutto quello che sta facendo Google in questo periodo, nonche’ la fioritura di applicazioni web basate sul Single Sign-on del Google Account…

La vera paura di Google

Perche’ Google non crede al Semantic Web, e anzi lo teme…
**
Il Semantic Web con l’utilizzo massiccio di RDF e SPARQL promuove la decentralizzazione delle informazioni, e il loro totale controllo nelle mani dell’utente.**

Una cosa che invece Google non vuole assolutamente: pur dipendendo dalle sue tecnologie, il Web e il Semantic Web non ha mai voluto far perdere all’utente il controllo sui suoi dati, anzi.

Questo e’ il vero motivo della controversia, che probabilmente nel tempo tendera’ a crescere.

Tempo fa avevo parlato di Google Base: ne era emersa l’impressione di uno store simil RDF, ma che sposava una natura TOTALMENTE centralizzata della questione…
Oltre ad un utilizzo strano dei namespaces XML…

Nel Google Calendar invece e’ presente il solo feed Atom e GData e’ MOLTO ispirato al protocollo Atom in effetti: alcune info in questo post di Elias Torres e in questo di Connolly

[ Per quanto rigurda il corretto utilizzo di XML e le estensioni ad Atom in GData e’ interessante questo altro post di Elias Torrez: si capisce anche un possibile ruolo di RDF a vantaggio di XML puro… ]

Insomma Google sta facendo molte belle cose, ma tutto nell’ottica del SUO business: che non e’ necessariamente il migliore…
Si puo’ integrare con altri tool e altre metodologie, in piena filosofia mash-up e Web2.0…

Come dice ancora Danny in questo passaggio:

I guess what I’m trying to say here is that Google appear to see data being distributed on the Web and under the control of individual users as being a threat to their own aims. They see problems unless Web data is in their silos. But this doesn’t have to be the case, they can still be leaders in the interfaces to the data. i.e. don’t build big DBs, make good mashups.

In one sense at least there is potentially a big problem for them: the more directly addressable, first-class data there is on the public Web, the less people will be dependent on free-text search engines. No doubt they’re aware of that already.

Inziative come OpenID e SINP, che mirano a decentralizzare la gestione dell’autenticazione, non dell’identita’, non saranno mai appoggiate da NESSUN colosso del software.

Sarebbe controproducente.

Per non parlare di PeopleAggregator: un social software che APRE i suoi contenuti e li smista usando RDF e FOAF, e non a caso.

Occorre stare attenti.

Alcune direzioni interessanti

In questo senso nel post di Danny ci sono molti tentativi di ROMPERE le consuetidini con esperimenti molto, molto interessanti:
-> Practical SemWeb Outreach

E’ molto intrigante Queso, una delle prime realizzazioni pratiche di ATOM, in accoppiata potenziale con RDF e SPARQL…
-> A Queso Example

In Queso, we want to store both data and XHTML/Javascript application code. We want web application designers to be able to dump their (potentially structured) data into the system, which stores everything as RDF triples. SPARQL provides an easy, standardized way to query for data in a flexible, precise manner. The data in the system can be easily extracted and repurposed for use in other applications, such as mash-ups.

Su ATOM e sui primi esperimenti usando la specifica Atom 1.0 e’ presente un gran bel tutorial su XML.com :
-> Implementing the Atom Publishing Protocol
-> JSON on the Web, or: The Revenge of SML

JSON invece e’ un pezzo molto interessante e molto importante nel gestire a lato client dati via Javascript…

Insomma, sempre piu’ difficile riuscire a esaminare tutto…
Vista la Timeline del progetto SIMILE? La GoogleMaps del tempo…