Si scoprono sempre cose interessanti guardando da dove vengono i visitatori al proprio sito…

Cosi’ vedendomi linkato da un portale mai sentito, ho scoperto questo interessante aggregatore:
-> Stategic Board

Strategic Board is a Web 2.0 search engine that aggregates IT related RSS feeds.

We automatically monitor and identify new IT related blogs.
We currently
track 20,064 technology blogs with 760,632 technology related posts indexed.

Strategic Board is 100% Israeli.

Giusto per capire: l’importanza di fornire i feeds RSS risiede nel fatto che cambia totalmente la modalita’ di fruizione di un sito, e ne aumenta la visibilita’… Per non parlare dell’aggregazione tematica: alla fine l’utente avra’ un modo mirato per cercare informazioni su portali tematici, che si costruiscono e si aggiornano da soli…

E questo e’ solo il primo passo: si usa solo RSS su base XML ancora…

Questa transizione la vedo molto bene dalle statistiche d’accesso del sito: per marzo in 4 giorni ho gia’ il traffico RSS che ha superato il traffico Web normale e sui browser ho questa situazione:

Unknown 38%
FireFox 29%

Mentre sulle statistiche dei sistemi operativi:

Windows 51.5%
Unknown 36.3%

Le voci sconosciute comprendono tutti gli agenti dei feedreader e degli aggregatori automatici, giusto per capire…

Tra i quali ho visto anche Swoogle, il motore di ricerca semantico…

[_ e’ chiaro che sono delle stime, visto che le voci sconosciute non ho modo di catalogarle… ma e’ un indice di quanto inizi a contare il mondo degli agenti automatici rispetto all’interazione uomo-Web_ ]

Insomma le prove che il Web of data si stia avvicinando a grandi passi ci sono e stanno aumentando…

Commenta e condividi

Premesso che non ci sono andato, sembrava comunque interessante…

Ho letto il post di impressioni di Fullo e volevo dire la mia sulla questione RDF…

Come al solito gli spunti più interessanti gli ho avuti da chi mi stava intorno ad esempio si è parlato del problema di come far convergere con buoni compromessi IA e Usabilità e delle problematiche di creazione dei contenuti [ok, va bene l’indicizzazione, le categorie e le faccette… ma se a priori il codice HTML sparato fuori dai backend avesse un equivalente in RDF con dei metadati sensati e coerenti che cacchio vi state a fare delle pippe su come creare uno spider che indicizzi i siti al meglio?].

I grassetti sono miei…

In effetti oggi abbiamo un linguaggio che se adeguatamente compreso, sarebbe ottimo per gestire i metadata dei siti in modo da FACILITARE il reperimento delle informazioni che vogliamo far catturare agli AGENTI SOFTWARE.

Quello che manca, oltre alla consapevolezza della potenza di RDF, sono anche strumenti semplici per facilitare questa creazione di dati in RDF: anche se con RSS abbiamo visto i vantaggi di usare i blogs e i loro motori per creare AUTOMATICAMENTE i file RSS rispettivi.

Insomma, occorre rendere queste tecnologie trasparenti per l’utente.

La mia idea e’ che prima di cercare di replicare gli spider di Google, lo si possa fare a livello del singolo sito, aumentandone l’informazione in metadata ( in RDF ) e mostrando qualche piccolo agente funzionante all’interno del sito stesso.

Possibile che non ci riusciamo?

work in progress

AGGIORNAMENTO: anche riffraff ne parla, e cita la questione:

In particolare sono tanto tanto curioso di avere dettagli su “RDF in xhtml”.

In merito in effetti il W3C ci sta lavorando, ma un ottimo punto di partenza e’:
-> Rdf In Html

Commenta e condividi

Piu’ che altro come comunicazione di servizio…

Tesi pronta [ a breve anche online ], ultimi giorni prima dell’alba…

E poi si riprende un po’ a scrivere…

Con un nuovo stile pero’:

meno chiacchere e lamentele e piu’ elementi costruttivi e cose pratiche da usare e far vedere.

L’idea e’ tornare ad un processo mentale del tipo: la tecnologia e’ apolitica, deve essere un mezzo e non un fine e mi deve semplificare la vita.

Su questa direzione. Altrimenti dal mio punto di vista e’ marketing, o altro; ma non progresso.

Le tecnologie ci sono, basta riuscire a renderle utili.

Giusto per inciso, come dice riffraff, anche in questo dominio il traffico dei lettori e aggregatori dei feeds ha superato il traffico via Web normale: un dato che deve far riflettere chi considera il Semantic Web utopia o pura dissertazione accademica.

A breve piccole novita’ per fare piccoli passi verso un Web di dati, compabile con le tecnologie semantiche, e al di fuori dell’hype attorno al Web2.0.

Un assaggio di quello che ho intezione di fare e’ far capire quanto sia utile RSS1 nei confronti di RSS2: giusto per inciso il secondo e’ XML puro, mentre il primo e’ RDF….

Ora: se si guarda alla struttura del Semantic Web XML e’ la base e RDF un gradino sopra la base, quindi in teoria e’ qualcosa di potenzialmente maggiore..No?

A presto :)

Commenta e condividi

Foto dell'autore

Matteo Brunati

Attivista Open Data prima, studioso di Civic Hacking e dell’importanza del ruolo delle comunità in seguito, vengo dalle scienze dell’informazione, dove ho scoperto il Software libero e l’Open Source, il Semantic Web e la filosofia che guida lo sviluppo degli standard del World Wide Web e ne sono rimasto affascinato.
Il lavoro (dal 2018 in poi) mi ha portato ad occuparmi di Legal Tech, di Cyber Security e di Compliance, ambiti fortemente connessi l’uno all’altro e decisamente sfidanti.


Compliance Specialist SpazioDati
Appassionato #CivicHackingIT


Trento