Volevo segnalare una guida particolarmente chiara che ho trovato sul Semantic Web, scritta da una persona non appartenente certo all’era tecnico-scientifica: un filosofo…

-> La Rete e’ troppo rigida: di chi e’ la colpa?

Un piccolo excursus sul Semantic Web ponendo l’attenzione sulla sua natura umanista piu’ che sulla natura tecnica e chiaramente visto chi e’ l’autore ci si sofferma su aspetti forse non sempre chiari…

Infatti il Semantic Web di fatto e’ un tentativo e una sfida non solo tecnologica ma anche filosofica di rappresentazione della conoscenza

Qualche estratto particolarmente significativo:

La Rete di nuova generazione sarà dunque una iper-piattaforma di calcolo e comunicazione in cui convergeranno, in maniera continua, le informazioni di tutti i database, senza una distinzione netta tra periferiche e server.
Con il crollo delle barriere tra informazioni in linea e database informativi, internet avrà una sola interfaccia unificata in grado di muoversi in modo trasparente tra internet e Pc.

L’idea di fondo del web semantico è quella di far diventare la Rete in grado di capire le nostre richieste.
Non in senso proprio, ovviamente: i documenti non dovrebbero più risultare come delle “isole di dati”, ma piuttosto come dei database aperti nei quali un “applicativo” possa di distinguere le informazioni contenute, ricavandone solo quelle richieste.

Tutto questo non in virtù di sistemi di intelligenza artificiale, ma molto più semplicemente in virtù di una marcatura dei documenti, di un linguaggio gestibile da tutte le applicazioni e dell’introduzione di vocabolari specifici, cioè di collezioni di frasi alle quali possano associasi relazioni stabilite fra gli elementi marcati.

In pratica il web semantico per funzionare deve poter disporre di informazione strutturata e di regole di deduzione per gestirla, in modo da accostare quelle informazioni che un’interrogazione ha richiesto.

Dato che siamo in argomento sempre dello stesso autore e’ presente in Rete la sua tesi di laurea dal titolo:

-> Dai graffiti al Web: come cambia la struttura referenziale nell’eta’ della Rete

Sembra molto interessante: appena trovo il tempo gli daro’ un’occhiata…

Commenta e condividi

E indovinate di cosa si sta parlando?

Ma di Semantic Web e’ ovvio!!!

Il Corriere dedica un articolo generale ma molto comprensibile sull’argomento e tocca uno dei punti fondamentali: in parte e’ gia’ partito…
e gli scettici stanno iniziando a ricredersi…
-> Il web intelligente è già in mezzo a noi

Niente più byte anonimi e indistinti, dunque. Il nuovo universo permetterà, per esempio, un più veloce e automatico scambio di informazioni tra un elenco telefonico online e un cellulare, grazie ad applicazioni in grado di riconoscere di quali dati c’è bisogno.

Su questa strada, i siti web potranno configurarsi in base agli interessi dei visitatori e i motori di ricerca riusciranno a produrre risposte più appropriate alle ricerche degli utenti.

E per finire…

E per il prossimo giugno è già in programma un simposio sul semantic web da tenersi in Usa in una non ancora precisata località della costa pacifica.
Obiettivo: convertire gli scettici.

Non sarebbe bello riuscire ad andarci?

Una delle cose che vorrei fare nel prossimo futuro e’ fornire i dettagli magari non troppo tecnici per capire in pratica i vantaggi di questo nuovo passo avanti del Web…

Diciamo che fino adesso il neonato non parlava, ma adesso comincia a fare dei piccoli lamenti..

Immaginatevi quando iniziera’ a parlare :)

Commenta e condividi

E questo fatto purtroppo si conosce poco…

Ma uno dei migliori docenti che ho all’universita’ e con il quale sto facendo la tesi e’ la fonte di alcune idee alla base di GoogleMassimo Marchiori

Ha conosciuto Larry Page nell’aprile del 1997, alla Sesta conferenza internazionale sul World Wide Web di Santa Clara (California), e lo ricorda come un tipo «umile, molto alla mano, con una mentalità più imprenditoriale rispetto a Sergey Brin».

I motori di ricerca dell’epoca, ricorda Marchiori, «davano un punteggio a ogni singola pagina e basta. Io ne presentai uno nuovo, Hypersearch, che andava a vedere anche la relazione della pagina con il resto del Web».

«Solo che io la pensavo in un altro modo rispetto a Page e Brin. Nella loro impostazione, se un sito di auto è segnalato da un sito di auto o di scooter il punteggio non cambia. Ma il navigatore sta cercando auto, non scooter. Il mio progetto teneva conto di questo, privilegiava la qualità dell’informazione che posso raggiungere da un sito, non la sua popolarità».

Se oggi Google non è italiano è perché i due studenti di Stanford hanno ben miscelato il genio matematico con quello imprenditoriale: «Con l’algoritmo giusto, la loro strada consentiva ricerche più veloci», riprende Marchiori.

Materiale tratto da questa intervista:

-> http://www.calamo.it/computer/google.php

Pazzesco…

e cmq ecco una ragione per cui adesso entrare in competizione sarebbe un bel casino…

Il problema sta soprattutto nelle risorse: per dimostrare la bonta’ di un motore occorre poi farlo funzionare su scala mondiale, non solo pubblicare l’idea in un articolo.

Per esempio, Hypersearch, a mio giudizio, e’ superiore a Pagerank, eppure quasi nessuno lo conosce, per il semplice motivo che non c’e’ un motore di ricerca che mostri la bonta’ dell’idea su larga scala’’.

‘’Per competere con Google -conclude- non bastano solo idee innovative, occorrono mezzi e risorse, e certamente, avendo un po’ di risorse, sarebbe una sfida stimolante’’.

Il resto del materiale in questo articolo:

-> Google poteva essere ‘Made in Italy’

E giustamente nel 2004 e’ stato premiato per la sua bravura:

-> Anche un italiano nei TR100

La sua home page al W3C:

-> http://www.w3.org/People/Massimo/

E volevo segnalare anche un bel post che richiama anche la mia opinione personale su una persona che sta dando le sue capacita’ al servizio di altri valori oltre al denaro…

-> http://www.jazzer.it/2004/11/su-massimo-marchiori.htm

AGGIORNAMENTO:

Ho trovato altri riferimenti interessanti al riguardo:

Dunque Marchiori avrebbe discusso nel 1997 di motori di ricerca con il signor Larry Page, della premiata ditta Page & Brin, cercando di spiegargli che il metodo di ricerca del pagerank aveva un sacco di difetti e, a quanto pare, convincendolo dell’esatto contrario. A tal punto da indurlo a creare il famoso google, basato proprio sul pagerank.

Il titolo dell’articolo evoca un micidiale e tipico mix di senso d’orgoglio, d’invidia e di sfiga nazional-popolare, cui sembra però, fortunatamente, essere immune il diretto interessato che, fra le righe, lascia intendere che pure lui, sooner or later, tirerà fuori dal cassetto le sue formulette e si metterà in affari.

E lo farà quando google fallirà miseramente, vittima delle debolezze di fondo del metodo pagerank, che lui aveva già individuato nel 1997 e che aveva cercato, invano, di spiegare a quel cocciuto di Larry.

E sapete quale sarà una delle cause principali di questo fallimento ?
I blog.
Sì, avete capito bene, proprio i nostri cari, amati e odiati blog.
Per evitare malintesi riporto le testuali parole del Dr. Marchiori: “con il boom dei blog nella Rete, il link, l’elemento centrale su cui si basa l’algoritmo di Google, ha perso il peso specifico che aveva nel 1997 ed è oggi inflazionato.”

La fonte e’ un blog molto bello e interessante, 5 del Mattino:

-> tormento(ne) google

Commenta e condividi

Foto dell'autore

Matteo Brunati

Attivista Open Data prima, studioso di Civic Hacking e dell’importanza del ruolo delle comunità in seguito, vengo dalle scienze dell’informazione, dove ho scoperto il Software libero e l’Open Source, il Semantic Web e la filosofia che guida lo sviluppo degli standard del World Wide Web e ne sono rimasto affascinato.
Il lavoro (dal 2018 in poi) mi ha portato ad occuparmi di Legal Tech, di Cyber Security e di Compliance, ambiti fortemente connessi l’uno all’altro e decisamente sfidanti.


Compliance Specialist SpazioDati
Appassionato #CivicHackingIT


Trento