« SPARQL Protocol and RDF Query Language/Requêtes de découverte » : différence entre les versions

Contenu supprimé Contenu ajouté
m Robot : Changement de type cosmétique
Ligne 14 :
== Introduction : la méthode agile appliquée aux données ==
 
Quant on choisit un système d'information c'est un peu comme une voiture, on se renseigne avant sur le prix des pneus, l'assurance, les options, etc.<br />
Il y a une chose qu'on chiffre très mal en amont : c'est le temps non pas du développement du système mais le temps que pourra prendre une modification du système. Est-ce que la personne qui l'a développé sera encore là ? Est-ce que la documentation est suffisante ? Quel sera le délai pour se réapproprier le système ? La qualité de service ? La plateforme de développement et de tests à mettre en œuvre est-elle aussi documentée ? Etc.<br />
Nous allons essayer de comparer les méthodes actuelles pour modifier une base de données et comprendre pour quoi SPARQL va simplifier la manière de développer des applications.
 
Ligne 45 :
 
=== Et demain ? ===
Le coût de mise à jour de la base de données devient nul avec SPARQL ou plutôt presque nul. En réalité, quand une application est remplacée par une autre, il faudra restructurer la base de données avec un autre programme pour migrer les objets d'une ontologie à un autre. Toutes les données étant toutes visibles au même endroit, il n'y pas de problèmes de migration mais juste des réécritures de données.<br />
Cela est parfaitement envisageable quand l'environnement du système est sous contrôle mais dés lors que l'on utilise des données extérieures, une application est soumise à l’aléa des changements des ontologies de données.
 
Ligne 135 :
=== Découvrir un prédicat via une expression régulière ===
 
Si vous recherchez à afficher le titre de films dans une base de données. On peut supposer que le prédicat devrait contenir le texte "title" (titre en anglais).<br />
Une fois le prédicat trouvé, on peut en théorie retrouver l'ontologie sur le Web pour savoir si ce lien répond à votre besoin.
 
Ligne 160 :
 
== Fabriquer un agent intelligent ==
Maintenant, vous savez découvrir les ontologies qui sont utilisées au sein d'une base de données et rebondir sur le site de description de cette ontologie.<br />
Vous savez donc fabriquer une application avec SPARQL en fonction des données disponibles en supposant que ces données sont stables dans le temps.
 
La seconde étape est de prendre en compte l'aspect mouvant des données pour permettre à votre application de s'adapter aux données disponibles. <br />
On divise ce processus en trois étapes : détection du changement, recherche de nouvelles données et modification des requêtes de l'application.
 
Si ces trois étapes sont automatiques, on peut parler d'agent intelligent (AI). Pour le moment, la détection peut être automatique mais la recherche de données automatiquement demandent encore de nombreux travaux au W3C. Ainsi dans cette partie, on va essayer de décrire ce que devrait faire un agent intelligent et par défaut ce que doit faire un développeur qui doit maintenir son application.
 
=== Détection du changement ===
Certaine implémentation de triplestore contient des déclencheurs (triggers) mais ils ne font pas encore partie de la recommandation du W3C. Ces déclencheurs auront pour fonction d'alerter les AI si certaine requête cesse de renvoyer des résultats par exemple.
 
Ligne 187 :
=== Modification des requêtes de l'application ===
 
Une fois que le développeur, ou dans le futur un AI, aura trouvé de nouvelles données et donc réécrit de nouvelles requêtes, il lui faudra les déployer.<br />
Pour faciliter cette étape, il ne faut pas coder en dur les sources des données et les requêtes. Seule la définition des nouvelles requêtes sera identique aux anciennes requêtes.<br />
Il faut permettre de changer simplement les source des données (endpoint) et les requêtes à travers un service de mise à jour.
 
Ligne 195 :
== Demain ? ==
 
Le W3C est à mi-chemin de la roadmap du Web Sémantique. Si on considère que le stockage commence à être satisfaisant, la découverte doit être améliorer et la mise en place d'annuaires devient indispensable. <br />
C'est seulement après ces améliorations que nous pourrons développer des algorithmes logiques sur les données pour que des agents puissent entre autres atteindre automatiquement des données disponibles sans intervention humaine. <br />
C'est la technologie [[w:RIF (Rule Interchange Format)|RIF (Rule Interchange Format)]] qui permettra de compléter SPARQL pour permettre l'arrivée des premiers agents intelligents. Donc à suivre...