Abstract
Le projet Azkar réunit le monde de la robotique d'assistance et celui du Web et des données liées. Son but est d'expérimenter la conduite d'un robot mobile via le Web ainsi que l'intelligence artificielle supportée par les formalismes, schémas et jeux de données du Web sémantique dans le cadre de visites muséales. Une première version de production de ce robot est en cours d'expérimentation au Musée de la Grande Guerre de Meaux et à la Cité des Sciences de la Villette.
Les lieux ainsi visités à distance, les espaces et les objets qu'ils contiennent sont décrits à l’aide d’une ontologie des scènes, objets, points d'observations et parcours propres au musée. La géographie et les collections sont capturées dans des données liées et intégrées avec des ressources Web externes au musée pour enrichir les scènes et les objets observés.
Sur cette base, nous avons conçu un démonstrateur permettant de proposer des médias externes en fonction des vitrines visitées, en implémentant un requêtage SPARQL sur un triplestore préalablement peuplé. Ce démonstrateur a fait l'objet d'une démonstration à ISWC 2016 lors de laquelle le robot, piloté depuis le Japon se déplaçait dans nos locaux de Sophia Antipolis et déclenchait une requête SPARQL à l'approche d'un point d'intérêt afin de récupérer des ressources et médias externes à proposer en complément de cette scène.
Dans une seconde phase, actuellement en cours, nous cherchons à proposer, en plus des ressources préalablement enregistrées, des ressources suggérées à la volée à partir de DBPedia ou par Discovery Hub ou un service similaire. Sont aussi prévus des filtres et des outils de priorisation en fonction du type de média, de leur pertinence vis à vis de la scène à enrichir, du public (âge, niveau d'éducation, etc.) et de critères propres au guide qui prépare la visite.
L'évolution suivante sera d'étendre ces outils à la recommandation de parcours. Ainsi le robot pourra suggérer de lui-même des parcours en fonction du temps disponible et des thèmes que l’on désire mettre en avant lors de la visite : Par exemple "AZKAR, propose-moi une visite du Musée de la Grande Guerre de 45 minutes centrée sur l’année 1914 et les vêtements pour une classe de CM2"
#### Références
* [Site Web du projet](http://www.azkar.fr/) voir les articles dans les sections « expérimentations » et « démos/conférences » qui sont agrémentés de nombreuses photos et vidéos.
**Vidéos** :
* [visite disante du musée de la grande guerre](http://www.azkar.fr/2016/12/14/visite-distante-du-musee-de-la-grande-guerre/)
* [Blend Web Mix Lyon 2016](http://www.azkar.fr/2016/11/04/blend-web-mix-2016-lyon/)
* [https://youtu.be/RRotRiNUls4?t=2m2s](https://youtu.be/RRotRiNUls4?t=2m2s)
** Prix scientifiques obtenus :
Best demo Award ISWC 2016 : [Demo award](http://www.azkar.fr/2016/10/26/iswc-2016-best-demo-award-for-azkar/)
#### Auteurs/Autrices
**Michel Buffa**, enseignant chercheur à l’Université de Nice, membre de l’équipe projet WIMMICS commune à INRIA
et au laboratoire I3S de Sophia-Antipolis. Depuis 2005, il a mené ses recherches sur les applications du Web
Sémantique : wikis sémantiques, analyse des réseaux sociaux, outils de développement basés Web pour le Web
sémantique.
Aujourd’hui il est responsable scientifique de deux projets de recherche : le premier, AZKAR, financé par la BPI,
concerne la visite de musées à distance par un robot mobile intelligent, commandé via le Web, l’autre, financé par
l’ANR, a démarré en Janvier 2017 et vise au rapprochement Web audio/musique et Web Sémantique, avec Deezer, Radio
France, IRCAM, et Parisson comme partenaires. Il a publié ses travaux dans les principales conférences internationales
de son domaine et a été dans les comités d’organisations/chair de nombreux workshops et conférences. Il est auteur de
trois MOOCS sur HTML5 et JavaScript réalisés pour le W3C, créés entre 2015 et 2017, qui ont attiré plus de 300.000
personnes sur la plateforme EDx du MIT/Harvard.